lunes, 23 de diciembre del 2024 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




NASA Ames Reproduces the Building of Life in Laboratory

Autor por Emilio Silvera    ~    Archivo Clasificado en Noticias    ~    Comentarios Comments (2)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Nuestro contertulio jccazorla39, me envía un correo que est5ima de interés para que todos lo podamos leer, y, habiéndolo hecho, resulta que he decidido pasarlo para todos. La fuente es la propia NASA.
Scientists simulate space in Ames Astrochemistry Lab
Left to right: Ames scientists Michel Nuevo, Christopher Materese and Scott Sandford reproduce uracil, cytosine, and thymine, three key components of our hereditary material, in the laboratory.
Image Credit:
NASA/ Dominic Hart

NASA scientists studying the origin of life have reproduced uracil, cytosine, and thymine, three key components of our hereditary material, in the laboratory.  They discovered that an ice sample containing pyrimidine exposed to ultraviolet radiation under space-like conditions produces these essential ingredients of life.

Pyrimidine is a ring-shaped molecule made up of carbon and nitrogen and is the central structure for uracil, cytosine, and thymine, which are all three part of a genetic code found in ribonucleic (RNA) and deoxyribonucleic acids (DNA). RNA and DNA are central to protein synthesis, but also have many other roles.

Ames Astrochemistry Lab UV lamp
An ice sample is held at approximately -440 degrees Fahrenheit in a vacuum chamber, where it is irradiated with high energy UV photons from a hydrogen lamp. The bombarding photons break chemical bonds in the ice samples and result in the formation of new compounds, such as uracil.
Image Credit:
NASA/Dominic Hart

“We have demonstrated for the first time that we can make uracil, cytosine, and thymine, all three components of RNA and DNA, non-biologically in a laboratory under conditions found in space,” said Michel Nuevo, research scientist at NASA’s Ames Research Center, Moffett Field, California.  “We are showing that these laboratory processes, which simulate conditions in outer space, can make several fundamental building blocks used by living organisms on Earth.”

An ice sample is deposited on a cold (approximately –440 degrees Fahrenheit) substrate in a chamber, where it is irradiated with high-energy ultraviolet (UV) photons from a hydrogen lamp.  The bombarding photons break chemical bonds in the ices and break down the ice’s molecules into fragments that then recombine to form new compounds, such as uracil, cytosine, and thymine.

NASA Ames scientists have been simulating the environments found in interstellar space and the outer Solar System for years.  During this time, they have studied a class of carbon-rich compounds, called polycyclic aromatic hydrocarbons (PAHs), that have been identified in meteorites, and which are the most common carbon-rich compound observed in the universe.  PAHs typically are structures based on several six-carbon rings that resemble fused hexagons, or a piece of chicken wire.

The molecule pyrimidine is found in meteorites, although scientists still do not know its origin.  It may be similar to the carbon-rich PAHs, in that it may be produced in the final outbursts of dying, giant red stars, or formed in dense clouds of interstellar gas and dust.

“Molecules like pyrimidine have nitrogen atoms in their ring structures, which makes them somewhat wimpy.  As a less stable molecule, it is more susceptible to destruction by radiation, compared to its counterparts that don’t have nitrogen,” said Scott Sandford, a space science researcher at Ames.  “We wanted to test whether pyrimidine can survive in space, and whether it can undergo reactions that turn it into more complicated organic species, such as the nucleobases uracil, cytosine, and thymine.”

Nucleobases structures
Pyrimidine is a ring-shaped molecule made up of carbon and nitrogen and is the central structure for uracil, cytosine, and thymine, which are found in RNA and DNA.
Image Credit:
NASA
Nucleobases cytosine thymine image
The ring-shaped molecule pyrimidine is found in cytosine and thymine.
Image Credit:
NASA

In theory, the researchers thought that if molecules of pyrimidine could survive long enough to migrate into interstellar dust clouds, they might be able to shield themselves from destructive radiation.  Once in the clouds, most molecules freeze onto dust grains (much like moisture in your breath condenses on a cold window during winter).

These clouds are dense enough to screen out much of the surrounding outside radiation of space, thereby providing some protection to the molecules inside the clouds.

Scientists tested their hypotheses in the Ames Astrochemistry Laboratory.  During their experiment, they exposed the ice sample containing pyrimidine to ultraviolet radiation under space-like conditions, including a very high vacuum, extremely low temperatures (approximately –440 degrees Fahrenheit), and harsh radiation.

They found that when pyrimidine is frozen in ice mostly consisting of water, but also ammonia, methanol, or methane, it is much less vulnerable to destruction by radiation than it would be if it were in the gas phase in open space.  Instead of being destroyed, many of the molecules took on new forms, such as the RNA/DNA components uracil, cytosine, and thymine, which are found in the genetic make-up of all living organisms on Earth.

“We are trying to address the mechanisms in space that are forming these molecules.  Considering what we produced in the laboratory, the chemistry of ice exposed to ultraviolet radiation may be an important linking step between what goes on in space and what fell to Earth early in its development,” said Christopher Materese, another researcher at NASA Ames who has been working on these experiments.

“Nobody really understands how life got started on Earth. Our experiments suggest that once the Earth formed, many of the building blocks of life were likely present from the beginning.  Since we are simulating universal astrophysical conditions, the same is likely wherever planets are formed,” says Sandford.

Additional team members who helped perform some of the research are Jason Dworkin, Jamie Elsila, and Stefanie Milam, three NASA scientists at NASA’s Goddard Space Flight Center in Greenbelt, Maryland.

The research was funded by the NASA Astrobiology Institute (NAI) and the NASA Origins of Solar Systems Program.  The NAI is a virtual, distributed organization of competitively-selected teams that integrates and funds astrobiology research and training programs in concert with the national and international science communities.

Ruth Marlaire
Ames Research Center, Moffett Field, Calif.
650-604-4789
ruth.marlaire@nasa.gov

To receive local-only NASA Ames news, email local-reporters-request@lists.arc.nasa.gov with “subscribe” in the subject line. To unsubscribe, email the same address with “unsubscribe” in the subject line.

Nanofotónica: luz + nanopartículas = Futuro tecnológico

Autor por Emilio Silvera    ~    Archivo Clasificado en Nanotecnología    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 distribucion

 Entradas anteriores

 

 

 

En el Big Bang: Hidrógeno, Helio, Litio.

En las estrellas de la serie principal: Carbono, Nitrógeno, Oxígeno.

En las estrellas moribundas: Sodio, Magnesio, Aluminio, Silicio, Azufre, Cloro, Argón, Potasio, Titanio, Hierro, Cobalto, Níquel, Cobre, Cinc, Plomo, Torio y Uranio.

 

  

 

 

 

Han pasado ya cincuenta años que Richard Feynman dictara su famosa charla:  There is plenty of room at the bottom: An invitation to enter a new field of physics (Hay suficiente espacio en el fondo: Una invitación a entrar en un campo en la Física). En ella estableció que las leyes de la Física no impiden manipular las cosas átomo a átomo; –“es algo que no se ha hecho debido a que somos demasiado grandes para hacerlo”-. Eso ha quedado atrás y, en la actualidad, sí que se manipulan los átomos.


Desde entonces se ha buscando la manera de poder diseñar los materiales átomo a átomo. De hecho, los materiales nanoestructurados ya han sido utilizados en aplicaciones prácticas, siendo importantes en nuestra vida diaria. El color rojo de los vitrales en las catedrales góticas de Europa se obtenía utilizando nanopartículas de oro; la película fotográfica utiliza nanopartículas de plata; los bloqueadores solares utilizan nanopartículas de dióxido de titanio y de zinc como parte activa.

El resultado más vistoso de estas nanoestructuras es la capacidad para poder sintonizar la longitud de onda o color de la emisión.

El primer caso es una aplicación del efecto nano del oro y es quizás la primera aplicación de la nanotecnología. Quizás el mayor desarrollo de las nanoestructuras se dio con el descubrimiento de la microscopia de fuerza atómica ya que con esta se podía manipular a los átomos o partículas muy pequeñas. Hoy día, la investigación en el campo de los materiales nanoestructurados se ha multiplicado y sus aplicaciones abarcan todas las disciplinas convirtiendo a la nanotecnología en un campo interdisciplinario. Muchos países han implementado programas especiales para la investigación en este campo invirtiendo grandes cantidades de dinero. La apuesta puede ser de alto riesgo, pero el premio promete ser enorme.

200

                 Richard Feynman

Hoy día se estima el mercado de la nanotecnología en cientos de miles de millones de dólares. Nuestro país también ha apoyado la iniciativa aunque en menor proporción. De hecho la nanotecnología no es una prioridad dentro de nuestro sistema de investigación, no hay programas especiales de apoyo económico en este tópico y se compite por igual con todas las áreas. Con pocos recursos económicos se poca infraestructura y en general grupos pequeños lo que dificulta la capacidad para competir. Aún con estas limitaciones, se han obtenido excelentes resultados y hay grupos en nuestro país que cuentan con reconocimiento internacional.

      Materiales nanoestructurados y nanotecnología

Los materiales nanoestructurados (NEMs, por siglas en inglés) han despertado rápidamente un gran interés debido a la diversidad de sus aplicaciones. De acuerdo a la definición más aceptada, los materiales nanoestructurados son aquellos en los que por lo una de sus dimensiones se encuentra en el rango de 1-100 nm. Es decir, los NEMs son tres órdenes de magnitud más pequeños que los MEMS (sistemas microelectromecánicos, por sus siglas en inglés), e incluyen nanopartículas, nanocristales, nanoalambres, nanobarras, nanotubos, nanofibras, nanoespumas, etc. Los NEMs pueden ser semiconductores, dieléctricos, metales, orgánicos, inorgánicos, aleaciones, biomateriales, biomoléculas, oligómeros, polímeros, etc.

Nos sorprendería saber en qué lugares están presentes los cristales fotónicos con las nuevas técnicas alcanzadas en la nanotecnología

Aunque existen sistemas nanoestructurados de dimensiones mayores son los cristales fotónicos. En el rango de nanómetros, los materiales presentan propiedades ópticas, eléctricas, magnéticas y mecánicas únicas y totalmente diferentes de los materiales en el rango de los micrómetros o milímetros llamados materiales en bulto.

tener una idea de que tan pequeño es un nanómetro podemos mencionar que un milímetro tiene un millón de nanómetros; el diámetro del cabello humano mide 10,000 y 50,000 nanómetros; los glóbulos rojos y blancos miden 2 y 5 nanómetros mientras que el ADN mide 2.5 nanómetros.

Los superátomos de silicio pueden formar, por ejemplo, nanotubos. Además, se les agregar un metal de transición con el objetivo de cambiar sus propiedades eléctricas, lo que se denomina dopaje. el superátomo es de anión ( carga eléctrica negativa, le sobran electrones), “se le dopa con un metal alcalino, el potasio”, que tiene un electrón en su nivel energético más externo. Del mismo modo, cuando son cationes (con carga negativa, al perder electrones) se les dopa con un metal halógeno, que necesita un electrón más completar su último nivel energético.

Las propiedades de los NEMs son dominadas por los efectos de superficie mientras que las de los materiales en bulto son debidas a un efecto de volumen. La tecnología su producción y uso se ha convirtiendo en una industria muy poderosa: la nanotecnología. La nanotecnología es la ciencia e ingeniería de producir materiales o estructuras funcionales de cuantos nanómetros. Es la tecnología del futuro con la cual se desarrollarán los nuevos materiales y dispositivos. Las aplicaciones son sorprendentes así como variadas, por ejemplo, la industria optoelectrónica y fotónica, biomedicina, sensores, celdas solares y de combustible, catálisis, memorias ópticas, procesadores de computadoras, fotodetectores, herramientas de corte, industria aeronáutica, moduladores e interruptores, cosméticos, etc. Aunque todas las aplicaciones son de gran interés, sin duda alguna las aplicaciones en sistemas biológicos son las más sobresalientes. Especialmente las aplicaciones de las propiedades ópticas de los sistemas nanoestructurados.

La Tecnología fundamental del siglo XXI: Nano Tecnología

Uno de sus apartados es la Nanofotónica

Esas nuevas formas, la nanotecnología, entrará en el “universo” de la mecánica cuántica, en el mundo infinitesimal, y, se lograrán cosas que , serían impensables. Posiblemente, la primera visita que hagamos a un mundo habitado por otros seres, estará tripulada por seres nanotecnológicos que, al igual que la misma nave, tengan medidas tan pequeñas que serán imposibles de observar y, sin embargo, estarán dotadas de adelantos tales que, podrán medir, evaluar, estudiar, captar imágenes, enviar por medios desconocidos, y, en fin, serán las avanzadillas de lo que irá después, la visita de humanos a otros mundos.

La nanofotónica es la fusión de la nanotecnología y la fotónica. Es un campo multidisciplinario que estudia las propiedades ópticas de los sistemas nanoestructurados y la interacción luzmateria a nivel nanoscópico. Ya mencionamos que las propiedades ópticas de las nanopartículas son dominadas por los efectos de superficie. Así, controlando el tamaño de las nanopartículas o nanoestructuras podemos controlar o amplificar ciertas propiedades de los sistemas bajo estudio. En general, las nanoestructuras pueden ser de tres tipos, semiconductoras, dieléctricas y metálicas.

La Nanotecnología marcará nuestro futuro. De ella partirán las nuevas ideas e instrumentos, los nuevos modos de construir lo que queda por venir, nuevas maneras de sondear el espacio “infinito”, de curar enfermedades, de sustituir órganos vitales, de construir robots.

Curiosamente, existe una creencia bastante arraigada en amplios sectores de la comunidad científica de que la fotónica (conjunto de tecnologías relacionadas con la luz) es un campo que cae fuera del universo de la nanotecnología. La creencia se apoya en el clásico criterio de Rayleigh de que la resolución espacial de un sistema óptico está limitada por la longitud de onda de la luz (≈ 500 nm), y por ello es próxima al micrómetro, muy lejos de los requisitos de la nanotecnología.

Yo, por mi , estimo que división es sin duda errónea, y hoy en día la fotónica está íntimamente implicada con la nanotecnología, e incluso se hablar propiamente de nanofotónica, de igual manera que se hablar de nanoelectrónica o de nanomagnetismo.

                                               Cuando sepamos conectar de manera conveniente todas las disciplinas del sabe Humano… ¡Las cosas cambiaran!

Decía que:  “En general, las nanoestructuras pueden ser de tres tipos, semiconductoras, dieléctricas y metálicas”.  una de ellas produce fenómenos de especial interés interactúan con una señal óptica, pudiendo así ser aplicadas en diferentes campos. Un campo de especial interés es la biología.

El estudio de las propiedades luminiscentes de sistemas nanoestructurados en sistemas biológicos es el campo de estudio de la bionanofotónica. Especialmente trata sobre el estudio de sistemas nanoestructurados en aplicaciones biomédicas. Diferentes nanopartículas han sido propuestas ser utilizadas en la detección de bajas concentraciones de diferentes elementos como células cancerigenas, virus, ADN, ARN, proteínas, etc. También han sido utilizadas para la entrega de medicamentos en dirigida y controlada así como para la destrucción de tumores cancerigenos. En la última década, los avances han sido sorprendentes pero aún hay mucho por . En el CIO, durante los últimos 6 años hemos trabajando en la síntesis de nanopartículas y estudiado sus propiedades ópticas a fin de poder ser utilizadas en distintas aplicaciones.

Las propiedades luminescentes de nuestras nanopartículas son muy interesantes y prometen grandes oportunidades de aplicación en diferentes áreas.

puntos.png

Nanopartículas semiconductoras o puntos cuánticos

Los nanocristales semiconductores llamados puntos cuánticos son nanoestructuras a base de materiales semiconductores inorgánicos y representan el grupo donde el efecto del tamaño es más evidente. El tamaño nano da lugar a lo que se conoce confinamiento cuántico, que no es más que la localización de los electrones en un espacio definido, es poner un electrón en una caja. Mientras que tamaños mayores los electrones están no localizados. El confinamiento produce un ensanchamiento de la banda de energía prohibida del semiconductor así la aparición de sub-bandas discretas en la banda de valencia y de conducción. Las dimensiones típicas oscilan uno y diez nanómetros.

Con frecuencia se les describe átomos artificiales debido a que los electrones están dimensionalmente confinados como en un átomo y sólo se tiene niveles de energía discretos. las nanoestructuras más estudiadas se encuentran las de CdSe/ZnS, CdSe/CdS, InP/ZnSe, CdTe/CdSe, entre otras. El resultado más vistoso de estas nanoestructuras es la capacidad poder sintonizar la longitud de onda o color de la emisión.

Así, con un solo material y variando el tamaño de la nanopartícula es posible obtener múltiples colores o longitudes de onda de la señal emitida. Las aplicaciones son impresionantes y apuntan en todas las direcciones. Por ejemplo, podrían ser utilizados como colorantes inorgánicos sin problemas de degradación a diferencia de los colorantes orgánicos. También podrían ser utilizados en el diseño de los nuevos amplificadores ópticos de amplio ancho de banda tan importantes en los sistemas de comunicación óptica; en caso nanopartícula con un diámetro determinado funcionaría como un amplificador, así el ancho de banda se determina con la selección adecuada de los diámetros de las partículas. O bien la producción de fuentes de luz blanca mediante excitación con un LED u OLED o por electroluminiscencia.

Quizás una de las aplicaciones que mayor atención ha recibido es en su uso como etiquetas fluorescentes con emisión en la región visible del espectro, la detección de una gran variedad de compuestos entre ellas células cancerigenas. Las técnicas actuales no detectan bajas concentraciones de células cancerigenas o compuestos de interés, por lo que la técnica de detección de fluorescencia de nanopartículas es una gran promesa para la detección temprana de este mal, para así incrementar el éxito en el tratamiento. Dado el tamaño tan pequeño de los puntos cuánticos actualmente se intenta desarrollar nanoestructuras más complejas formadas por puntos cuánticos o nanocristales acomplejados con diferentes componentes que desempeñan distintas funciones, detección, entrega de medicamento dirigido, efecto de la terapia, etc. Es decir, se busca una nanoestructura inteligente con múltiples funciones. El problema que presentan los puntos cuánticos es que son poco estables ya que tienden a aglomerarse, además de que se excitan con una fuente de luz UV donde la mayoría de los compuestos que se pueden encontrar en interior del cuerpo humano emiten luz lo que significa pérdida de contraste en la imagen de la célula deseada.

Los plasmones producen en la interfase un campo eléctrico intensificado que a su vez intensifica varios procesos ópticos lineales y no lineales. El campo eléctrico producido es utilizado como una interfase sensible a las interacciones ópticas y se convierte en una poderosa herramienta para el monitoreo óptico y para la formación de imágenes ópticas

localizadas. Una de las aplicaciones bien establecidas es la espectroscopia Raman de superficie mejorada (SERS por sus siglas en inglés). En este caso el espectro Raman de un componente cercano a la superficie metálica se ve fuertemente amplificado. Se ha demostrado que es posible amplificar el campo hasta 11 000 veces más cuando las partículas presentan cierta aglomeración. Otros fenómenos que presentan amplificación son la espectroscopia infrarroja de superficie mejorada, espectroscopia de fluorescencia

y la espectroscopia de resonancia de plasmones de superficie. Todas estas técnicas son complementarias y son utilizadas en la detección de componentes químicos y bioquímicos a nivel de trazas.

precisión

No tarderemos mucho en asombrarnos de los logros alcanzados por la Nanofotónica en diversos apartados de la tecnología del futuro. Estamos en la linea de salida hacia horizontes futuristas en todos los campos del saber. La tecnología del mañana nos asombraría hoy, y, simplemente tenemos que fijarnos en el presente y compararlo con aquel tiempo pasado de hace sólo unos cien años, cuando los ordenadores, los teléfonos móviles y las comunicaciones tal como hoy laos conocemos, eran un sueño irrealizable.

Nanopartículas dieléctricas o nanocristales

Los nanocristales dieléctricos son óxidos que presentan una banda de energía prohibida muy ancha y consecuencia requieren altas energías de bombeo o luz en el UV obtener emisión que en general es débil, aunque se combina en adecuadacon diversos componentes son excelentes emisores de luz debido a su eficiencia y alta estabilidad. Son excelentes matrices soportar iones de tierras raras que son muy buenos emisores de luz. En caso no se observan efectos de confinamiento debido a que los electrones se encuentran localizados en orbitales atómicos del ion activo. Sin embargo, la dinámica de los iones emisores de luz se ve afectada por la interacción a nivel nanoscópico lo que producir una mejora en la eficiencia de emisión.

los nanocristales mas estudiados se encuentran algunos silicatos Y2SiO5, la combinación nY2O3 + mAl2O3 que comprende puramente el óxido de itria, puramente el óxido de aluminio, se combinan con n=3 y m=5 da lugar a la estructura cristalina mas utilizada en óptica producir láseres conocida como YAG, o YAP la combinación n=m=1 que corresponde a uno de los cristales mas sensibles a laradiación ionizante y que es utilizado la detección de rayos X o rayos gama. El óxido de titanio (TiO2) y el óxido de zinc (ZnO) que se utilizan en los bloqueadores solares además de ser excelentes para los procesos de fotocatálisis, útiles en la reducción de contaminantes, para celdas solares y como bactericida.

Recientemente, hemos demostrado que el óxido de zirconio (ZrO2) combinado con otros elementos bloquea el rango completo de la luz ultravioleta, especialmente aquella región que produce el . mismo nanocristal presenta excelente respuesta en la detección de radiación ionizante, UV, rayos X, gama, beta y alfa, tanto en tiempo real como en acumulada lo que sugiere buenas oportunidades para su uso en el diseño de dosímetros para la cuantificación de dosis recibidas.

Además, es excelente soporte para iones de tierras raras, con las cuales hemos obtenido luz visible (azul, verde y rojo) excitando con una fuente en el cercano infrarrojo. Ya que con fuente se excitan los nanocristales no hay emisión de fondo lo que mejora el contraste de las imágenes obtenidas. Estas características convierten a estos nanocristales en excelentes candidatos en aplicaciones biomédicas para la detección de diversos elementos a concentraciones bajas. La fabricación de estos nanocristales implica un tratamiento térmico para el proceso de oxidación lo que induce un tamaño de partícula grande. Se han reportado tamaños de partícula 10 a 90 nm.

espectroscopia

                   Lo curioso es que en todo, siempre está la Luz presente

Muchas veces se obtienen cristales muy pequeños con poca eficiencia de emisión, el reto es obtener mayor eficiencia de emisión sin incrementar demasiado el diámetro de las nanopartículas. Tamaños promedios con los que se han obtenido excelente eficiencia de emisión son 40 y 60 nm.

Nano partículas metálicas, plasmones.

Las nanopartículas metálicas tienen la habilidad de esparcir y absorber la luz incidente. En caso, los efectos en las propiedades ópticas respecto a su contraparte en bulto se derivan de los efectos electrodinámicos y de la modificación del ambiente dieléctrico. A escala nanométrica la frontera metaldieléctrico produce cambios considerables en las propiedades ópticas.

resultado de la interacción la nanopartícula metálica y la señal óptica se obtiene la oscilación colectiva de electrones de superficie lo que genera bandas de resonancia conocidas plasmones localizados o plasmones de superficie localizados. La longitud de onda o color a la que se obtiene dicha resonancia se le conoce como banda de absorción del plasmón que depende tanto del tamaño como de la de la nanopartícula y es lo que da lugar a la diferente coloración observada. Las nanoestructuras metálicas más conocidas son partículas esféricas, barras y películas con núcleo dieléctrico. Aunque más recientemente se han reportado otras estructuras como cubos, triángulos, estrellas y ovoides. En todos los casos, la banda de resonancia se recorre hacia el cercano infrarrojo en comparación con las nanopartículas esféricas cuya banda centrada en la región verde del espectro.

Los plasmones producen en la interfase un campo eléctrico intensificado que a su vez intensifica varios procesos ópticos lineales y no lineales. El campo eléctrico producido es utilizado una interfase sensible a las interacciones ópticas y se convierte en una poderosa herramienta el monitoreo óptico y la formación de imágenes ópticas

localizadas. Una de las aplicaciones establecidas es de superficie mejorada (SERS por sus siglas en inglés). En caso el espectro Raman de un componente cercano a la superficie metálica se ve fuertemente amplificado. Se ha demostrado que es posible amplificar el campo 11 000 veces más las partículas presentan cierta aglomeración. Otros fenómenos que presentan amplificación son la espectroscopia infrarroja de superficie mejorada, espectroscopia de fluorescencia

y la espectroscopia de resonancia de plasmones de superficie. Todas estas técnicas son complementarias y son utilizadas en la detección de componentes químicos y bioquímicos a nivel de trazas.

Quizás un proyecto más ambicioso es el de poder detectar células cancerigenas a temprana edad de lo cual ya se han reportado importantes avances. En el CIO trabajamos con nanopartículas de oro y plata a fin de desarrollar sensores ópticos la detección de diferentes compuestos a nivel de trazas y estamos aplicado exitosamente nanopartículas deoro en la detección de células cancerigenas.

En resumen, las nanoestructuras presentan propiedades ópticas únicas que no presentan su contraparte en bulto o de escala mayor. Éstas están siendo utilizadas el desarrollo de la nueva generación de dispositivos optoelectrónicos y/o fotónicos. Las aplicaciones son muy variadas y abarcan muchos campos haciendo de la nanociencia y nanotecnología una área

multidisciplinaria. Especial atención recibe el uso de dichas propiedades en aplicaciones biomédicas para la detección a nivel de trazas de diversos agentes patógenos. El estudio de las propiedades ópticas de las nanoestructuras ha definido una nueva área conocida como nanofotónica.

¡Eso que llamamos futuro… ya está aquí!

Y, siendo testigo de todos estos adelantos y de como la Humanidad corre hacia el futuro, no puedo dejar de preguntarme: ¿Qué será de los seres humanos dentro de 10.000 años? ¿Estaremos aquí todavía? ¿Habremos logrado viajar a las estrellas?  Son tantas las respuestas que me gustaría tener que, a veces, me siento algo frustrado por las inmensas limitaciones a las que estamos sometidos los humanos?

emilio silvera

El ‘Hubble’ capta la ‘cruz de Einstein’

Autor por Emilio Silvera    ~    Archivo Clasificado en Astronomía y Astrofísica    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

El telescopio espacial fotografía por primera vez una imagen múltiple de una supernova

 

  • El ‘Hubble’ fotografía una supernova que sorprende por su brillo 

 

La galaxia está a una distancia de unos 5.000 millones de años luz de la Tierra.

El telescopio espacial Hubble ha fotografiado un sorprendente fenómeno: una lejana explosión de supernova multiplicada por cuatro debido a que su luz se curva por el efecto gravitatorio de una galaxia masiva, que está un grupo galáctico también masivo interpuesto en la línea de visión desde la Tierra. Es la primera vez que se capta este efecto, denominado la Cruz de Einstein, con una supernova, aunque se conocía ya en decenas de casos de cuásares y de galaxias, anuncia la Agencia Europea del Espacio (ESA).

(Esta forma causa un fenómeno denominado efecto de lente gravitatoria. Por suerte, entre la Tierra y un quásar situado a 8.000 millones de años luz hay una galaxia que está a 400 millones de años luz. La fuerza de la gravedad de la galaxia actúa como una lente enorme pero imperfecta que encamina en trayectorias diferentes la luz del quásar, que es como un punto; así se producen las cuatro imágenes que hay en torno a la galaxia.
En este caso el efecto lente gravitatoria produce una cruz simétrica porque la galaxia que actúa como lente se halla casi exactamente en nuestra linea de visión del quásar. Esta forma de cruz lleva el nombre de Albert Einstein, cuya teoría de la relatividad predecía este fenómeno. La imagen fue obtenida por el telescopio espacial Hubble.) -Esta explicación no forma parte del artículo ni la imagen tampoco-.

La galaxia que actúa como lente gravitacional para la supernova (bautizada por los científicos Refsdal) está a una distancia de unos 5.000 millones de años luz de la Tierra y la explosión estelar, a unos 9.500 millones de años luz. La gran masa galáctica curva el espacio-tiempo y, por tanto, la luz de la supernova lejana al pasar junto a ella, formándose así, para el observador terrestre, las cuatro imágenes separadas de la explosión estelar con su luz magnificada.

“Fue una completa sorpresa”, explica Patrick Kelly, investigador de la Universidad de California en Berkeley (EE UU) y miembro del equipo GLASS que da a conocer el hallazgo esta semana en la revista Science, en una sección especial dedicada al centenario de la Teoría de la Relatividad General de Einstein. Kelly, en concreto, fue quien halló la supernova multiplicada por cuatro analizando datos tomados por el Hubble (de la NASA y la ESA) en noviembre de 2014. “Es un descubrimiento maravilloso: llevamos 50 años buscando una supernova con un fuerte efecto de lente gravitacional y ahora hemos encontrado una”, añade Alex Filippenko, de la Universidad de California en Berkeley. “Además de ser realmente genial, puede proporcionar mucha información astrofísica importante”, recalca.

La supernova se ve unas 20 veces más brillante que su brillo natural”

 

“La supernova se ve unas 20 veces más brillante que su brillo natural”, añade Jens Hjorth, del Dark Cosmology Centre (Dinamarca), otro de los autores de la investigación. “Eso se debe al efecto combinado de dos lentes superpuestas: el masivo grupo galáctico enfoca la luz de la supernova en tres rutas diferentes y una de ellas está precisamente alineada con una galaxia elíptica del grupo, y se produce un segundo efecto de lente gravitatoria”. Se crean así las cuatro imágenes.

En el proceso de curvatura del espacio-tiempo que desvía la luz está implicada la materia ordinaria de esas galaxias, pero también la enigmática materia oscura que supone el 27% del universo y que nadie sabe qué es, señalan los investigadores. Por ello, la imagen multiplicada de la supernova no solo es un hallazgo atractivo sino que puede ayudar a estimar la cantidad y la distribución de dicha materia oscura en el grupo galáctico.

Cruz de Einstein

La Teoría de la Relatividad de Einstein predice que las densas concentraciones de masa en el universo curvan la luz como una lente, magnificando los objetos que están detrás de dicha al ser observados desde la Tierra, explican los expertos de la Universidad de California en Berkeley. La primera lente gravitacional se descubrió en 1979.

Así, cuando la luz de objeto lejano pasa por una masa interpuesta, como una galaxia individual o un grupo galáctico, la luz se curva. En el caso de que el objeto del fondo, la masa interpuesta y el observador no estén perfectamente alineados, la luz del primero pasa lejos de la segunda y se produce una lente débil que distorsiona la imagen del objeto lejano. También sucede esto si la masa no es muy grande. Pero cuando el objeto del fondo es extenso, como una galaxia, y está justo detrás de la masa interpuesta, o casi, el efecto de lente gravitacional fuerte puede generar un aro luminoso, denominado Anillo de Einstein. La lente gravitacional fuerte y las fuentes luminosas puntuales a menudo producen múltiples imágenes, como la de la supernova que se ve cuatro veces formando una Cruz de Einstein ahora captada por el Hubble, concluyen los científicos de Berkeley.”

De lo pequeño a lo grande y, conocer la Naturaleza…¡No será...

Autor por Emilio Silvera    ~    Archivo Clasificado en Sin categoría    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 
Karl Popper lo dejó muy claro con esta ilustrativa metáfora
“Una formulación muy hermosa que, creo, procede de América es la siguiente: alguien que ha golpeado a otro afirma que sólo ha movido sus puños libremente; el juez, sin embargo, replica: «La libertad de movimiento de tus puños está limitada por la nariz de tu vecino».

 

     

 

 

Debido al principio de exclusión de Pauli, es imposible que dos fermiones ocupen el mismo cuántico (al contrario de lo que ocurre con los bosones). La condensación Bose-Einstein es de importancia fundamental explicar el fenómeno de la superfluidez. A temperaturas muy bajas (del orden de 2×10-7º K) se formar un condensado de Bose-Einstein, en el que varios miles de átomos forman una única entidad (un superátomo). efecto ha sido observado con átomos de rubidio y litio. Como ha habréis podido suponer, la condensación Bose-Einstein es llamada así en honor al físico Satyendra Nath Bose (1.894 – 1.974) y a Albert Einstein. Así que, el principio de exclusión de Pauli tiene aplicación no sólo a los electrones, sino también a los fermiones; pero no a los bosones.

 

 

http://www.mpe.mpg.de/410729/orbits3d_small_gif.gif

 

 

Las reglas de la mecánica cuántica tienen que ser aplicadas si queremos describir estadísticamente un sistema de partículas que obedece a reglas de ésta teoría en vez de las de la mecánica clásica.  En estadística cuantica, los estados de energía se considera que están cuantizados.  La estadística de Bose-Einstein se aplica si cualquier de partículas puede ocupar un estado cuántico dado. Dichas partículas (como dije antes) son los bosones que, tienden a juntarse.

Los bosones tienen un angular n h / 2p, donde n es cero o un entero y h es la constante de Planckbosones idénticos, la función de ondas es siempre simétrica.  Si solo una partícula puede ocupar un cuántico, tenemos que aplicar la estadística Fermi-Dirac y las partículas (como también antes dije) son los fermiones que tienen momento angular (n+½) h/2p y cualquier función de ondas de fermiones idénticos es siempre antisimétrica.

 

 

 

http://farm5.static.flickr.com/4140/4745204958_afd02b2486.jpg

 

 

La mejor teoría explicar el mundo subatómico nació en 1928 cuando el teórico Paul Dirac combinó la mecánica cuántica con la relatividad especial para explicar el comportamiento del electrón. El resultado fue la mecánica cuántica relativista, que se transformó en un ingrediente primario en la teoría cuántica de campos. Con unas pocas suposiciones y ajustes ad-hoc, la teoría cuántica de campos ha probado ser suficientemente poderosa para formar la base del modelo estándar de las partículas y las fuerzas.

 

 

 

La relación el espín y la estadística de las partículas está demostrada por el teorema espín-estadística. En un espacio de dos dimensiones es posible que existan partículas (o cuasipartículas) con estadística intermedia entre bosones y fermiones.  Estas partículas se conocen con el de aiones; para aniones idénticos la función de ondas no es simétrica (un cambio de fase de+1) o antisimétrica (un cambio de fase de -1), sino que interpola continuamente entre +1 y -1.  Los aniones pueden ser importantes en el análisis del efecto Hall cuántico fraccional y han sido sugeridos como un mecanismo para la superconductividad de alta temperatura.

 

 

 

 

Resulta  fácil comprender cómo  un campo magnético la partícula cargada que gira, pero ya no resulta tan fácil saber por qué ha de hacer lo mismo un neutrón descargado. Lo cierto es que cuando un rayo de neutrones incide sobre un hierro magnetizado, no se comporta de la misma forma que lo haría si el hierro no estuviese magnetizado. El magnetismo del neutrón sigue siendo un misterio; los físicos sospechan que contiene cargas positivas y negativas equivalente a cero, aunque por alguna razón desconocida, logran crear un campo magnético cuando gira la partícula.

Particularmente creo que, si el neutrón masa, si la masa es energía (E = mc2), y si la energía es electricidad y magnetismo (según Maxwell), el magnetismo del neutrón no es tan extraño, sino que es un aspecto de lo que en realidad es materia. La materia es la luz, la energía, el magnetismo, en definitiva, la fuerza que reina en el universo y que está presente de una u otra forma en todas partes (aunque no podamos verla).

Sea fuere, la rotación del neutrón nos da la respuesta a esas preguntas:

 

 

 

La primera demostración efectiva de antimateria se tuvo en Brookhaven en 1.965

 

¿Qué es el antineutrón? Pues, simplemente, un neutrón cuyo movimiento rotatorio se ha invertido; su polo sur magnético, por decirlo así, está arriba y no abajo. En realidad, el protón y el antiprotón, el electrón y el positrón, muestran exactamente el mismo fenómeno de los polos invertidos. Es indudable que las antipartículas pueden combinarse para formar la antimateria, de la misma que las partículas corrientes forman la materia ordinaria.

La primera demostración efectiva de antimateria se tuvo en Brookhaven en 1.965, donde fue bombardeado un blanco de berilio con 7 protones BeV y se produjeron combinaciones de antiprotones y antineutrones, o sea, un antideuterón. entonces se ha producido el antihelio 3, y no cabe duda de que se podría crear otros antinúcleos más complicados aún si se abordara el problema con más interés.

Pero, ¿existe en realidad la antimateria? ¿Hay masas de antimateria en el universo? Si las hubiera, no revelarían su presencia a cierta distancia. Sus efectos gravitatorios y la luz que produjeran serían idénticos a los de la materia corriente. Sin embargo, cuando se encontrasen las masas de las distintas materias, deberían ser claramente perceptibles las reacciones masivas del aniquilamiento mutuo resultante del encuentro. Así pues, los astrónomos observan especulativamente las galaxias, tratar de encontrar alguna actividad inusual que delate interacciones materia-antimateria.

…, ¿Hay masas de antimateria en el Universo? ¿Galaxias de antimateria?

 

 

 

 

Bueno, sabemos que no son las galaxias las que se alejan, sino que es el espacio el que se expande. Lo que no sabemos es encontrar antimateria en el espacio interestelar y, si la hay y está presente… ¡Aún no la hemos podido localizar! Algunos dicen que hay galaxias de antimateria y, yo digo que tengo un pariente en la galaxia Astrinia del cúmulo Ultramón a diez mil millones de años-luz de nuestra región.

No parece que dichas observaciones, al menos hasta el , hayan sido un éxito.

 

 

http://upload.wikimedia.org/wikipedia/commons/b/b9/Cosmological_composition.jpg

 

 

Según estimaciones recientes, resumidas en gráfico de la NASA, alrededor del 70% del contenido energético del Universo consiste en energía oscura, cuya presencia se infiere en su efecto sobre la expansión del Universo pero sobre cuya naturaleza última no se sabe casi nada.

¿Es posible que el Universo este formado casi enteramente por materia, con muy poca o ninguna antimateria? Y si es así, ¿por qué? dado que la materia y la antimateria son equivalentes en todos los aspectos, excepto en su oposición electromagnética, cualquier fuerza que crease una originaria la otra, y el Universo debería estar compuesta de iguales cantidades de la una y de la otra.

 

 

 

 

Este es el dilema.  La teoría nos dice que debería haber allí antimateria, pero las observaciones lo niegan, no lo respaldan. ¿Es la observación la que falla? ¿Y qué ocurre con los núcleos de las galaxias activas, e incluso más aún, con los causares? ¿Deberían ser estos fenómenos energéticos el resultado de una aniquilación materia-antimateria? ¡No creo! Ni siquiera ese aniquilamiento parece ser suficiente, y los astrónomos prefieren aceptar la noción de colapso gravitatorio y fenómenos de agujeros negros como el único mecanismo conocido para producir la energía requerida.

Estábamos hablando de mecánica cuántica y me pasé, sin que me diera , al ámbirto de la antimateria y el espacio del macro universo de las galaxias. Sin embargo, y aunque parezcan temas dispares, lo cierto es que, a medida que profundizamos en estas cuestiones, todas nos llevan, de una u otra manera,  a relacionar el “mundo de lo muy pequeño” con el “mundo” de lo muy grande que, al fín y al cabo, está hecho de lo que existe en el primero, es decir, partículas infinitesimales de materia y… ¡de antimateria! para que todo quede compensado.

 

Sus dimensiones y masa le permiten ¡lo imposible! para nosotros. La tensión superficial es una consecuencia de que todas las moléculas y los átomos se atraen unos a otros con una fuerza que nosotros llamamos fuerza de Van der Vaalls. esta fuerza tiene un alcance muy corto. para ser más precisos, diremos que la intensidad de esta fuerza a una distancia r es aproximadamente proporcional a 1/r7. Esto significa  que si se reduce la distancia entre dos átomos a la mitad, la fuerza de Van der Vaalls con la que se atraen uno a otro se hace 2 x 2 x 2 x 2 x 2 x 2 x 2 = 128 veces más intensa. Cuando los átomos y las moléculas se acercan mucho unos a otros quedan unidos muy fuertemente a través de esta fuerza.

La mecánica cuántica domina en el micromundo de los átomos y de las partículas “elementales”. Nos enseña que en la naturaleza cualquier masa, por sólida o puntual que pueda parecer, tiene un aspecto ondulatorio. Esta onda no es como una onda de agua. Se parece más a una ola de histeria que se expande: es una onda de información. Nos indica la probabilidad de detectar una partícula. La longitud de onda de una partícula, la longitud cuántica, se hace menor cuanto mayor es la masa de esa partícula.

Por el contrario, la relatividad general era siempre necesaria cuando se trataba con situaciones donde algo viaja a la velocidad de la luz, o está muy cerca o donde la gravedad es muy intensa. Se utiliza para describir la expansión del universo o el comportamiento en situaciones extremas, como la formación de agujeros negros.

                                       La fuerza nuclear fuerte es la más potente del Universo

Sin embargo, la gravedad es muy débil comparada con las fuerzas que unen átomos y moléculas y demasiado débil para tener cualquier efecto sobre la estructura del átomo o de partículas subatómicas, se trata con masas tan insignificantes que la incidencia gravitatoria es despreciable. Todo lo contrario que ocurre en presencia de masas considerables como planetas, estrellas y galaxias, donde la presencia de la gravitación curva el espacio y distorsiona el tiempo.

Como resultado de estas propiedades antagónicas, la teoría cuántica y la teoría relativista gobiernan reinos diferentes, muy dispares, en el universo de lo muy pequeño o en el universo de lo muy grande. Nadie ha encontrado la manera de unir, sin fisuras, estas dos teorías en una sola y nueva de Gravedad-Cuántica.

¿Cuáles son los límites de la teoría cuántica y de la teoría de la relatividad general de Einstein? Afortunadamente, hay una respuesta simple y las unidades de Planck nos dicen cuales son. En realidad, es la propia Naturaleza la que marca esos límites que Stoney-Planck, supieron plasmar en ecuaciones que los marcan.

Supongamos que tomamos toda la masa del universo visible y determinamos su longitud de onda cuántica. Podemos preguntarnos en qué momento esta longitud de onda cuántica del universo visible superará su tamaño.  La respuesta es: cuando el universo sea más pequeño en tamaño que la longitud de Planck, es decir, 10-33 de centímetros, más joven que el tiempo de Planck,  10-43 segundos y supere la temperatura de Planck de 1032 grados.  Las unidades de Planck marcan la frontera de aplicación de nuestras teorías actuales. Para comprender en que se parece el mundo a una escala menor que la longitud de Planck tenemos que comprender plenamente cómo se entrelaza la incertidumbre cuántica con la gravedad. Para entender lo que podría haber sucedido cerca del suceso que estamos tentados a llamar el principio del universo, o el comienzo del tiempo, tenemos que penetrar la barrera de Planck. Las constantes de la naturaleza marcan las fronteras de nuestro conocimiento existente y nos dejan al descubierto los límites de nuestras teorías.

En los intentos más recientes de crear una teoría nueva para describir la naturaleza cuántica de la gravedad ha emergido un nuevo significado para las unidades naturales de Planck. Parece que el concepto al que llamamos “información” tiene un profundo significado en el universo. Estamos habituados a vivir en lo que llamamos “la edad de la información”.  La información puede ser empaquetada en formas electrónicas, enviadas rápidamente y recibidas con más facilidad que nunca antes. Nuestra evolución en el proceso rápido y barato de la información se suele mostrar en una forma que nos permite comprobar la predicción de Gordon Moore, el fundador de Intel, llamada ley de Moore, en la que, en 1.965, advirtió que el área de un transistor se dividía por dos aproximadamente cada 12 meses. En 1.975 revisó su tiempo de reducción a la mitad hasta situarlo en 24 meses. Esta es “la ley de Moore” cada 24 meses se obtiene una circuiteria de ordenador aproximadamente el doble, que corre a velocidad doble, por el mismo precio, ya que, el coste integrado del circuito viene a ser el mismo, constante.

Siempre hemos tratado de buscar información del Universo para saber de nuestro entorno, de nuestro Sistema solar, de nuestra Galaxias, de las galaxias lejanas, y, de las mismas estrellas que alumbran los mundos y permite la vida con su luz y su calor. Hemos llegado a saber que somos “polvo de estrellas”, que los materiales que nos conforman están “fabricados” en sus “hornos nucleares”, la fusión creaelementos que, más tarde, forman parte de los mundos y de los seres vivos.

La velocidad de la luz en el vacío es por definición una constante universal de valor 299.792.458 m/s (suele aproximarse a 3·108 m/s), o lo que es lo mismo 9,46·1015 m/año; la segunda cifra es la usada para definir al intervalo llamado año luz. La información se transmitirá a esa velocidad como máximo, nuestro Universo, no permite mayor rapidéz, al menos, por los métodos convencionales.

Los límites últimos que podemos esperar para el almacenamiento y los ritmos de procesamiento de la información están impuestos por las constantes de la naturaleza. En 1.981, el físico israelí, Jacob Bekenstein, hizo una predicción inusual que estaba inspirada en su estudio de los agujeros negros.  Calculó que hay una cantidad máxima de información que puede almacenarse dentro de cualquier volumen. Esto no debería sorprendernos.

\ell_P =\sqrt\frac{\hbar G}{c^3} \approx 1.616 199 (97) \times 10^{-35} \mbox{ metros} (Longitud de Planck que al cuadrado sería de 10-66 cm2)

Lo que debería hacerlo es que el valor máximo está precisamente determinado por el área de la superficie que rodea al volumen, y no por el propio volumen. El número máximo de bits de información que puede almacenarse en un volumen viene dado precisamente por el cómputo de su área superficial en unidades de Planck. Supongamos que la región es esférica. Entonces su área superficial es precisamente proporcional al cuadrado de su radio, mientras que el área de Planck es proporcional a la longitud de Planck al cuadrado, 10-66 cm2.  Esto es muchísimo mayor que cualquier capacidad de almacenamiento de información producida hasta ahora. Asimismo, hay un límite último sobre el ritmo de procesamiento de información que viene impuesto por las constantes de la naturaleza.

                                        Stoney                                                                        Planck

No debemos descartar la posibilidad de que seamos capaces de utilizar las unidades de Planck-Stoney para clasificar todo el abanico de estructuras que vemos en el universo, desde el mundo de las partículas elementales hasta las más grandes estructuras astronómicas.  Este fenómeno se puede representar en un gráfico que recree la escala logarítmica de tamaño desde el átomo a las galaxias.

Todas las estructuras del universo existen porque son el equilibrio de fuerzas dispares y competidoras que se detienen o compensan las unas a las otras; la atracción y la repulsión. Ese es el equilibrio de las estrellas donde la repulsión termonuclear tiende a expandirla y la atracción (contracción) de su propia masa tiende a comprimirla; así, el resultado es la estabilidad de la estrella. En el caso del planeta Tierra, hay un equilibrio entre la fuerza atractiva de la gravedad y la repulsión atómica que aparece cuando los átomos se comprimen demasiado juntos. Todos estos equilibrios pueden expresarse aproximadamente en términos de dos números puros creados a partir de las constantes e, h, c, G y mprotón

Ilustración de la variación de la constante. UNSW.

“Tras medir alfa en unas 300 galaxias lejanas, vimos un patrón constante: este número, que nos dice la fuerza del electromagnetismo, no es igual en otras partes que en la Tierra, y parecer variar de forma continua a lo largo de un eje”. Algunos se empeñan en variar la constante de estructura fina y, si eso llegara a producirse… las consecuencias serían funestas para nosotros. Otros estudios nos dicen que esa constante, no ha variado a lo largo de los miles de millones de años del Universo y, así debe ser, o, si varió, lo hizo en una escala ínfima.

α = 2πe2 / hc ≈ 1/137

αG = (Gmp2)2 / hc ≈ 10-38

Si varian algunas de las dos en sólo una diezmillonésima, muchas de las cosas que conforman el Universo serían imposible y, la consecuencia sería, la ausencia de vida.  La identificación de constantes adimensionales de la naturaleza como a (alfa) y aG, junto con los números que desempeñan el mismo papel definitorio para las fuerzas débil y fuerte de la naturaleza, nos anima a pensar por un momento en mundos diferentes del nuestro. Estos otros mundos pueden estar definidos por leyes de la naturaleza iguales a las que gobiernan el universo tal como lo conocemos, pero estarán caracterizados por diferentes valores de constantes adimensionales. Estos cambios numéricos alterarán toda la fábrica de los mundos imaginarios. Los átomos pueden tener propiedades diferentes. La gravedad puede tener un papel en el mundo a pequeña escala.  La naturaleza cuántica de la realidad puede intervenir en lugares insospechados.

Lo único que cuenta en la definición del mundo son los valores de las constantes adimensionales de la naturaleza (así lo creían Einstein y Planck).  Si se duplica el valor de todas las masas no se puede llegar a saber, porque todos los números puros definidos por las razones de cualquier par de masas son invariables.

“Todos los físicos del mundo, deberían tener un letrero en el lugar más visible de sus casas, para que al mirarlo, les recordara lo que no saben. En el cartel sólo pondría esto: 137. Ciento treinta y siete es el inverso de algo que lleva el nombre de constante de estructura fina”

Lederman

Este número guarda relación con la posibilidad de que un electrón emita un fotón o lo absorba. La constante de estructura fina responde también al nombre de “alfa” y sale de dividir el cuadrado de la carga del electrón, por el producto de la velocidad de la luz y la constante de Planck. Tanta palabrería y numerología no significan otra cosa sino que ese solo numero, 137, encierra los misterios del electromagnetismo (el electrón, e), la relatividad (la velocidad de la luz, c), y la teoría cuántica (la constante de Planck, h).

Todo eso está relacionado: leyes fundamentales, constantes, materia y espacio tiempo… ¡nosotros! Es posible (digo posible), que finalmente no seámos ni tanto ni tan poco como a veces creemos. Dejémos en un término medio nuestra valia en el contexto del Universo, aunque, poder crear ideas y pensamientos… ¡No es cosa valadí!

emilio silvera

¿Será cierto que la evolución Humana se detuvo hace ahora 50.000 años?

Autor por Emilio Silvera    ~    Archivo Clasificado en Evolución    ~    Comentarios Comments (1)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

La evolución se detuvo,  afirma antropólogo a National Geográphic

Imaginar que continuaremos evolocionando es una idea errónea” declara también, el antropólogo Ian Tattersall, del Museo de Historia Natural de Nueva York.

evolucion se detuvo

“Y descansó la evolución en el septimo día”. Si lo decimos nosotros ES CIENCIA. Conste.

Finalmente hemos encontrado la respuesta a la molesta pregunta de los estúpidos creacionistas cuando nos piden prueba empírica de la evolución, o un ejemplo de evolución en progreso observable.

                   Algunos hablan de la evolución Humana como si de una parodia se tratara

Debemos recordar que el propio Einstein dijo que la “teoría sino se observa no es teoría” , pero bueno también sospechamos que ese viejo ignorante por ser medio creacionista (Einstein afirmó ser panteísta y creer en Dios de acuerdo al concepto panteísta de Baruch Spinoza) no puede ser tomado muy en serio.  Sin embargo, ya no tenemos obligación de explicar por qué la evolución NO SUCEDE actualmente. ¿No es obvio? LA EVOLUCIÓN SE HA DETENIDO! Es decir, sucedió en el pasado, evolucionamos y ahora ,la evolución puso STOP como un CD .

Es muy habitual que las leyes de la biología y de la física se detienen. La relatividad se podría detener un día por ejemplo, o la gravedad … eso es totalmente científico. Así que no tenemos reparos en afirmar como un HECHO que la EVOLUCIÓN SE DETUVO. No lo decimos nosotros: lo dijo el eminente antropólogo Ian Tattersall, del Museo de Historia Natural de Nueva York, a la revista National Geographic.

¿Cómo será el ser humano del futuro?: Cuatro opciones que baraja la ciencia

La Imagen y el texto que la sigue de ABC.ciencia

“El aspecto que tendrá el ser humano dentro de cientos, miles o millones de años es una de esas grandes preguntas a las que los científicos no pueden replicar con una única respuesta. ¿Nos convertiremos en inviduos más altos, sanos y esbeltos? Se trata de una fantasía generalizada, pero algunos investigadores apuntan a panoramas más realistas y otros creen que ni siquiera sufriremos cambios dignos de reseñar. Las teorías más extraordinarias dibujan un futuro de ciencia ficción, en el que podríamos convertirnos en ciborgs, organismos cibernéticos dotados de dispositivos mecánicos para mejorar las limitadas capacidades biológicas con las que hemos nacido, e incluso hay quien apunta que acabaremos digitalizando nuestras conciencias para conseguir una inmortalidad cibernética.”

                 Sin embargo, podemos ver la paradoja de que la Ciencia y el progreso continúan

La evolución ya se ha detenido:

«Porque hemos evolucionado, es natural imaginar que lo continuaremos haciendo, pero creo que ésa es una idea errónea», afirma el antropólogo Ian Tattersall, del Museo de Historia Natural de Nueva York, a la revista National Geographic. «Por lo que sabemos, las innovaciones genéticas se producen solamente en pequeñas poblaciones aisladas», añade el especialista. Por ejemplo, esto es lo que ocurrió con los famosos pinzones de Darwin en las Galápagos, que adquirieron características propias para ajustarse a la vida en la isla.

La selección natural, a la manera del naturalista británico, tiene lugar cuando una mutación genética -como una columna adecuada para caminar erguido- se transmite de generación en generación, porque supone algún beneficio para la especie. Finalmente, la mutación se convierte en la norma. Para Tattersall es muy difícil que esto le ocurra al Homo sapiens, ya que poblamos prácticamente todo el planeta y disfrutamos de gran mestizaje y movilidad. «Tendremos que aprender a vivir tal y como somos», concluye.”
Fuente: http://www.ecuadorciencia.org/articulos.asp?id=8333

Monografias.com

“Se puede apreciar en la anterior gráfica de resonancia como la neorocientífica nos muestra la evolución de la zona del córtex según la edad, desde la primera infancia va evolucionando y no se detiene dentro de la escala evolutiva. Explica que el neocortex nos capacita para adquirir conocimientos, desarrollar sociedades, culturas y tecnologías.

Según Blakemore la corteza cerebral de los animales está comprometida con las funciones sensoriales motoras, no así el hombre, que está disponible para la realización de un futuro programado. La neocorteza se convierte en el foco principal de atención en las lecciones que requieren generación o resolución de problemas, síntesis de información, análisis, uso del razonamiento, el pensamiento crítico y creativo.”

Pero claro, ¡cómo no nos dimos cuenta!  Durante millones de años los seres han evolucionado, y de repente ese proceso que duró millones de años SE DETIENE, justo ahora que tenemos una mente capaz de percibirlo y explicarlo. ¿No es conveniente y sabio? El azar es sabio sin duda y nos permitió dejar de evolucionar justo a tiempo para evitar las incómodas preguntas de los creacionistas estúpidos.

Ya sabemos que es difícil de responder como un proceso que hemos afirmado es constante e irreversible se ha detenido. Pero recuerden que es o creer eso o creer que fuimos creados por un plato de tallarines. No hay otra opción. Y por supuesto no vamos a creer que nos creó un plato de tallarines porque es ridículo así que el nuevo dogma es: LA EVOLUCIÓN SE DETUVO.

                                               Si la Mente es un Universo en sí misma… ¿Cómo podría dejar de evolucionar?

Hay que apresurarnos a enseñar este nuevo HECHO COMPROBADO en las escuelas a todos los niños, no sea cosa que justo ahora a alguno se le dé por evolucionar (aunque no creemos , si ya en 200 años no hemos podido mostrar un solo ejemplo parece que está quieta quieta la evolución .. no? ) .

No es necesaria mas prueba que las palabras del antropólogo. Recuerden: somos huevolucionistas. Nuestra teoría nació de las palabras de un muchacho que observaba pájaros y nuestras pruebas son las palabras dichas por alguien que tenga algún título o formación rimbombante suficiente para impresionar al homo vulugaris populis .  Ya salió publicado en la prensa, así que eso añade prueba adicional.

Solo nos cabe agregar “y descansó la evolución de toda la obra que había hecho”. O sea, si lo decimos nosotros, que la evolución ya NO CREA es ciencia por supuesto. Pero si lo dice un creacionista , que Dios ya no crea , es absurdo y solo una excusa porque no tiene pruebas.

Esto es ciencia estimados colegas huevolucionistas y no religión dogmática, gracias a … bueno gracias a la evolución.

Fuentes: Variadas.