lunes, 25 de noviembre del 2024 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




Los cuasicristales: un nuevo orden de la materia

Autor por Emilio Silvera    ~    Archivo Clasificado en Física-química    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

La vida de la ciencia

El israelí Daniel Shechtman
                                              El israelí Daniel Shechtman | Foto: technionitalia.it

El premio nobel de química de 2011 ha sido concedido a Daniel Shechtman (Instituto Technion, Israel) por su descubrimiento de los cristales cuasiperiódicos (cuasicristales) en 1982. Dicho descubrimiento vino acompañado por dos grandes paradojas de carácter fundamental. La primera, de naturaleza esencialmente estructural, se resolvió en 1992 mediante una nueva definición de cristal por parte de la Unión Cristalográfica Internacional, definición inspirada en la noción de sólido aperiódico introducida por Schrödinger medio siglo antes. La segunda paradoja surgió del estudio detallado de las propiedades físico-químicas de las fases cuasicristalinas termodinámicamente estables: aleaciones formadas por metales, pero que manifiestan un comportamiento atípico, semejante al de los materiales semiconductores. En este caso, y a pesar de la intensa actividad experimental y teórica desplegada durante dos décadas, la posible solución de la paradoja sigue aún abierta.

  1. Introducción

El estudio de las formas minerales, hermosa materialización en la Naturaleza de los poliedros ideales creados por la matemática, dio lugar a la descripción de la geometría básica del sólido en términos de un conjunto de celdas elementales, que al ensamblarse entre sí periódicamente dan lugar a la formación del entramado cristalino del que derivan las caras lisas y las aristas cinceladas propias del reino mineral. Y es que el orden periódico supone una economía del conocimiento extraordinaria, pues permite afirmar con certeza que la distribución atómica que encontramos en una celda arbitraria, se encontrará con idéntica disposición muy lejos de allí. Convenientemente matematizada esta propiedad hace posible resolver con elegancia y rigor un gran número de cuestiones relacionadas con las propiedades de los sólidos, lo que explica cómo fue arraigando progresivamente, desde los albores de la cristalografía, la idea de que el orden en la materia debe ser esencialmente periódico, un supuesto que se convirtió en el paradigma que definía la noción misma de cristal.

El teorema de restricción cristalográfica, en su forma básica, se basa en la observación de que las simetrías rotacionales de un cristal se limitan generalmente a los órdenes 2, 3, 4 y 6.1 Sin embargo, en los cuasicristales se pueden presentar otras simetrías, como la de orden 5, las cuales no fueron descubiertas hasta 1984 por el premio Nobel de Química 2011, Dan Shechtman.

  1. El teorema de restricción cristalográfica

A la par que sencilla y conveniente la noción de periodicidad resulta también muy exigente. Su servidumbre más importante viene descrita por el teorema de restricción cristalográfica, que determina cuáles son las simetrías de rotación compatibles con la existencia del entramado discreto de nudos que caracteriza una red cristalina periódica. Su enunciado es conciso: los únicos giros posibles, compatibles con la exigencia de que desde un nudo encontremos otro nudo del cristal vienen dados por la condición.

1 + cos 2φ = n, n є Z.

Donde φ es el ángulo de rotación. De modo que los únicos giros que son compatibles con la simetría de traslación periódica corresponden a los ejes de rotación de orden 2, 3, 4 y 6. La presencia de ejes quinarios está prohibida, al igual que la de cualquier eje de orden superior al 6. A pesar de su sencillez las consecuencias del teorema de restricción son tremendamente exigentes. No obstante, durante setenta años, la validez de este esquema interpretativo vino avalada por la notable concordancia entre los modelos cristalográficos propuestos y los patrones de difracción obtenidos experimentalmente para los distintos materiales estudiados. Hasta que el 8 de abril de 1982, los atónitos ojos de Daniel Shechtman contemplaron un patrón de difracción que, al parecer, no podía existir.

  1. El hallazgo

 

Estaba analizando una aleación de aluminio y manganeso a través de un microscopio electrónico cuando sucedió algo muy extraño e improvisto. El patrón de difracción mostraba diez puntos brillantes, igualmente espaciados del centro y entre sí. Los conté y repetí la cuenta otra vez, diciéndome: ¡este bicho no existe! (en hebreo: Ein chaya kazo). Entonces salí al pasillo para compartirlo, pero ahí no había nadie…”.

Aquel pasillo vacío resultó ser toda una premonición de la fría acogida que su descubrimiento iba a recibir inicialmente entre sus colegas. Tan sorprendidos como él, aunque para petados, en su inmensa mayoría, en un prudente y oportuno escepticismo. Y las cosas empeoraron aún más cuando un octogenario Linus Pauling, dos veces laureado con el Premio Nobel (el de Química primero y el de la Paz después), declaró la guerra a la interpretación que Shechtman proponía para aquellos materiales que, prohibidos por los legisladores teóricos, se erguían desafiantes en el laboratorio como heraldos del advenimiento de una nueva cristalografía. No deja por ello de tener cierta sagaz ironía que, casi treinta años después del hallazgo y la polémica, la academia sueca haya decidido conceder a Shechtman el premio Nobel precisamente en Química, el campo en el que militaba también su feroz oponente.

  1. La primera paradoja

El primer análisis detallado de los patrones de difracción electrónica obtenidos por Schechtman apareció publicado en la prestigiosa revista Physical Review Letters bajo el título: “Una fase metáica con orden orientacional de largo alcance y sin simetría de traslación”. En efecto, si prestamos atención a la organización de los puntos que aparecen en el patrón mostrado en la Figura 1 podemos observar claramente la presencia de muchos picos de difracción (que evidencian la presencia de un orden de largo alcance) agrupados en motivos pentagonales (incompatibles con la simetría de traslación periódica). Debe existir, por tanto, otro tipo de orden que sea capaz de producir correlaciones de largo alcance y que no se base en la mera periodicidad. En efecto, dicho principio ordenador existe y está basado en la simetría de inflación. Si uno mide las distancias entre puntos consecutivos a lo largo de un eje radial en el patrón de difracción puede constatar que dichas separaciones definen una serie geométrica cuya razón viene dada por el número irracional τ = (1+√5)/2, conocido como la razón áurea, que expresa la proporción entre la longitud de la diagonal y el lado en un pentágono regular.

Es más, si trazamos sendas líneas uniendo los distintos vértices de un pentágono formado por los picos más intensos (tal como se muestra en el recuadro inferior), vemos que los puntos de intersección definen un nuevo pentágono cuyo tamaño guarda una relación de semejanza, determinada por la proporción τ2, con respecto al tamaño del pentágono original. Esta construcción geométrica, también denominada pentagrama pitagórico, manifiesta la presencia de una simetría de invariancia de escala (típica de las estructuras fractales), expresada de forma natural por la disposición espacial de los átomos en un fragmento de materia cuasicristalina.

  1. Un nuevo ordenamiento de la materia: Los cuasicristales

Así pues, la primera paradoja se desvela al considerar que los legisladores teóricos se dejaron seducir por un supuesto tácito: el único modo de rellenar el espacio con átomos de forma ordenada y sistemática- pensaron- debe basarse en el recurso de patrones periódicos. Sin embargo, el apilamiento periódico no es el único posible a tal efecto. También se pueden ordenar los átomos en un material siguiendo un proceso análogo al del conocido juego de muñecas rusas, de modo que pequeños agregados de átomos con simetría icosaédrica se anidan en el interior de otros agregados mayores con su misma forma, los cuales, a su vez, se incluyen dentro de nuevos agregados similares de mayor tamaño.

Enrique MaciáEnrique Maciá

Modelo estructural de un cuasicristal icosaédrico de CdYb basado en agregados moleculares (clusters) en forma de icosidodecaedro, sólido regular formado por caras pentagonales y triangulares.

De este modo el átomo deja de ser el protagonista estructural, y es reemplazado por agregados de átomos (clusters en la terminología anglosajona) dotados de simetría icosaédrica, que se organizan de una forma jerárquica en el espacio. Como consecuencia de este esquema estructural, basado en la simetría de inflación, los átomos se disponen en el espacio según una distribución perfectamente regular (conocida técnicamente como ordenamiento cuasiperiódico), en lugar de en la forma periódica usual en los cristales clásicos. El término cuasicristal (contracción de los términos ingleses queasiperiodic cristal), propuesto en 1984 por Paul Steinhardt (Universidad de Pennsylvania), se impuso rápidamente para designar, de forma genérica, a este tipo de materiales. De este modo, el cuasicristal debe entenderse como “la extensión natural de la noción de cristal periódico a estructuras que posean orden de traslación cusiperiódico”. De manera que los cuasicristales son una forma de contracción de los términos “cristales ordenados cuasi periódicamente” o “cristales cuasiperiódicos”, y por tanto el prefijo cuasi que precede a la palabra cristal no hace referencia a la calidad estructural del material, sino a la descripción matemática que se hace del mismo, en términos de funciones cuasiperiódicas. En efecto, el marco teórico que progresivamente se fue desarrollando para dar cuenta de los finos detalles presentes en los diagramas de difracción obtenidos, hizo patente que nos hallábamos ante una nueva forma de ordenamiento de la materia. La forma de percibir este nuevo ordenamiento en todo su esplendor consiste en aprovechar la propiedad matemática por la que cualquier función cuasiperiódica se puede expresar como una función periódica en un espacio de dimensión adecuada. De esta forma la cristalografía se generaliza en el hiperespacio, dando lugar a la descripción de un cuasicristal icosaédrico como un cubo en seis dimensiones.

  1. Nueva definición de cristal

Debido al crecimiento número y a la gran variedad de cuasicristales observados desde 1982 (que contienen también ejes octogonales, decagonales y dodecagonales), la Unión Cristalográfica Internacional redefinió en 1992 el término de cristal, ampliándolo para dar cabida a este nuevo tipo de ordenamiento: “A partir de ahora por cristal entenderemos un sólido que tenga un patrón de difracción esencialmente discreto”. De este modo el atributo característico del sólido cristalino se traslada del espacio físico al espacio recíproco y dentro de la familia de los cristales aperiódicos, entendidos estos últimos como cristales en los que está ausente la simetría de traslación periódica, en línea con una antigua (1944) y original propuesta de Erwin Schrödinger.

File:Quasicrystal1.jpg

                Modelo atómico de cuasicristal de Ag-Al.

Un cuasicristal es una forma estructural que es ordenada pero no periódica. Se forman patrones que llenan todo el espacio aunque tienen falta de simetría traslacional. Mientras que los cristales, de acuerdo al clásico teorema de restricción cristalográfica, pueden poseer solo simetrías rotacionales de 2, 3, 4, y 6 pliegues, el patrón de difracción de Bragg de los cuasicristales muestra picos agudos con otros órdenes de simetría, por ejemplo de 5 pliegues.

  1. La segunda paradoja

 

El artículo en el que Levine y Steinhardt introdujeron el concepto de cuasicristal concluye con la frase “si los materiales cuasicristalinos existen realmente (…) con toda seguridad poseerán una gran variedad de nuevas propiedades estructurales y electrónicas reseñables”. Dicha propuesta contrasta marcadamente con el punto de vista sostenido por Pauling en otro trabajo en el que, tras afirmar que los cuasicristales se reducen a una serie de maclas ordenadas en forma sutil, añade que  “Y señalo que no existe razón para esperar que estas aleaciones tengan propiedades físicas inusuales”. Así pues, ¿poseen los cristales cuasiperiódicos propiedades específicas en virtud de su peculiar forma de ordenamiento?

Las primeras fases cuasicristalinas descubiertas, obtenidas mediante técnicas de enfriamiento ultrarrápido, eran meta estables y pasaban con facilidad el estado cristalino al someter las muestras a tratamientos términos encaminados a mejorar su estructura. En consecuencia, el estudio de las propiedades físicas características de esta nueva fase de la materia no fue posible hasta que, a partir de 1986, diversos equipos internacionales, entre los que destaca el grupo del profesor An Pang Tsai en Japón, descubrieron un número creciente de materiales cuasicristalinos termodinámicamente estables, capaces de preservar una estructura cuasiperiódica de extraordinaria calidad hasta alcanzar su punto de fusión (en torno a los 1500 C), mostrando nuevos hábitos de crecimiento entre los que destacan los del dodecaedro regular, el prisma decagonal o el triacontaedro, sólido formado por treinta caras rómbicas. Estos cuasicristales pueden crecer hasta alcanzar tamaños del orden del cm de modo que ya se les puede someter a pruebas en las que se midan sus propiedades físicas con la certeza de que estamos midiendo propiedades intrínsecas, libres de posibles contaminaciones por fases secundarias. Y al hacerlo se constató la aparición de un extenso conjunto de propiedades físicas anómalas extraordinarias.

Por ejemplo, se observa que al aumentar la temperatura la conductividad eléctrica aumenta (que es justo lo contrario de lo que suele ocurrir con los metales), pero al estudiar el ritmo al que la conductividad aumenta ésta no se ajusta a un comportamiento de tipo exponencial (como ocurre en el caso de los semiconductores) sino que sigue una ley de potencia. La termoelectricidad es otra característica que distingue metales y semiconductores. En general los metales tienen un valor pequeño del coeficiente de Seebeck, que mide la magnitud del efecto termoeléctrico por el cual un material muestra la aparición de una diferencia de potencial entre sus extremos cuando estos se someten a un gradiente de temperatura. En la mayoría de los metales la magnitud de este efecto es del orden 10 μ V/K a temperatura ambiente y muestra un comportamiento lineal con la temperatura, mientras que los semiconductores, por el contrario, suelen presentar valores del orden de centenas de  μ V/K y la curva S(T) varía no linealmente. Este es el caso también para ciertos cuasicristales cuyas curvas de termopotencia tienen al pirncipio un comportamiento lineal pero luego empiezan a curvarse, e inlcuso cambian de signo en algunos casos, lo cual podría interpretarse como una alternancia en el signo de la carga de los portadores mayoritarios, en conformidad con los resultados obtenidos al medir su efecto Hall. Pero, sin duda, la anomalía más llamativa para una aleación formada por átomos metálicos es que los cuasicristales son muy malos condcutores del calor debido, fundamentalmente, a que posen pocos electrones libres y, en consecuencia, el calor debe propagarse mediante las vibraciones de la estructura atómica; propagación que se ve; a su vez, dificultada por la ausencia de una simetría de traslación en el ordenamiento cuasiperiódico de dicha estructura, lo que explica el reducido valor de su conductividad térmica, del orden de 1 W/mK a temperatura ambiente, comparable el de buenos aislantes térmicos como la alúmina o el Pyrex, y dos órdenes de magnityd menos que la medida en los materiales metálicos. Podemos concluir, por tanto, que a la vista de sus propiedades los cuasicristales ocupan una posición intermedia entre los metales y los semiconductores, lo que resulta desconcertante para unos materiales compuestos por elementos que, como Al, Cu, Fe, Pd, Ni, Co o Mn, suelen dar lugar a compuestos típicamente metálicos. Este hecho define la segunda paradoja en el estudio de estos materiales y apunta hacia la posibilidad de la formación de enlaces químicos poco habituales en aleaciones.

  1. Posibles aplicaciones.

El conocimiento más detallado de los diagramas de fase de las distintas aleaciones implicadas, capaz de precisar las lindes de las pequeñas regiones de estabilidad de las distintas fases cuasicristalinas de gran calidad mediante el empleo de técnicas convencionales, lo cual permite su consideración para ciertas aplicaciones tecnológicas. En efecto, la primera patente industrial en la que se recoge una aplicación directa de los cuasicristales como barreras térmicas data de 1988 y fue obtenida por el equipo de Jean Marie Dubois en el Laboratoire Science et Gènie des Materieaux Métalliques (Nancy). Desde entonces el número de patentes relativas a la fase cuasicristalina se ha ido incrementando paulatinamente, con la intención de explotar las propiedades inusuales observadas en los cuasicristales, como su elevada dureza, resistencia al rayado y sus propiedades anticorrosivas, para el recubrimiento de instrumental quirúrgico o culinario. Las aleaciones cuasicristalinas se presentan como unos materiales competitivos con vistas a su utilización como recubrimientos de álabes de turbina, barreras térmicas o en dispositivos de refrigeración termoeléctrica, por lo que cabe esperar que su estudio depare interesantes resultados, tanto a nivel fundamental como aplicado, durante los próximos años.

Este trabajo ha sido patrocinado por la Comunidad Autónoma de Mdrid y la UCM mediante el Proyecto CCG10-UCM/MAT-4628.

Enrique Maciá Barber

Dpto. Física de Materiales, Facultad CC. Físicas

Universidad Complutense de Madrid

Galaxias generadoras de entropía negativa

Autor por Emilio Silvera    ~    Archivo Clasificado en Las galaxias generan entropía negativa    ~    Comentarios Comments (2)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

En alguna ocasión me refería a aquel comentario que hizo Darwin:

“… los materiales primigenios… en alguna pequeña charca caliente, tendrían la oportunidad de hacer el trabajo y organizarse en sistemas vivos…

Hasta que supimos que existían otros sistemas planetarios en nuestra Galaxia, ni siquiera se podía considerar esta posibilidad como una prueba de que la vida planetaria fuera algo común en la Vía Láctea. Pero ahora se sabe que más de cien estrellas de nuestra zona de la galaxia tienen planetas que describen órbitas alrededor de ellas. Casi todos los planetas descubiertos hasta ahora son gigantes de gas, como Júpiter y Saturno (como era de esperar, los planetas grandes se descubrieron primero, por ser más fáciles de detectar que los planetas pequeños), sin embargo es difícil no conjeturar que, allí, junto a estos planetas, posiblemente estarán también sus hermanos planetarios más pequeños que, como la Tierra, pudieran tener condiciones para generar la vida en cualquiera de sus millones de formas.

Supertierras que son fáciles de detectar por su inemnsas masas pero, los planetas terrestres también están por ahí, orbitando a miles y miles de estrellas y a la distancia adecuada para poder contener la vida.

Los elementos más abundantes del Universo: carbono, hidrógeno, oxígeno y nitrógeno (CHON). Están ahí, dispersos por las Nebulosas que forman los mundos y las estrellas y… ¡la vida!

Lee Smolin, de la Universidad de Waterloo,  Ontario, ha investigado la relación existente entre, por una parte, las estrellas que convierten unos elementos más sencillos en algo como el CHON y arroja esos materiales al espacio, y, por otra parte, las nubes de gas y polvo que hay en éste, que se contrae para formar nuevas estrellas.

Nuestro hogar dentro del espacio, la Vía Láctea, es una entre los cientos de miles de millones de estructuras similares dispersas por todo el Universo visible, y parece ser una más, con todas las características típicas – de tipo medio en cuanto a tamaño, composición química, etc.- La Vía Láctea tiene forma de disco plano, con alrededor de cien mil años luz de diámetro, y está formada por doscientos mil millones de estrellas que describen órbitas en torno al centro del disco.

El Sol, en realidad, sólo es importante para nosotros al ser el cuerpo central de nuestro Sistema Solar, y con mucho, la estrella más cercana al planeta Tierra y la única que se puede estudiar con todo lujo de detalles. Se clasifica como una estrella G2V: una estrella amarilla con una temperatura efectiva de 5.770 K (tipo espectral G2) y una enana de la secuencia principal (clase de luminosidad V). Los detalles de su composición son sobradamente sabidos por todos y cabe destacar su abundancia de hidrógeno – 71% en masa- y de helio el 27% y elementos más pesados hasta completarlo. Por lo tanto, nuestro Sol no destaca por nada entre esa multitud de de cientos de miles de millones de estrellas.

Recorre su órbita a una distancia del centro que viene a ser más o menos dos tercios del diámetro. En el centro de la Galaxia las estrellas forman una protuberancia, de tal modo que desde el exterior daría la sensación de estar viendo un enorme huevo frito, en el que la protuberancia sería la yema. Sin embargo, el modo en que este disco gira revela que todo el material brillante (materia bariónica) que compone la parte visible de la Vía Láctea queda sujeto por el tirón gravitatorio de una materia invisible que no brilla ni emite radiación y que viene a ser más o menos diez veces mayor que la materia visible de la Galaxia y que muchos suponen que está diseminada en un halo situado alrededor de ella, extendiéndose mucho más allá del borde del disco de estrellas brillantes.

Descubrir qué es realmente esta materia oscura (yo prefiero llamarla no luminosa o materia escondida) constituye un tema de crucial interés para los astrónomos, pero no entraremos ahora en eso, ya que, para lo que estamos tratando, no tiene importancia. Muchas galaxias en forma de disco se caracterizan por una especie de serpentinas que se alejan en espiral desde su centro, lo que hace que se les aplique el nombre de galaxias espirales. Es fácil estudiar las pautas que siguen los llamados “brazos espirales”, porque las galaxias se encuentran relativamente cerca unas de otras, si comparamos estas distancias con sus tamaños.

Andrómeda, la galaxia espiral más cercana comparable a la Vía Láctea, se encuentra con respecto a nosotros a una distancia de poco más de dos millones de años luz; parece una gran distancia, pero la galaxia de Andrómeda es tan grande (un poco mayor que la Vía Láctea) que, incluso a esa distancia, vista desde la Tierra cubre un trozo de cielo del tamaño de la Luna, y puede observarse a simple vista en una noche despejada y sin luz lunar, si nos situamos lejos de las ciudades y de otras fuentes de emisión de luz.

Los brazos espirales, que son una característica tan llamativa en galaxias como la nuestra, son visibles porque están bordeados por estrellas calientes de gran masa que relucen con mucho brillo. Esto significa que también son estrellas jóvenes, ya que no hay estrellas viejas que tengan gran cantidad de masa.

No hay misterio alguno en cuanto al modo en que mantienen esa forma espiral. Se debe exclusivamente a un fenómeno de retroalimentación.  Las nubes gigantescas a partir de las cuales se forman las estrellas pueden contener hasta un millón de veces la masa del Sol cuando empieza a contraerse gravitatoriamente para formar estrellas. Cada nube que se contrae produce, no una sola estrella de gran tamaño, sino todo un conglomerado de estrellas, así como muchas estrellas menores. Cuando las estrellas brillantes emiten luz, la energía de esta luz estelar (especialmente en la parte ultravioleta del espectro) forma una burbuja dentro de la nube, y tiende a frenar la formación de más estrellas. Sin embargo, una vez que las estrellas de gran masa han recorrido sus ciclos vitales y han explotado, sembrando además el material interestelar con elementos de distintos tipos, la onda expansiva ejerce presión sobre las nubes interestelares cercanas y hace que éstas comiencen a contraerse.

Las ondas procedentes de distintas supernovas, al entrecruzarse unas con otras, actúan mutuamente para barrer el material interestelar y formar nuevas nubes de gas y polvo que se contraen produciendo más estrellas y supernovas, en un ejemplo clásico de interacción que se mantiene por sí sola en la que intervienen una absorción de energía (procedentes de las supernovas) y una retroalimentación.

Si la nube es demasiado densa, su parte interna se contraerá gravitatoriamente de manera rápida, formando unas pocas estrellas grandes que recorren sus ciclos vitales rápidamente y revientan la nube en pedazos antes de que puedan formarse muchas estrellas. Esto significa que la generación siguiente de estrellas nace de una nube más delgada, porque ha habido pocas supernovas que barrieran material formando pedazos densos. Si la nube es tan delgada que su densidad queda por debajo de la densidad óptima, nacerán muchas estrellas, y habrá gran cantidad de explosiones supernovas, lo cual producirá gran número de ondas de choque que barrerán el material interestelar, acumulándolo en nubes más densas.

De esta manera, por ambas partes, las retroalimentaciones operan para mantener un equilibrio aproximadamente constante entre la densidad de las nubes y el número de supernovas (y estrellas de tipo Sol) que se producen en cada generación. La propia pauta espiral resulta del hecho de que la galaxia realiza movimiento de rotación y está sometida al tirón gravitatorio que crea la fuerza de marea proveniente de esa materia no luminosa.

Claro que, la materia interestelar es variada. Existen nubes de gas y polvo fríos, que son ricas en interesantes moléculas y se llaman nubes moleculares gigantes; a partir de estas nubes se forman nuevas estrellas (y planetas). Hay nubes de lo que consideraríamos gas “normal”, formadas por átomos y moléculas de sustancias tales como el hidrógeno, y quizá tan caliente como una habitación cerrada durante toda la noche y con la temperatura de dos cuerpos dormidos y emitiendo calor. Además, hay regiones que se han calentado hasta temperaturas extremas mediante la energía procedente de explosiones estelares, de tal modo que los electrones han sido arrancados de sus átomos para formar un plasma cargado de electricidad.

http://soopernova.com/wp-content/uploads/2010/06/estrellas.jpg

La densidad entre estrellas es escasa, dado que estas la obsorbieron

También existe una amplia variedad de densidades dentro del medio interestelar. En la modalidad más ligera, la materia que está entre las estrellas es tan escasa que sólo hay un átomo por cada mil centímetros cúbicos de espacio: en la modalidad más densa, las nubes que están a punto de producir nuevas estrellas y nuevos planetas contienen un millón de átomos por centímetro cúbico. Sin embargo, esto es algo muy diluido si se compara con el aire que respiramos, donde cada centímetro cúbico contiene más de diez trillones de moléculas, pero incluso una diferencia de mil millones de veces  en densidad sigue siendo un contraste espectacular.

La cuestión es que, unos pocos investigadores destacaron allá por 1.990 en que todos estos aspectos –composición, temperatura y densidad- en el medio interestelar dista mucho de ser uniforme. Por decirlo de otra manera más firme, no está en equilibrio, y parece que lo que lo mantiene lejos del equilibrio son unos pocos de procesos asociados con la generación de las pautas espirales.

Esto significa que la Vía Láctea (como otras galaxias espirales) es una zona de reducción de la entropía. Es un sistema auto-organizador al que mantienen lejos del equilibrio, por una parte, un flujo de energía que atraviesa el sistema y, por otra, como ya se va viendo, la retroalimentación. En este sentido, nuestra Galaxia supera el test de Lovelock para la vida, y además prestigiosos astrofísicos han argumentado que las galaxias deben ser consideradas como sistemas vivos.

Creo que llevan toda la razón.

emilio silvera

Entropía,Gravedad, Materia… ¡Vida!

Autor por Emilio Silvera    ~    Archivo Clasificado en El Universo y la Entropía    ~    Comentarios Comments (5)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Con alguna frecuencia hemos hablado aquí de ENTROPÍA. Viene del griego entrope que significa transformación o vuelta. Es un proceso mediante el cual un sistema tiende a consumirse, desorganizarse y morir. Se basa en la segunda ley de la termodinámica que plantea que la pérdida de energía en los sistemas aislados los lleva a la degradación, degeneración, desintegración y desaparición.

En todo lo que ocurre hay una fuerza presente que conforma la dinámica de las cosas y del universo mismo

En nuestro Universo, todo se transforma, nada permanece siempre igual. El paso del Tiempo está acompañado por la Entropía y el deterioro de los “Sistemas” es visible a simple vista. En cierta ocasión, Darwin censuró a aquellos que especulaban con el origen de la Vida replicando que uno también podría especular sobre el origen de la Materia. Hoy, los físicos y los cosmólogos creen que saben cómo se originó la materia, y la comparación de este proceso con la biogénesis resulta extraordinariamente reveledora. El Universo observable contiene 1050 toneladas de materia, y el problema de la procedencia de dicha materia atormentó a la cosmología durante muchos años.

Aquellos primeros críticos de la teoría del Big Bang (como Fred Hpyle y otros), pusieron objeciones razonables a la hipótesis de que toda esta materia surgió simplemente, y sin una razón aparente, en el comienzo del Tiempo. La idea de que el Universo se originó con la matria necesaria ya allí, era para muchos una idea completamente acientífica, como sabemos, todo tiene una razón de ser y nada se produce “porque sí”.

Leer más

¡La filosofía! Y, lo que creemos que sabemos

Autor por Emilio Silvera    ~    Archivo Clasificado en El Universo y... ¿nosotros?    ~    Comentarios Comments (4)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

http://healthyemotions.files.wordpress.com/2012/06/el_circulo_de_viena.jpg

 

Podemos considerar como precursores del Círculo de Viena a los siguientes autores.

 

Vista de la ciudad de Viena

 

Vista de la Ciudad de Viena en aquellos tiempos

Existen cuatro tesis que definen el círculo:

El criterio de demarcación:

  • La posibilidad de verificar un hecho diferencia al conocimiento científico o ciencia, del resto de conocimientos

El lenguaje lógico:

  • Una observación se dice que es científica si pueden ser expresada con símbolos y relacionarse a traves de ellos.

La unificación de la ciencia:

  • Todo enunciado científico se identifica dentro de un mismo área de la realidad, no existen distintas partes.

La inducción probabilística:

  • Todo estudio científico se compone de fases de observación, procesamiento y conclusiones finales (o leyes generalistas). Una observación puntual puede arrojar resultados que no sean los esperados por lo que en muchos casos se hace uso de la probabilidad.

 

“El nacimiento y desarrollo de la ciencia experimental a partir del siglo XVII ha estado frecuentemente acompañado de polémicas filosóficas, y no pocas posturas filosóficas de la época moderna han representado, en parte, intentos diversos de solucionar esas polémicas”.

Resolver las diferentes polémicas filosóficas han hecho que en la época reciente se constituyese “la filosofía de la ciencia como disciplina autónoma, que ha dado lugar a la aparición de un nuevo tipo de dedicación profesional”.

      Karl Popper

La aparición de este nuevo tipo de filósofo suele estar ligada a las actividades del círculo de Viena “que contribuyeron decisivamente a la consolidación de la filosofía de la ciencia como disciplina autónoma”. Desde esas actividades surgieron nuevas figuras que, ancladas en las consideraciones iniciales de la filosofía neopositivista del Círculo intenta responder a la cuestión de qué es la actividad científica y cual es su racionalidad propia. Heredan de la visión positivista que la ciencia es el paradigma de la objetividad y de la racionalidad.

Junto a la postura neopositivista crecen las figuras de otros pensadores. Entre esos nuevos filósofos se encuentra Karl Popper, cuya filosofía es también un intento de explicar el método científico y la racionalidad propia de la ciencia. Se convierte, tras alguno de los miembros del Círculo, en uno de los principales artífices de la consolidación de esta disciplina. A su sombra crecieron los principales filósofos de la ciencia del siglo XX y sus ideas constituyen siempre un paradigma, ya sea para seguirlas, ya sea para criticarlas.

Disolución del Círculo de Viena

La guerra, de Otto Dix. Dresde, Alemania, Gemaldegalerie, Neue Meister

La guerra, de Otto Dix. Dresde, Alemania, Gemaldegalerie, Neue Meister

En 1936 Schlick fue asesinado por un antiguo estudiante que era nazi, Hahn había muerto dos años antes, y casi todos los miembros del Círculo eran judíos. Esto produjo, con el advenimiento de los nazis, una diáspora que llevó a su disolución. Feigl se fue a Estados Unidos junto con Carnap, seguidos de Gödel y Ziegel; Neurath se exilió a Inglaterra; y, en 1938, las publicaciones del Círculo de Viena fueron prohibidas en Alemania. En 1939 Carnap, Neurath y Morris publicaron la Enciclopedia internacional de la ciencia unificada, que se puede considerar la última obra del Círculo de Viena.

          Los procesos de la Ciencia, en todos sus ámbitos, siempre ha sido unificador del saber

“El proceso de la ciencia es el descubrimiento a cada paso de un nuevo orden que dé unidad a lo que desde hacía tiempo parecía desunirlo.”

Es lo que hizo Faraday cuando cerró el vínculo que unió la electricidad y el magnetismo. Es lo que hizo Clerk Maxwell cuando unió aquélla y éste con la luz. Y la ciencia siguió avanzando de manera que, nuevos paradigmas se implantaron en la física que comenzó a trastocarlo todo.

Él decía: “Todos somos ignorantes, nadie sabe las mismas cosas”. Ciertamente, nadie podrá nunca,  saberlo todo de todo

Einstein unió el tiempo y el espacio, la masa a la energía y relacionó las grandes masas cosmológicas con la curvatura y la distorsión del tiempo y el espacio para traernos la gravedad en un teoría moderna; y dedicó los últimos años de su vida al intento de añadir a estas similitudes otra manera nueva y más avanzada, que instaurara un orden nuevo e imaginativo entre las ecuaciones de Maxwell y su propia geometría de la gravitación.

Cuando Coleridge intentaba definir la belleza, volvía siempre a un pensamiento profundo: la belleza, decía, es la “unidad de la variedad”.

“La ciencia no es otra cosa que la empresa de descubrir la unidad en la variedad  desaforada de la naturaleza, o más exactamente, en la variedad de nuestra experiencia que está limitada por nuestra ignorancia.”

Hay muchas cosas que no podemos controlar, sin embargo, algo dentro de nosotros, nos envía mensajes sobre lo que podría ser importante para que nos fijemos mejor y continuemos profundizando. Algo dentro de nuestras mentes nos grita: ¡Fijaos en la Naturaleza, ella tiene todas las respuestas!

                                                                                  De los Quarks a las Galaxias

Para comprender mejor el panorama, hagamos una excursión hasta la astrofísica; hay que explicar por qué la física de partículas y la Astronomía se han fundido no hace muchos años, en un nivel nuevo  de intimidad, al que alguien llamó la conexión espacio interior/espacio exterior.

Mientras los expertos del espacio interior construían aceleradores, microscopios cada vez más potentes para ver qué pasaba en el dominio subnuclear, los colegas del espacio exterior sintetizaban los datos que tomaban unos telescopios cada vez más potentes, equipados con nuevas técnicas cuyo objeto era aumentar su sensibilidad y la capacidad de ver detalles finos. Otro gran avance fueron los observatorios establecidos en el espacio, con sus instrumentos para detectar infrarrojos, ultravioletas, rayos X y rayos gamma; en pocas palabras, toda la extensión del espectro electromagnético, muy buena parte del cual era bloqueado por nuestra atmósfera opaca y distorsionadora.

La síntesis de la cosmología de los últimos cien años es el modelo cosmológico estándar. Sostiene que el universo empezó en forma de un estado caliente, denso, compacto, hace unos 15.000 millones de años. El universo era entonces infinitamente, o casi infinitamente, denso; infinita, o casi infinitamente, caliente. La descripción “infinito” es incómoda para los físicos; los modificadores son el resultado de la influencia difuminadota de la teoría cuántica. Por razones que quizá no conozcamos nunca, el universo estalló, y desde entonces ha estado expandiéndose y enfriándose.

Ahora bien, ¿cómo se han enterado de eso los cosmólogos? El modelo de la Gran Explosión (Big Bang) nació en los años treinta tras el descubrimiento de que las galaxias (conjuntos de 100.000 millones de estrellas, aproximadamente) se estaban separando entre sí, descubrimiento hecho por Edwin Hubble, que andaba midiendo sus velocidades en 1.929.

File:Gravitationell-lins-4.jpg

Hubble tenía que recoger de las galaxias lejanas una cantidad de luz que le permitiera resolver las líneas espectrales y compararlas con las líneas de los mismos elementos de la Tierra. Cayó en la cuenta de que todas las líneas se desplazaban sistemáticamente hacia el rojo. Se sabía que una fuente de luz que se aparta de un observador hace justo eso. El desplazamiento hacia el rojo era, de hecho, una medida de la velocidad relativa de la fuente y del observador.

Más tarde, Hubble halló que las galaxias se alejaban de él en todas las direcciones; esto era una manifestación de la expansión del espacio. Como el espacio expande las distancias entre todas las galaxias, la astrónoma Hedwina Kubble, que observase desde el planeta Penunbrio en Andrómeda, vería el mismo efecto o fenómeno: las galaxias se apartaría de ella.

Cuanto más distante sea el objeto, más deprisa se mueve. Esta es la esencia de la ley de Hubble. Su consecuencia es que, si se proyecta la película hacia atrás, las galaxias más lejanas, que se mueven más deprisa, se acercarán a los objetos más próximos, y todo el lío acabará juntándose y se acumulará en un volumen muy, muy pequeño, como, según se calcula actualmente, ocurría hace 13.700 millones de años.

La más famosa de las metáforas científicas te pide que imagines que eres una criatura bidimensional, un habitante del Plano. Conoces el este y el oeste, el norte y el sur, pero arriba y abajo no existen; sacaos el arriba y debajo de vuestras mentes. Vivís en la superficie de un globo que se expande. Por toda la superficie hay residencias de observadores, planetas y estrellas que se acumulan en galaxias por toda la esfera; todo bidimensional. Desde cualquier atalaya, todos los objetos se apartan a medida que la superficie se expande sin cesar. La distancia entre dos puntos cualesquiera de este universo crece. Eso es lo que pasa, precisamente, en nuestro mundo tridimensional. La otra virtud de esta metáfora es que, en nuestro universo, no hay ningún lugar especial. Todos los sitios o puntos de la superficie sin democráticamente iguales a todos los demás. No hay centro; no hay borde. No hay peligro de caerse del universo. Como nuestra metáfora del universo en expansión (la superficie del globo) es lo único que conocemos, no es que las estrellas se precipiten dentro del espacio. Lo que se expande es que espacio que lleva toda la barahúnda. No es fácil visualizar una expansión que ocurre en todo el universo. No hay un exterior, no hay un interior. Sólo hay este universo, que se expande. ¿En qué se expande? Pensad otra vez en vuestra vida como habitante del Plano, de la superficie del globo: en nuestra metáfora no existe nada más que la superficie.

Dos consecuencias adicionales de gran importancia que tiene la teoría del Big Bang acabaron por acallar la oposición, y ahora “reina un considerable consenso” -obligado o forzado por la ignorancia de no saber explicar lo que pudo pasar, de otra manera distinta a la del B.B.-. Una es la predicción de que la luz de la incandescencia original (presuponiendo que fue muy caliente) todavía está a nuestro alrededor, en forma de radiación remanente. Recordad que la luz está constituida por fotones, y que la energía de los fotones está en relación inversa con la longitud de onda. Una consecuencia de la expansión del universo es que todas las longitudes se expanden. Se predijo, pues, que las longitudes de onda, originalmente infinitesimales, como correspondía a unos fotones de gran energía, han crecido hasta pertenecer ahora a la región de las microondas, en la que las longitudes son unos pocos milímetros.

En 1.965 se descubrieron los rescoldos del Big Bang, es decir, la radiación de fondo de microondas. Esos fotones bañan el universo entero, y se mueven en todas las direcciones posibles. Los fotones que emprendieron viaje hace miles de millones de años cuando el universo era más pequeño y caliente, fueron descubiertos por una antena de los laboratorios Bell en Nueva Jersey.

Así que el descubrimiento hizo imprescindible medir la distribución de las longitudes de onda, y se hizo. Por medio de la ecuación de Planck, esta medición de la temperatura media de lo que quiera (el espacio, las estrellas, polvo, un satélite, los pitidos de un satélite que se hubiese colado ocasionalmente) que haya estado bañándose en esos fotones.

El satélite COBE de la NASA.

 COBE de la NASA lanzado en 1989

Las mediciones últimas efectuadas por la NASA con el satélite COBE dieron un resultado de 2’73 grados sobre el cero absoluto (2’73 ºK). Esta radiación remanente es una prueba muy potente a favor de la teoría del Big Bang caliente.

Los astrofísicos pueden hablar tan categóricamente porque han calculado qué distancias separaban a dos regiones del cielo en el momento en que se emitió la radiación de microondas observadas por el COBE. Ese momento ocurrió 300.000 años después del Big Bang, no tan pronto como sería deseable, pero sí lo más cerca del principio que podemos.

Resulta que temperaturas iguales en regiones separadas del espacio que nunca habían estado en contacto y cuyas separaciones eran tan grandes que ni siquiera a la velocidad de la luz daba tiempo para que las dos regiones se comunicasen, y sin embargo, sí tenían la misma temperatura. La teoría del Big Bang no podía explicarlo; ¿un fallo?, ¿un milagro? Se dio en llamar a eso la crisis de la causalidad, o de la isotropía.

De la causalidad porque parecía que había una conexión causal entre distintas regiones del cielo que nunca debieran haber estado en contacto; de la isotropía porque donde quiera que mires a gran escala verás prácticamente el mismo patrón de estrellas, galaxias, cúmulos y polvo estelar. Se podría sobrellevar esto en un modelo del Big Bang diciendo que la similitud de las miles de millones de piezas del universo que nunca estuvieron en contacto es puro accidente. Pero no nos gustan los “accidentes”: los milagros están estupendamente si jugamos a la lotería, pero no en la ciencia. Cuando se ve uno, los científicos sospechan que algo más importante se nos mueve entre bastidores. Me parece que mi inclinación científica me hace poco receptivo a los milagros. Si algo para habrá que buscar la causa.

El segundo éxito de gran importancia del modelo del Big Bang tiene que ver con la composición de nuestro universo. Puede parecer que el mundo está hecho de aire, tierra, agua y fuego, pero si echamos un vistazo arriba y medimos con nuestros telescopios espectroscópicos, apenas sí encontramos algo más que hidrógeno, y luego helio. Entre ambos suman el 98% del universo que podemos ver. El resto se compone de los otros noventa elementos. Sabemos gracias a nuestros telescopios espectroscópicos las cantidades relativas de los elementos ligero, y hete aquí que los teóricos del Big Bang dicen que esas abundancias son precisamente las que cabría esperar. Lo sabemos así.

El universo prenatal tenía en sí toda la materia del universo que hoy observamos, es decir, unos cien mil millones de galaxias, cada una con cien mil millones de soles. Todo lo que hoy podemos ver estaba comprimido en un volumen muchísimos menos que la cabeza de un alfiler. La temperatura era alta, unos 1032 grados Kelvin, mucho más caliente que nuestros 273 ºK actuales. Y en consecuencia la materia estaba descompuesta en sus componentes primordiales.

Una imagen aceptable de aquello es la de una “sopa caliente”, o plasma, de quarks y leptones (o lo que haya dentro, si es que hay algo) en la que chocan unos contra otros con energías del orden de 1018 GeV, o un billón de veces la energía del mayor colisionador que cualquier físico pueda imaginarse construir. La gravedad era rugiente, con su poderoso (pero aún mal conocido) influjo en esta escala microscópica.

Tras este comienzo fantástico, vinieron la expansión y el enfriamiento. A medida que el universo se enfriaba, las colisiones eran menos violentas. Los quarks, en contacto íntimo los unos con los otros como partes del denso grumo que era el universo infantil, empezaron a coagularse en protones, neutrones y los demás hadrones. Antes, esas uniones se habrían descompuesto en las inmediatas y violentas colisiones, pero el enfriamiento no cesaba; aumentaba con la expansión y las colisiones eran cada vez más suaves.

A los tres minutos de edad, las temperaturas habían caído lo bastante como para que pudiesen combinarse los protones y los neutrones, y se formaran núcleos estables. Este fue el periodo de nucleosíntesis, y como se sabe lo suficiente de física nuclear se pueden calcular las abundancias relativas de los elementos químicos que se formaron. Son los núcleos de elementos muy ligeros; los más pesados requieren de una “cocción” lenta en las estrellas.

Claro que, los átomos (núcleos más electrones) no se formaron hasta que la temperatura no cayó lo suficiente como para que los electrones se organizaran alrededor de los núcleos, lo que ocurrió 300.000 años después, más o menos. Así que, en cuanto se formaron los átomos neutros, los fotones pudieron moverse libremente, y ésta es la razón de que tengamos una información de fotones de microondas todavía.

La nucleosíntesis fue un éxito: las abundancias calculadas y las medidas coincidían. Como los cálculos son una mezcla íntima de física nuclear, reacciones de interacción débil y condiciones del universo primitivo, esa coincidencia es un apoyo muy fuerte para la teoría del Big Bang.

En realidad, el universo primitivo no era más que un laboratorio de acelerador con un presupuesto ilimitado. Nuestros astrofísicos tenían que saberlo todo acerca de los quarks y los leptones y las fuerzas para construir un modelo de evolución del universo. Los físicos de partículas reciben datos de su experimento grande y único. Por supuesto, para los tiempos anteriores a los 10-13 segundos, están mucho menos seguros de las leyes de la física. Así que, los astrofísicos azuzan a los teóricos de partículas para que se remanguen y contribuyan al torrente de artículos que los físicos teóricos lanzan al mundo con sus ideas: Higgs, unificación de cuerdas vibrantes, compuestos (qué hay dentro de los quarks) y un enjambre de teorías especulativas que se aventuran más allá del modelo estándar para construir un puente que nos lleve a la descripción perfecta del universo, de la Naturaleza. ¿Será posible algún día?

Esperemos a ver qué pasa con la historia que comenzaron Grabielle Veneziano, John Schwartz, André Neveu, Pierre Ramond, Jeff Harvey, Joel Sheik, Michael Green, David Gross y un dotado flautista de Hamelin que responde al nombre de Edward Witten.

La teoría de cuerdas es una teoría que nos habla de un lugar muy distante. Según Leon Lederman… “casi tan distante como Oz o la Atlántida”. Estamos hablando del dominio de Planck, ese lugar al que nadie ha podido llegar nunca. No hay forma de que podamos imaginar datos experimentales en ese tiempo tan lejano; las energías necesarias (las de la masa de Planck) no están a nuestro alcance.

Y, a todo esto, tenemos que comprender que todo, absolutamente todo lo que anteriormente habéis leído más arriba, es lo que creemos que sabemos y que, de ninguna manera, tiene que reflejar la realidad que…, de momento y a ciencia cierta, desconocemos.

emilio silvera

La fascinación de los minúsculos objetos

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (4)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

El Universo de las partículas es fascinante.  Cuando las partículas primarias chocan con átomos y moléculas en el aire, aplastan sus núcleos y producen toda clase de partículas secundaria.  En esta radiación secundaria (aún muy energética) la que detectamos cerca de la Tierra, por los globos enviados a la atmósfera superior han registrado la radiación primaria.

El físico estadounidense Robert Andrews Millikan, que recogió una gran cantidad de información acerca de esta radiación (y que le dio el nombre de rayos cósmicos), decidió que debería haber una clase de radiación electromagnética.  Su poder de penetración era tal que, parte del mismo, atravesaba muchos centímetros de plomo.  Para Millikan, esto sugería que la radiación se parecía a la de los penetrantes rayos gamma, pero con la longitud de onda más corta.

Otros, sobre todo el físico norteamericano Holly Compton, no estaban de acuerdo en que los rayos cósmicos fuesen partículas.  Había un medio para investigar este asunto.  Si se trataba de partículas cargadas, deberían ser rechazadas por el campo magnético de la Tierra al aproximarse a nuestro planeta desde el espacio exterior.  Compton estudió las mediciones de la radiación cósmica en varias latitudes y descubrió que en realidad se curvaban con el campo magnético: era más débil cerca del ecuador magnético y más fuerte cerca de los polos, donde las líneas de fuerza magnética se hundían más en la Tierra.

Las partículas cósmicas primarias, cuando entran en nuestra atmósfera llevan consigo unas energías fantásticas, muy elevadas.  En general, cuanto más pesado es el núcleo, más raro resulta entre las partículas cósmicas.  Núcleos tan complejos como los que forman los átomos de hierro se detectaron con rapidez, en 1968, otros núcleos tan complejos como los del uranio.  Los núcleos de uranio constituyen sólo una partícula entre 10 millones. También se incluirán aquí electrones de muy elevada energía.

Ahora bien, la siguiente partícula inédita –después del neutrón- se descubrió en los rayos cósmicos.  A decir verdad, cierto físico teórico había predicho ya este descubrimiento.

Paul Adrien Maurice Dirac había aducido, fundándose en un análisis matemático de las propiedades inherentes a las partículas subatómicas, que cada partícula debería tener su “antipartícula”. (Los científicos desean no sólo que la Naturaleza sea simple, sino también simétrica.)  Así pues, debería haber un “antielectron”, salvo por su carga, que sería positiva, y no negativa, idéntico al electrón, y un “antiprotón” con carga negativa en vez de positiva.

Leer más