sábado, 30 de noviembre del 2024 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




¡Las Partículas! ¿Elementales?

Autor por Emilio Silvera    ~    Archivo Clasificado en Física Cuántica    ~    Comentarios Comments (14)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Generalmente las llamamos partículas elementales pero, lo cierto es que, algunas son más elementales que otras. Los físicos experimentadores hicieron un buen trabajo en aquellos antiguos aceleradores de partículas por despejar la incognita y saber, de una vez por todas, de qué estaba hecha la materia.

Los núcleos de los átomos están formados por protones y neutrones, alrededor de los cuales orbitan los electrones. Estos tres elementos (protones, neutrones y electrones) constituyen prácticamente toda la materia de la Tierra. Mientras que el electrón se considera como una partícula “sin tamaño”, el protón, que está compuesto de quarks, es un objeto con tamaño específico. Hasta ahora, sólo dos métodos se han utilizado para medir su radio. Basándose en el estudio de las interacciones entre un protón y un electrón, ambos métodos se centran en las colisiones entre uno y otro o sobre el átomo de hidrógeno (constituido por un electrón y un protón). El valor obtenido y que es el utilizado por los físicos, es 0,877 (+ / – 0,007) femtómetros.

Resultado de imagen de La masa atómica

                                 Masa atómica

Una de las formas como los científicos miden el tamaño de algo es a través de su masa. Los científicos pueden incluso medir cosas muy minúsculas como los átomos. Una medida del tamaño de un átomo es su “masa atómica”. Casi toda la masa de un átomo (más del 99%) está en su núcleo, de manera que la “masa atómica” es realmente una medida del tamaño del núcleo de un átomo.

Los protones son practicamente del mismo tamaño que los neutrones, y ambos son mucho más grandes que los electrones. Un protón tiene una masa aproximadamente 1.836 veces mayor que la masa del electrón, pero las masas de los protones y neutrones se diferencian menos de uno por ciento. Un protón tiene una masa de 1.6726 x 10-24gramos. Los protones tienen una carga eléctrica positiva, conocida a veces como carga elemental, carga fundamental o carga de +1. Los electrones tienen una carga del mismo valor pero de polaridad opuesta, -1. La carga fundamental tiene un valor de 1.602 x 10-19 coulombios.

Resultado de imagen de Núcleo atómico

                                                      Núcleo atómico

El núcleo de un átomo contiene protones y neutrones. Cada elemento (como el carbono, oxígeno o el oro) tiene diferente número de protones en sus átomos. Los científicos tienen un nombre especial para el número de protones en un átomo. Lo llaman “número atómico”.

¿Por qué es importante el número atómico? Los átomos normales tienen el mismo número de electrones que protones. El número de electrones es lo que hace que cada elemento se comporte de cierta manera en reacciones químicas. De manera que el número atómico, que es el número de protones y electrones, es lo que hace que un elemento sea diferente a otro.

Hace algunos años ya que los físicos se preguntaban: ¿Podrían los protones ser puntos? Y, tratándo de saberlo, comenzaron a golpear los protones con otros protones de una energía muy baja (al principio) con el objeto de explorar la fuerza electromagnética entre los dos objetos cargados.

El Acelerador Lineal de Stanford. El SLAC, ubicado al sur de San Francisco, acelera electrones y positrones a lo largo de sus 2 millas de longitud (algo mas de tres kilómetros), hacia varios blancos, anillos y detectores ubicados en su finalización. Este acelerador hace colisionar electrones y positrones, estudiando las partículas resultantes de estas colisiones. Construido originalmente en 1962, se ha ido ampliando y mejorando para seguir siendo uno de los centros de investigación de física de partículas mas avanzados del mundo. El Centro ha ganado el premio Nobel en tres ocasiones.

La Ley de Coulomb nos dice que esta fuerza se extiende hacia el infinito, disminuyendo su intensidad con el cuadrado de la distancia. El protón que hace de blanco y el acelerado están, claro, cargados positivamente, y como las cargas iguales se repelen, el protón “blanco” repele sin dificultad al protón lento, que no llega nunca a acercarse demasiado. Con este tipo de “luz”, el protón parece, efectivamente, un punto, un punto de carga eléctrica. Así que se aumentaron la energía de los protones acelerados y, pudieron comprobar que ahora sí, las desviaciones en los patrones de dispersión de los protones indican que van penetrando con la hondura suficiente para tocar la llamada interacción fuerte, la fuerza de la que ahora sabemos que mantiene unidos a los constiutuyentes del protón.

Si los físicos experimentales de la década de los 60 hubieran podido tener a su disposición el moderno LHC… ¿Dónde estaríamos ahora?

La interacción fuerte es cien veces más intensa que la fuerza eléctrica de Coulomb, pero, al contrario que ésta, su alcance no es en absoluto infinito. Se extiende sólo hasta una distancia de unos 10-13 centímetros, y luego cae deprisa a cero. Al incrementar la energía de colisión, los experimentos desenterraron más y más detalles desconocidos de la interacción fuerte. A medida que aumenta la energía, la longitud de onda de los protones (acordémonos de De Broglie y Schrödinger) se encoge. Y, como se pudo ver, cuanto menor sea la longitud de onda , más detalles cabe discernir en la partícula que se estudie.

Resultado de imagen de Robert Hofstadter, de la Universidad de Stanford, tomó en los años cincuenta algunas de las mejores "imágenes" del protón

Robert Hofstadter, de la Universidad de Stantanford, tomó en los años cincuenta algunas de las mejores “imágenes” del protón. En vez de un haz de protones, la “luz” que utilizó fue un haz de electrones de 800 MeV que apuntó a un pequeño recipiente de hidrógeno líquido. Los electrones bombardearon los protones del hidrógeno y el resultado fue un patrón de dispersión, el de los electrones que salían en una variedad de direcciones con respecto a su movimiento original. No era muy diferente a lo que hizo Rutherford. Al contrario que el protón, el electrón no responde a la interacción nuclear fuerte. Responde sólo a la carga eléctrica del protón, y por ello los científicos de Stanford pudieron explorar la forma de la distribución de carga del protón. Y esto, de hecho, reveló el tamaño del protón. Claramente no era un punto.

http://farm5.static.flickr.com/4100/4773897678_6ab01932d2.jpg

Se midió que el radio del protón era de 2,8 x 10-13 centímetros; la carga se acumula en el centro, y se desvanece en los bordes de lo que llamamos el protón. Los experimentos se repitieron muchas veces y los resultados, siempre fueron parecidos al hacerlos con haces de muones, que también ignoran la interacción fuerte al ser leptones como los electrones.  (Medidas más precisas llevadas a cabo en nuestro tiempo, han podido detectar, diminutos cambios en el radio del protón que tienen enormes implicaciones. El protón parece ser 0,00000000000003 milímetros más pequeño de lo que los investigadores habían pensado anteriormente, de hecho, y según han comentados los físicos del equipo que hizo el trabajo,  las nuevas medidas podrían indicar que hay un hueco en las teorías existentes de la mecánica cuántica y algo falla en alguna parte.)

                        La imágen tomada en el SLAC, nos choca, todos tenemos en la mente las del LHC

Pero sigamos con la historia. Hallá por el año 1968, los físicos del Centro del Acelerador Lineal Stanford (SLAC), bombarderon los protones con electrones de mucha energía -de 8 a 15 GeV- y obtuvieron un conjunto muy diferente de patrones de dispersión. A esta “luz dura”, el protón presentaba un aspecto completamente distinto. Los electrones de energía relativamente baja que empleó Hofstadter podían ver sólo un protón “borroso”, una distribución regular de carga que hacía que el electrón pareciése una bolita musgosa. Los electrones del SLAC pudieron sondear con mayor dureza y dieron con algunos “personajillos” que “correteaban” dentro del protón. Aquella fue la primera indicación de la existencia real de los Quarks.

Todo avance ha requerido de muchísimo esfuerzo y de lo mejor de muchas mentes. Como podéis ver por la escueta y sencilla explicación aquí contenida, hemos aprendido muchas cosas a base de observar con atención los resultados de los experimentos que la mente de nuestra especie ha ideado para poder descubrir los secretos de la Naturaleza. Hemos aprendido acerca de las fuerzas y de cómo originan sus estructuras complejas, como por ejemplo los protones que no son, tan elementales como en un principio se creía. Los protones (que son Bariones) están formados por tres quarks y, sus primos  (los Mesones) están compuestos por un quark y un anti-quark.

Como nos decía el Nobel León Lederman: “Uno no puede por menos que  sentirse impresionado por la secuencia de ¡semillas dentro de semillas!. La molécula está formada por átomos. La región central del átomo es el nucleo. El núcleo está formado por protones y neutrones. El protón y el neutrón están formados por… ¿hasta dónde llegará ésto?

No es fácil conformarse con la idea de que, en los Quarks termina todo. Uno se siente tentado a pensar que, si profundizamos más utilizando energías superiores de las que ahora podemos disponer (14 TeV), posiblemente -sólo posiblemente- podríamos encontrarnos con objetos más pequeños que… ¡como cuerdas vibrantes! nos hablen de la verdadera esencia de la materia que, habiéndonos sido presentada ya, es posible que esconda algunos secretos que tendríamos que desvelar.

Resultado de imagen de partícula higgs

         ¡Poder profundizar hasta el límite de Planck con la energía de Planck! ¿Qué encontraríamos allí?

Lo cierto que, de momento, sólo es un sueño y, la energía de Planck está muy lejos de nuestro alcance. Poder contar con la energía de Planck, por el momento y durante mucho, mucho, muchísimo tiempo, será sólo un sueño que algunos físicos tienen en la mente. Una regla universal en la física de partículas es que para partículas con energías cada vez mayores, los efectos de las colisiones están determinados por estructuras cada vez más pequeñas en el espacio y en el tiempo. El modelo estándar es una construcción matemática que predice sin ambigüedad cómo debe ser el mundo de las estructuras aún más pequeñas. Pero existen varias razones para sospechar que sus predicciones pueden, finalmente (cuando podamos emplear más energía en un nivel más alto), resultar equivocadas.

equilibrio y estabilidad, el resultado de dos fuerzas contrapuestas

Vistas a través del microscopio, las constantes de la naturaleza parecen estar cuidadosamente ajustadas sin ninguna otra razón aparente que hacer que las partículas parezcan lo que son. Hay algo muy erróneo aquí. Desde un punto de vista matemático no hay nada que objetar, pero la credibilidad del modelo estándar se desploma cuando se mira a escalas de tiempo y longitud extremadamente pequeñas, o lo que es lo mismo, si calculamos lo que pasaría cuando las partículas colisionan con energías extremadamente altas. ¿Y por qué debería ser el modelo válido hasta aquí? Podrían existir muchas clases de partículas súper pesadas que no han nacido porque se necesitan energías aún inalcanzables. ¿Dónde está la partícula de Higgs? ¿Cómo se esconde de nosotros el gravitón? y, por no dejar nada en el tintero… ¿Dónde estarán las cuerdas?

                                               Los Bosones de gauge aparecen en la columna derecha

Parece que el Modelo estándar no admite la cuarta fuerza (Gravedad),  y tendremos que buscar más profundamente, en otras teorías que nos hablen y describan además de las partículas conocidas de otras nuevas que están por nacer y que no excluya la Gravedad. Ese es el Modelo que necesitamos para conocer mejor la Naturaleza.

Claro que las cosas no son tan sencilla y si deseamos evitar la necesidad de un delicado ajuste de las constantes de la naturaleza, creamos un nuevo problema: ¿cómo podemos modificar el modelo estándar de tal manera que el ajuste fino no sea necesario? Está claro que las modificaciones son necesarias, lo que implica que muy probablemente haya un límite más allá del cual el modelo tal como está deja de ser válido. El modelo estándar no será nada más que una aproximación matemática que hemos sido capaces de crear, de forma que todos los fenómenos que hemos observado hasta el presente están reflejados en él, pero cada vez que se pone en marcha un aparato más poderoso, tenemos que estar dispuestos a admitir que puedan ser necesarias algunas modificaciones del modelo para incluir nuevos datos que antes ignorábamos.

Más allá del modelo estándar habrá otras respuestas que nos lleven a poder hacer otras preguntas que en este momento, no sabemos ni plantear por falta de conocimientos.  Si no conociéramos que los protones están formados por Quarks, ¿cómo nos podríamos preguntar si habrá algo más allá de los Quarks?

Se han estado inventando nuevas ideas, como la supersimetría y el technicolor. Los astrofísicos estarán interesados en tales ideas porque predicen una gran cantidad de nuevas partículas superpesadas, y también varios tipos de partículas que interaccionan ultradébilmente, los technipiones. Éstas podrían ser las WIMP’s (Weakly Interacting Massive Particles, o Partículas Masivas Débilmente Interactivas) que pueblan los huecos entre las galaxias, y serían así las responsables de la masa perdida que los astrofísicos siguen buscando y llaman “materia oscura”.

Resultado de imagen de El positrón de Dirac

Que aparezcan “cosas” nuevas y además, imaginarlas antes, no es fácil. Recordemos cómo Paul Dirac se sintió muy incómodo cuando en 1931 dedujo, a partir de su ecuación del electrón, que debería existir una partícula con carga eléctrica opuesta. Esa partícula no había sido descubierta y le daba reparo perturbar la paz reinante en la comunidad científica con una idea tan revolucionaria, así que disfrazó un poco la noticia: “Quizá esta partícula cargada positivamente, tan extraña, sea simplemente el protón”, sugirió. Cuando poco después se identificó la auténtica antipartícula del electrón (el positrón) se sorprendió tanto que exclamó: “¡Mi ecuación es más inteligente que su inventor!”. Este último comentario es para poner un ejemplo de cómo los físicos trabajan y buscan caminos matemáticos mediante ecuaciones de las que, en cualquier momento (si están bien planteadas), surgen nuevas ideas y descubrimientos que ni se podían pensar. Así pasó también con las ecuaciones de Einstein de la realtividad general, donde Schwarzschild dedujo la existencia de los agujeros negros.

Claro que, a todo esto, tenemos que pensar en un Universo muy vasto y muy complejo que está dinamizado por leyes y energías que, aunque creemos conocer, nos puede estar ocultando muchas “cosas” que aún no sabemos y, llegar más allá de los Quarks…¡No será nada fácil!

Si pensamos detenidamente lo que hasta el momento llevamos conseguido (aunque nuestros deseos se desboquen queriendo ir mucho más allá), tendremos que convenir en el hecho cierto de que, haber podido llegar al átomo y también a las galaxias es, al menos ¡asombroso! Sabemos de lugares a los que, físicamente (probablemente) nunca podamos ir, la física nos lo impide…al menos de momento en lo relacionado con las galaxias y, de manera irreversible para el “universo cuántico” que sólo podremos sondear con inmensas energías en los aceleradores que nos dirán, lo que queremos saber.

emilio silvera

¡El mundo de lo muy pequeño!

Autor por Emilio Silvera    ~    Archivo Clasificado en Sin categoría    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

No es fácil adentrarse en este universo de lo definitivamente pequeño, o incluso hablar de ello, exige un conocimiento muy profundo de las leyes de la naturaleza que rigen el mundo y que no tenemos. Las fuerzas que encontramos allí determinan la forma en la cual se mueven las partículas pequeñísimas y también le dan sus propiedades por medio de unos mecanismos que no siempre llegamos a comprender.

Imagen relacionada

Muchos, diciendo que “saben” buscan refugio en un galimatías matemático que pocas personas “normales” pueden entender a menos que sea uno de ellos, y, sin embargo, para apreciar realmente la solidez de la lógica de las leyes físicas, no se pueden evitar las matemáticas que es, el único lenguaje que pueden explicar aquello que no podemos decir con palabras. Desde siempre, he tratado de hablar de la Física como si de cualquier otra disciplina se tratara y, he procurado soslayar ecuaciones, teoremas y funciones modulares que aterran al lector no versado y, desde luego, no siempre he conseguido transmitir lo que quería decir.

Hacer un viaje al mundo de lo muy pequeño no resulta nada comprensible para nuestros sentidos que, acostumbrados a lo “pequeño” cotidiano, cuando se adentra en lo infinitesimal, allí, las cosas se comportan de manera muy distinta a la acostumbrada en nuestro mundo real.

Todos, cuando hemos sido pequeños, hemos tratado de imitar el mundo de los mayores con juguetes a escalas más pequeñas: cochecitos, un tren, grúas y camiones, piezas de madera en colores para construir figuras, piezas metálicas que nos daban la oportunidad de emplear la imaginación para construir mecanos y rústicos robots que sólo se movían con el impulso de nuestras manos, etc.

Resultado de imagen de El escritor Jonathan Swift nos dejó aquellas fantásticas historias de Gulliver

Leer más

¡Agujeros negros!

Autor por Emilio Silvera    ~    Archivo Clasificado en General    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

La desbocada voracidad de los agujeros negros

 

 

Observaciones de galaxias en el óptico, infrarrojo y rayos X (azul) y recreación de un agujero negro. NASA / CXC / Penn. State / G. Yang et al & NASA / CXC / ICE / M. Mezcua et al

El astrónomo Rafael Bachiller nos descubre en esta serie los fenómenos más espectaculares del Cosmos. Temas de palpitante investigación, aventuras astronómicas y novedades científicas sobre el Universo analizadas en profundidad.

Observaciones recientes con varios telescopios, entre ellos el espacial de rayos X Chandra, revelan que el crecimiento de los mayores agujeros negros del Universo es mucho más rápido que el de las galaxias en las que están situados.

 

En el centro de todas las galaxias

 

Se cree que prácticamente todas las galaxias albergan un gran agujero negro supermasivo en su centro. La masa de tales agujeros negros puede alcanzar millones o hasta miles de millones de veces la masa de nuestro Sol. Por ejemplo, el agujero negro en el centro de nuestra Vía Láctea, conocido como Sagitario A*, tiene una masa modesta de unos 4 millones de soles, mientras que el de nuestra galaxia vecina M87 alcanza los 6.000 millones de masas solares. Este último pertenece por tanto a la categoría de agujeros negros más masivos de los conocidos, los que a veces se denominan ‘ultramasivos’.

 

 

Esos agujeros negros van aumentando su masa (creciendo) según devoran el material interestelar que abunda en su entono de los centros galácticos. Durante años, los astrónomos vienen obteniendo datos tanto de la masa de estos agujeros negros supermasivos como de la masa estelar en las galaxias que los cobijan.

Hasta ahora todo parecía indicar que los agujeros negros crecían de una manera acompasada con las galaxias que los albergan. Sin embargo, dos estudios recientes y, lo que es muy importante, independientes, acaban de refutar esta suposición.

Más aprisa en las más masivas

 

Un equipo de investigadores liderado por Guang Yang, de la Penn State University (EEUU), ha calculado la tasa de crecimiento de los agujeros negros y la masa estelar para galaxias de diferentes masas, pero situadas todas ellas a distancias que van de 4,3 a 12,2 miles de millones de años luz. Este equipo ha concluido que, comparativamente, los agujeros negros crecen mucho más aprisa en las galaxias más masivas.

Para este estudio, Yang y colaboradores utilizaron el telescopio espacial Chandra de rayos X y el Hubble (ambos de NASA) y otros observatorios. En la imagen que encabeza este artículo, se muestra en azul los datos de Chandra superpuestos sobre una imagen óptica e infrarroja tomada por el Hubble. Cada fuente de rayos X observada por Chandra está producida por el gas caliente que está siendo devorado por un agujero negro en el centro de su galaxia anfitriona.

 

 

 

En las galaxias con unos 100.000 millones de estrellas (del tipo de la Vía Láctea) la razón entre las dos tasas de crecimiento (agujeros negros y estrellas) es 10 veces más alta que en galaxias de 10.000 millones de estrellas. Parece pues que los agujeros negros se alimentan más rápida y eficazmente en las galaxias muy masivas que en las menos masivas.

Ultramasivos

De manera completamente independiente, otro grupo de astrónomos liderado por Mar Mezcua, del Instituto de Ciencias del Espacio en Barcelona (CSIC), ha estudiado los agujeros negros en algunas de las galaxias más brillantes y masivas del Universo. En concreto, seleccionaron 72 de ellas ubicadas en el centro de cúmulos de galaxias que se encuentran a distancias en torno a 3.500 millones de años luz de la Tierra (más cercanas, por tanto, que la muestra de Yang).

Mezcua y colaboradores también utilizaron datos de rayos X procedentes de Chandra; pero además, realizaron observaciones en ondas de radio con algunos de los mayores interferómetros del planeta: el Australia Telescope Compact Array (ATCA), el Jansky Very Large Array (VLA) y el Long Baseline Observatory (LBO), estos dos últimos en Estados Unidos.

 

 

 

El equipo de Mar Mezcua estimó las masas de los agujeros negros empleando una relación (bien establecida) entre la masa de un agujero negro y las emisiones en radio y rayos X que lleva asociadas. Concluyeron así que las masas de los agujeros negros eran diez veces mayores que las estimadas con la suposición de que los agujeros negros y sus galaxias crecen a la vez.

Estos investigadores han estimado que el 40 % de los agujeros negros de su muestra poseen unas masas de al menos 10 mil millones de veces la masa del Sol, lo que los sitúa en esa categoría de masa extrema de agujeros negros ultramasivos.

Las razones de este crecimiento desbocado no están claras aún. Es posible que, como apunta Mezcua, los agujeros negros quizás empezasen antes la carrera para crecer, es decir, quizás se formaron antes que el resto de la galaxia en la que se encuentran inmersos o, quizás, tuvieron una ventaja en su velocidad de crecimiento que ha durado miles de millones de años. Como el principal alimento de estos agujeros negros es el gas interestelar, parece que ese gas podría estar preferentemente dispuesto en los centros galácticos ayudando así a tratar de saciar su voracidad.

Lo que queda claro, una vez más, es que los agujeros negros son objetos extraordinarios y que su comportamiento siempre supone un desafío para la imaginación, incluso para la de los astrónomos más imaginativos.

Los núcleos, la masa, la energía…¡La Luz!

Autor por Emilio Silvera    ~    Archivo Clasificado en General    ~    Comentarios Comments (30)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Hay veces en las que nos cuentan cosas y hechos de los que nunca hemos tenido noticias y, resultan del máximo interés. Nuestra curiosidad nos llama a desentrañar los misterios y secretos que, tanto a nuestro alrededor, como en las regiones más lejanas del Universo, puedan haber ocurrido, puedan estar sucediendo ahora, o, en el futuro pusidieran tener lugar, ya que, de alguna manera, todas ellas tienen que ver con nosotros que, de alguna manera, somos parte de la Naturaleza, del Universo y, lo que sucedió, lo que sucede y lo que sucederá… ¡Nos importa!

El saber ocupa un lugar en nuestras mentes

Resultado de imagen de Hasta cuando estará aquí la Humanidad

No podemos saber si la Humanidad como tal, estará aquí mucho tiempo más y, si con el tiempo y los cambios que se avecinan, nosotros los humanos, mutaremos hacia seres más completos y de mayor poder de adaptación al medio. Y, desde luego, nuestros descendientes, llegara un dia lejano en el futuro en el cual, habrán dejado la Tierra antes de que se convierta en Gigante Roja y calcine el Planeta y, habrán colonizado otros mundos. Para eso faltan mucho miles de millones de años. En la actualidad, solo estamos dando los inseguros primeros pasos por los alrededores de nuestro hogar, plantearnos ir mucho mas allá, es impensable. No tenemos ni la capacidad tecnológica ni la inteligencia necesaria para desarrollar los medios que se necesitan para poder desplazarnos a otros mundos lejanos que, posiblemente, estando situados en zona habitable como la misma Tierra, nos podrían dar el cobijo necesario para su colonización y hacer de ellos nuestros futuros hogares.

El futuro: Siempre será incierto

Pero, hablemos de Física

La partícula emitida por un núcleo radiactivo, por lo general lleva una considerable cantidad de energía. Y, ¿de dónde procede esa energía? Es el resultado de la conversión en energía de una pequeña parte del núcleo (E = mc2); en otras palabras, el núcleo siempre pierde un poco de masa en el acto de expeler la partícula.

Los físicos se vieron durante mucho tiempo turbados por el hecho de que, a menudo, la partícula beta emitida en una desintegración del núcleo no alberga energía suficiente para compensar la masa perdida por el núcleo. En realidad, los electrones no eran igualmente deficitarios. Emergían con un amplio espectro de energías, y el máximo (corregido por muy pocos electrones) era casi correcto, pero todos los demás no llegaban a alcanzarlo en mayor o menos grado. Las partículas alfa emitidas por un nucleido particular poseían iguales energías en cantidades inesperadas. En ese caso, ¿qué era erróneo en la emisión de partículas beta?, ¿qué había sucedido con la energía perdida?

En 1.922, Lise Maitner se hizo por primera vez esta pregunta, y hacia 1.936 Niels Bohr estaba dispuesto a abandonar el gran principio de conservación de la energía, al menos en lo concerniente a partículas subatómicas. En 1.931 Wolfgang Pauli sugirió una solución para el enigma de la energía desaparecida. Tal solución era muy simple: junto con la partícula beta del núcleo se desprendía otra, que se llevaba la energía desaparecida. Esa misteriosa segunda partícula tenía propiedades bastante extrañas; no poseía carga ni masa. Lo único que llevaba mientras se movía a la velocidad de la luz era cierta cantidad de energía. A decir verdad, aquello parecía un cuerpo ficticio creado exclusivamente para equilibrar el contraste de energías.

Habitualmente aceptamos que la física es la ciencia que estudia la estructura y propiedades de la materia y la energía, las formas de existencia de las mismas en el espacio y el tiempo, así como las leyes de rigen sus interacciones. En este definición no hay limitaciones precisas entre la naturaleza viviente e inanimada, y aunque ello no implica la reducción de todas las ciencias a la física, se deduce que las bases teóricas finales de cualquier dominio de las ciencias naturales tienen una naturaleza física.

Pero, sigamos…

Sin embargo, tan pronto como se propuso la posibilidad de su existencia, los físicos creyeron en ella ciegamente. Y esta certeza se incrementó al descubrirse el neutrón y al saberse que se desintegraba en un protón y liberaba un electrón que, como en la decadencia beta, portaba insuficientes cantidades de energía. Enrico Fermi dio a esta partícula putativa el nombre de neutrino, palabra italiana que significa “pequeño neutro”.

El neutrón dio a los físicos otra prueba palpable de la existencia del neutrino. Como ya he comentado en otra página de este trabajo, casi todas las partículas describen un movimiento rotatorio. Esta rotación se expresa, más o menos, en múltiplos de una mitad, según la dirección del giro. Ahora bien, el protón, el neutrón y el electrón tienen rotación de una mitad. Por tanto, si el neutrón con rotación de una mitad origina un protón y un electrón, cada uno con rotación de una mitad, ¿qué sucede con la ley sobre conservación del momento angular? Aquí hay algún error. El protón y el electrón totalizan una mitad con sus rotaciones (si ambas rotaciones siguen la misma dirección) o cero (si sus rotaciones son opuestas); pero sus rotaciones no pueden sumar jamás una mitad. Sin embargo, por otra parte, el neutrino viene a solventar la cuestión. Supongamos que la rotación del neutrón sea +½, y admitamos también que la rotación del protón sea +½ y la del electrón -½, para dar un resultado neto de cero. Demos ahora al neutrino una rotación de +½ y la balanza quedará desequilibrada.

+½ (n) = +½ (p) – ½ (e) + ½ (neutrino)

                                                                   Detectando Neutrinos

En otras palabras, la existencia de neutrinos y antineutrinos debería salvar no una, sino tres, importantes leyes de conservación: la conservación de la energía, la de conservación del espín y la de conservación de partícula/antipartícula.

Pero aún queda algo por desequilibrar. Una sola partícula (el neutrón) ha formado dos partículas (el protón y el electrón), y si incluimos el neutrino, tres partículas. Parece más razonable suponer que el neutrón se convierte en dos partículas y una antipartícula. En otras palabras: lo que realmente necesitamos equilibrar no es un neutrino, sino un antineutrino.

El propio neutrino surgiría de la conversión de un protón en un neutrón. Así pues, los productos serían un neutrón (partícula), un positrón (antipartícula) y un neutrino (partícula). Esto también equilibra la balanza.

La Vía Láctea sobre Mauna Kea

      Impresionante vista de la Vía Láctea desde el Manua Kea. La Galaxia, el Universo…Todo es energía.

Es importante conservar esas leyes puesto que parece estar presentes en toda clase de relaciones nucleares que no impliques electrones o positrones, y sería muy útil si también se hallasen presentes en reacciones que incluyesen esas partículas. Las más importantes conversiones protón-neutrón son las relacionadas con las reacciones nucleares que se desarrollan en el Sol y en los astros. Por consiguiente, las estrellas emiten radiaciones rápidas de neutrinos, y se calcula que tal vez pierdan a causa de esto el 6 u 8% de su energía. Pero eso sería meternos en otra historia y, por mi parte, con la anterior explicación sólo trataba de dar una muestra del ingenio del hombre que, como habréis visto, no es poco.

Desde que puedo recordar, he sido un amante de la física. Me asombran cuestiones como la luz, su naturaleza de un conglomerado de colores, ondas y partículas, su velocidad que nos marca el límite del máximo que podemos correr en nuestro universo, y en fin, muchos otros misterios que encierra esa cosa tan cotidiana que nos rodea y lo inunda todo haciendo posible que podamos ver por donde vamos, que las plantas vivan y emitan oxígeno o que nos calentemos. Realmente, sin luz, nuestra vida no sería posible. Entonces, ¿qué es realmente la luz?

Muchos (casi todos) opinan que es algo inmaterial. Los objetos materiales grandes o muy pequeños como las galaxias o los electrones, son materia. La luz, sin embargo, se cree que es inmaterial; dos rayos de luz se cruzan sin afectarse el uno al otro. Sin embargo, yo creo que la luz es simplemente una forma de energía lumínica, una más de las diversas formas en las que puede presentarse la materia. Nosotros mismos, en última instancia, somos luz.

Está claro que los estudiosos de la época antigua y medieval estaban por completo a oscuras acerca de la naturaleza de la luz. Especulaban sobre que consistía en partículas emitidas por objetos relucientes o tal vez por el mismo ojo. Establecieron el hecho de que la luz viajaba en línea recta, que se reflejaba en un espejo con un ángulo igual a aquel con el que el rayo choca con el espejo, y que un rayo de luz se inclina (se refracta) cuando pasa del aire al cristal, al agua o a cualquier otra sustancia transparente.

Cuando la luz entra en un cristal o en alguna sustancia transparente, de una forma oblicua (es decir, en un ángulo respecto de la vertical), siempre se refracta en una dirección que forma un ángulo menor respecto de la vertical. La exacta relación entre el ángulo original y el ángulo reflejado fue elaborada por primera vez en 1.621 por el físico neerlandés Willerbrord Snell. No publicó sus hallazgos y el filósofo francés René Descartes descubrió la ley, independientemente, en 1.637.

¿Nos suplirán un día? Seguro que en el futuro, serán otros los que hagan experimentos con la luz y busquen su verdadera naturaleza.

Los primeros experimentos importantes acerca de la naturaleza de la luz fueron llevados a cabo por Isaac Newton en 1.666, al permitir que un rayo de luz entrase en una habitación oscura a través de una grieta de las persianas, cayendo oblicuamente sobre una cara de un prisma de cristal triangular. El rayo se refracta cuando entra en el cristal y se refracta aún más en la misma dirección cuando sale por una segunda cara del prisma (las dos refracciones en la misma dirección se originan porque los lados del prisma se encuentran en ángulo en vez de en forma paralela, como sería el caso de una lámina ordinaria de cristal).

Newton dedujo que la luz blanca corriente era una mezcla de varias luces que excitaban por separado nuestros ojos para producir las diversas sensaciones de colores. La amplia banda de sus componentes se denominó spectrum (palabra latina que significa “espectro” fantasma).

Newton atrapó el rayo emergente sobre una pantalla blanca para ver el efecto de la refracción reforzada. Descubrió que, en vez de formar una mancha de luz blanca, el rayo se extendía en una gama de colores: rojo, anaranjado, amarillo verde, azul y violeta, en este orden. Newton dedujo de ello que la luz blanca corriente era una mezcla de varias luces que excitaban por separado nuestros ojos para producir las diversas sensaciones de colores. La amplia banda de sus componentes se denominó spectrum (palabra latina que significa espectro o fantasma). Newton llegó a la conclusión de que la luz se componía de diminutas partículas (“corpúsculos”), que viajaban a enormes velocidades. Le surgieron y se planteó algunas inquietantes cuestiones: ¿por qué se refractaban las partículas de luz verde más que las de luz amarilla? ¿Cómo se explicaba que dos rayos de luz se cruzaran sin perturbarse mutuamente, es decir, sin que se produjeran colisiones entre partículas?

Christiaan Huygens-painting.jpeg

Christiaan Huygens por Caspar Netscher(1671).

En 1.678, el físico neerlandés Christian Huyghens (un científico polifacético que había construido el primer reloj de péndulo y realizado importantes trabajos astronómicos) propuso una teoría opuesta: la de que la luz se componía de minúsculas ondas. Y si sus componentes fueran ondas, no sería difícil explicar las diversas difracciones de los diferentes tipos de luz a través de un medio refractante, siempre y cuando se aceptara que la luz se movía más despacio en ese medio refractante que en el aire. La cantidad de refracción variaría con la longitud de las ondas: cuanto más corta fuese tal longitud, tanto mayor sería la refracción. Ello significaba que la luz violeta (la más sensible a este fenómeno) debía de tener una longitud de onda más corta que la luz azul; ésta, más corta que la verde, y así sucesivamente.

Lo que permitía al ojo distinguir los colores eran esas diferencias entre longitudes de onda. Y como es natural, si la luz estaba integrada por ondas, dos rayos podrían cruzarse sin dificultad alguna (las ondas sonoras y las del agua se cruzan continuamente sin perder sus respectivas identidades).

Pero la teoría de Huyghens sobre las ondas tampoco fue muy satisfactoria. No explicaba por qué se movían en línea recta los rayos luminosos, ni por qué proyectaban sombras recortadas, ni aclaraba por qué las ondas luminosas no podían rodear los obstáculos, del mismo modo que pueden hacerlo las ondas sonoras y de agua. Por añadidura, se objetaba que si la luz consistía en ondas, ¿cómo podía viajar por el vacío, ya que cruzaba el espacio desde el Sol y las estrellas? ¿Cuál era esa mecánica ondulatoria?

Con el éxito de Newton de su ley de la Gravitación Universal, no es extraño que afirmara de forma tajante que la luz es corpuscular. Newton se opuso violentamente a la naturaleza ondulatoria de la luz, ya que no veía cómo se podía explicar con ella la propagación rectilínea de la misma. Por otro lado estaba Christian Huygens, 13 años mayor que Newton que defendía la naturaleza ondulatoria con algunas ventajas.

 

 

Ambas teorías explicaban perfectamente la reflexión y refracción de la luz. Pero diferían en una cosa. La teoría corpuscular afirmaba que las partículas de luz se acelerarían al pasar por un material de mayor densidad óptica y las ondas a menor. Esto no era comprobable por aquella época. Debido a la influencia de Newton y a la poca habilidad de Huygens para desarrollarla matemáticamente, la teoría ondulatoria quedó descartada durante un siglo.

 

 

Aproximadamente durante un siglo, contendieron entre sí estas teorías. La teoría corpuscular de Newton fue, con mucho, la más popular, en parte porque la respaldó el famoso nombre de su autor. Pero hacia 1.801, un físico y médico inglés, de nombre Thomas Young, llevó a cabo un experimento que arrastró la opinión pública al campo opuesto. Proyectó un fino rayo luminoso sobre una pantalla, haciéndolo pasar antes por dos orificios casi juntos; si la luz estuviera compuesta por partículas, cuando los dos rayos emergieran de ambos orificios, formarían presuntamente en la pantalla una región más luminosa donde se superpusieran, y regiones menos brillantes, donde no se diera tal superposición. La pantalla mostró una serie de bandas luminosas, separadas entre sí por bandas oscuras; pareció incluso que en esos intervalos de sombra, la luz de ambos rayos contribuía a intensificar la oscuridad.

Sería fácil explicarlo mediante la teoría ondulatoria; la banda luminosa representaba el refuerzo prestado por las ondas de un rayo a las ondas del otro, dicho de otra manera, entraban “en fase” dos trenes de ondas, es decir, ambos nodos, al unirse, se fortalecían el uno al otro. Por otra parte, las bandas oscuras representaban puntos en los que las ondas estaban “desfasadas” porque el vientre de una neutralizaba el nodo de la otra. En vez de aunar sus fuerzas, las ondas se interferían mutuamente, reduciendo la energía luminosa neta a las proximidades del punto cero.

Considerando la anchura de las bandas y la distancia entre los dos orificios por lo que surgen ambos rayos, se pudo calcular la longitud de las ondas luminosas, por ejemplo, de la luz roja a la violeta o de los colores intermedios. Las longitudes de onda resultaron ser muy pequeñas. Así, la de la luz roja era de unos 0’000075 cm. Hoy se expresan las longitudes de las ondas luminosas mediante una unidad muy práctica ideada por Ángstrom; esta unidad, denominada igualmente Ángstrom (Å) en honor a su autor, es la cienmillonésima parte de un centímetro. Así pues, la longitud de onda de la luz roja equivale más o menos a 7.500 Å, y la de la luz violeta a 3.900 Å, mientras que las de colores visibles en el espectro oscilan entre ambas cifras.

La cortedad de estas ondas es muy importante. La razón de que las ondas luminosas se desplacen en línea recta y proyecten sombras recortadas se debe a que todas son incomparablemente más pequeñas que cualquier objeto; pueden contornear un obstáculo sólo si este no es mucho mayor que la longitud de onda. Hasta las bacterias, por ejemplo, tienen un volumen muy superior al de una onda luminosa, y por tanto, la luz puede definir claramente sus contornos bajo el microscopio. Sólo los objetos cuyas dimensiones se asemejan a la longitud de onda luminosa (por ejemplo, los virus y otras partículas subatómicas) son lo suficientemente pequeños como para que puedan ser contorneados por las ondas luminosas.

Resultado de imagen de físico francés, Augustin-Jean Fresnel

Un físico francés, Agustin-Jean Fresnel, fue quien demostró por vez primera en 1.818 que si un objeto es lo suficientemente pequeño, la onda luminosa lo contorneará sin dificultad. En tal caso, la luz determina el llamado fenómeno de “difracción”. Por ejemplo, las finísimas líneas paralelas de una “reja de difracción” actúan como una serie de minúsculos obstáculos, que se refuerzan entre sí. Puesto que la magnitud de la difracción va asociada a la longitud de onda, se produce el espectro. A la inversa, se puede calcular la longitud de onda midiendo la difracción de cualquier color o porción del espectro, así como la separación de las marcas sobre el cristal.

La mano del Universo juguetea con unos puntos luminosos que quieren llegar a ser cegadores…Son nuestras Mentes, productos de la evolución del Universo que, a partir de la materia inerte, ha podido alcanzar el estadio bio-químico de la consciencia y, al ser conscientes, hemos podido descubrir que existen “números misteriosos” dentro de los cuales subyacen mensajes que tenemos que desvelar.

Fraunhofer exploró dicha reja de difracción con objeto de averiguar sus finalidades prácticas, progreso que suele olvidarse, pues queda eclipsado por su descubrimiento más famoso, los rayos espectrales. El físico americano Henry Augustus Rowland ideó la reja cóncava y desarrolló técnicas para regularlas de acuerdo con 20.000 líneas por pulgada. Ello hizo posible la sustitución del prisma por el espectroscópio.

Ante tales hallazgos experimentales, más el desarrollo metódico y matemático del movimiento ondulatorio, debido a Fresnel, pareció que la teoría ondulatoria de la luz había arraigado definitivamente, desplazando y relegando para siempre a la teoría corpuscular.

No sólo se aceptó la existencia de ondas luminosas, sino que también se midió su longitud con una precisión cada vez mayor. Hacia 1.827, el físico francés Jacques Babinet sugirió que se empleara la longitud de onda luminosa (una cantidad física inalcanzable) como unidad para medir tales longitudes, en vez de las muy diversas unidades ideadas y empleadas por el hombre. Sin embargo, tal sugerencia no se llevó a la práctica hasta 1.880 cuando el físico germano-americano Albert Abraham Michelson inventó un instrumento denominado “interferómetro”, que podía medir las longitudes de ondas luminosas con una exactitud sin precedentes. En 1.893, Michelson midió la onda de la raya roja en el espectro del cadmio y determinó que su longitud era de 1/1.553.164 m.

Archivo:Krypton discharge tube.jpg

                                                            Tubo de descarga lleno de kriptón puro


Pero la incertidumbre reapareció al descubrirse que los elementos estaban compuestos por isótopos diferentes, cada uno de los cuales aportaba una raya cuya longitud de inda difería ligeramente de las restantes. En la década de 1.930 se midieron las rayas del criptón 86. Como quiera que este isótopo fuera gaseoso, se podía abordar con bajas temperaturas, para frenar el movimiento atómico y reducir el consecutivo engrosamiento de la raya.

En 1.960, el Comité Internacional de Pesos y Medidas adoptó la raya del criptón 86 como unidad fundamental de la longitud. Entonces se reestableció la longitud del metro como 1.650.763’73 veces la longitud de onda de dicha raya espectral. Ello aumentó mil veces la precisión de las medidas de longitud. Hasta entonces se había medido el antiguo metro patrón con un margen de error equivalente a una millonésima, mientras que en lo sucesivo se pudo medir la longitud de onda con un margen de error equivalente a una milmillonésima.

emilio silvera

Nuestro lugar en el Universo…¿cuál será?

Autor por Emilio Silvera    ~    Archivo Clasificado en General    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 
[proyeccion_estereografica.GIF]
Las coincidencias deben ser vigiladas y, cuando se dan, buscar el origen de las mismas nos puede llevar a desvelar secretos profundamente escondidos en la Naturaleza. Ya hemos hablado aquí alguna vez de la coincidencia de Grandes Números entre Constantes de la Naturaleza y lo que de ello opinaba aquel personaje extraño que, lo mismo se sentía cómodo como matemático, como físico experimental, como destilador de datos astronómicos complicados o como diseñador de sofisticados instrumentos de medida.
Resultado de imagen de Robert Dicke y su imagen

 

Robert Dicke era su nombre y tenía los intereses científicos más amplios y diversos que imaginarse pueda, el decía que al final del camino todos los conocimientos convergen en un solo punto, el saber. No nos damos cuenta de ello pero, al final del camino, todos los conocimientos convergen y están relacionados de alguna extraña manera.

 

 

 

 

Como pregona la filosofía, nada es como se ve a primera vista, todo depende del punto de vista desde el que miremos las cosas, o,  de la perspectiva que podamos tener de ellas conforme a las herramientas que tengamos a nuestra disposición, incluida la intelectual. Nosotros, que estudiamos el Universo y no lo sabemos todo de él, ya pensamos en la posible existencia de otros universos.

Si es que existen, ¿cómo serían esos otros universos? ¿dejarían un margen para alguna forma de vida? y, de ser así, ¿cómo serían?

 

“Lo primero que hay que comprender sobre los universos paralelos… es que no son paralelos. Es importante comprender que ni siquiera son, estrictamente hablando, universos, pero es más fácil si uno lo intenta y lo comprende un poco más tarde, después de haber comprendido que todo lo que ha comprendido hasta ese momento no es verdadero.”

Douglas Adams

Dirac 3.jpg

El físico inglés Paul Dirac fue uno de los más decisivos del siglo pasado, con aportaciones determinantes para el desarrollo de la mecánica cuántica, la teoría que nos ilustra sobre la naturaleza de los átomos. En cuanto al tema que nos ocupa, Dirac concluyó que la aparición del “10 elevado a 40” en distintos sitios no podía ser fortuita, tenía que haber algo que conectara de manera profunda los diversos cálculos que lo originaban.

Antes en la entrada que más arriba tenéis (“Observar la Naturaleza… da resultados”), comentaba sobre los grandes números de Dirac y lo que el personaje llamado Dicke pensaba de todo ello y, cómo dedujo que para que pudiera aparecer la biología de la vida en el Universo, había sido necesario que el tiempo de vida de las estrellas fuese el que hemos podido comprobar que es y que, el Universo, también tiene que tener, no ya las condiciones que posee, sino también, la edad que le hemos estimado.

 

 

 

Para terminar de repasar la forma de tratar las coincidencias de los Grandes Números por parte de Dicke, sería interesante ojear restrospectivamente un tipo de argumento muy similar propuesto por otro personaje, Alfred Wallace en 1903. Wallace era un gran científico que, como les ha pasado a muchos, hoy recibe menos reconocimiento del que se merece.

 

 

Resultado de imagen de Alfred Wallace

 

 

Al principio compartieron la gloria pero, más tarde, Wallace fue olvidado injustamente

 

Fue él, antes que Charles Darwin, quien primero tuvo la idea de que los organismos vivos evolucionan por un proceso de selección natural. Afortunadamente para Darwin, quien, independientemente de Wallace, había estado reflexionando profundamente y reuniendo pruebas en apoyo de esta idea durante mucho tiempo, Wallace le escribió para contarle sus ideas en lugar de publicarlas directamente en la literatura científica. Pese a todo, hoy “la biología evolucionista” se centra casi porm completo en las contribuciones de Darwin.

Wallace tenía intereses muchos más amplios que Darwin y estaba interesado en muchas áreas de la física, la astronomía y las ciencias de la Tierra. En 1903 publicó un amplio estudio de los factores que hace de la Tierra un lugar habitable y pasó a explorar las conclusiones filosóficas que podrían extraerse del estado del Universo. Su libro llevaba el altisonante título de El lugar del hombre en el Universo.

 

 

 

Wallace, Alfred Russell (1823-1913), naturalista británico conocido por el desarrollo de una teoría de la evolución basada en la selección natural. Nació en la ciudad de Monmouth (hoy Gwent) y fue contemporáneo del naturalista Charles Darwin. En 1848 realizó una expedición al río Amazonas con el también naturalista de origen británico Henry Walter Bates y, desde 1854 hasta 1862, dirigió la investigación en las islas de Malasia. Durante esta última expedición observó las diferencias zoológicas fundamentales entre las especies de animales de Asia y las de Australia y estableció la línea divisoria zoológica -conocida como línea de Wallace- entre las islas malayas de Borneo y Célebes. Durante la investigación Wallace formuló su teoría de la selección natural. Cuando en 1858 comunicó sus ideas a Darwin, se dio la sorprendente coincidencia de que este último tenía manuscrita su propia teoría de la evolución, similar a la del primero. En julio de ese mismo año se divulgaron unos extractos de los manuscritos de ambos científicos en una publicación conjunta, en la que la contribución de Wallace se titulaba: “Sobre la tendencia de las diversidades a alejarse indefinidamente del tipo original”. Su obra incluye El archipiélago Malayo (1869), Contribuciones a la teoría de la selección natural (1870), La distribución geográfica de los animales (1876) y El lugar del hombre en el Universo (1903).

 

 

 

 

 

 

Pero sigamos con nuestro trabajo de hoy. Todo esto era antes del descubrimiento de las teorías de la relatividad, la energía nuclear y el Universo en expansión.  La mayoría de los astrónomos del siglo XIX concebían el Universo como una única isla de materia, que ahora llamaríamos nuestra Vía Láctea. No se había establecido que existieran otras galaxias o cuál era la escala global del Universo. Sólo estaba claro que era grande.

Wallace estaba impresionado por el sencillo modelo cosmológico que lord Kelvin había desarrollado utilizando la ley de gravitación de Newton. Mostraba que si tomábamos una bola muy grande de materia, la acción de la gravedad haría que todo se precipitara hacia su centro. La única manera de evitar ser atraído hacia el centro era describir una órbita alrededor. El universo de Kelvin contenía unos mil millones de estrellas como el Sol para que sus fuerzas gravitatorias contrapesaran los movimientos a las velocidades observadas.

 

 

William Thomson (Lord Kelvin)

En el año 1901, Lord Kelvin solucionó cualitativa y cuantitativamente de manera correcta el enigma de la oscuridad de la noche en el caso de un universo transparente, uniforme y estático. Postulando un universo lleno uniformemente de estrellas similares al Sol y suponiendo su extensión finita (Universo estoico), mostró que, aun si las estrellas no se ocultan mutuamente, su contribución a la luminosidad total era finita y muy débil frente a la luminosidad del Sol. El demostró también que la edad finita de las estrellas prohibió la visibilidad de las estrellas lejanas en el caso de un espacio epicúreo infinito o estoico de gran extensión, lo que contestó correctamente al enigma de la oscuridad.

Ahora sabemos que estrellas como el Sol y planetas como la Tierra, sólo en nuestra Galaxia, los hay a decenas de miles de millones. Y, si eso es así… ¡No somos nada especial ni el centro de nada! Por otra parte, somos conscientes de que la extinción de las especies también es algo natural en la dinámica del Universo.

Lo intrigante de la discusión de Wallace sobre este modelo del Universo es que adopta una actitud no copernicana porque ve cómo algunos lugares del Universo son más propicios a la presencia de vida que otros. Como resultado, sólo cabe esperar que nosotros estemos cerca, pero no en el centro de las cosas.

Wallace da un argumento parecido al de Dicke para explicar la gran edad de cualquier universo observado por seres humanos. Por supuesto, en la época de Wallace, mucho antes del descubrimiento de las fuentes de energía nuclear, nadie sabía como se alimentaba el Sol, Kelvin había argumentando a favor de la energía gravitatoria, pero ésta no podía cumplir la tarea.

En la cosmología de Kelvin la Gravedad atraía material hacia las regiones centrales donde estaba situada la Vía Láctea y este material caería en las estrellas que ya estaban allí, generando calor y manteniendo su potencia luminosa durante enormes períodos de tiempo. Aquí Wallace ve una sencilla razón para explicar el vasto tamaño del Universo.

“Entonces, pienso yo que aquí hemos encontrado una explicación adecuada de la capacidad de emisión continuada de calor y luz por parte de nuestro Sol, y probablemente por muchos otros aproximadamente en la misma posición dentro del cúmulo solar. Esto haría que al principio se agregasen poco a poco masas considerables a partir de la materia difusa  en lentos movimientos en las porciones centrales del universo original; pero en un período posterior serían reforzadas por una caída de materia constante y continua desde sus regiones exteriores a velocidades tan altas como para producir y mantener la temperatura requerida de un sol como el nuestro, durante los largos períodos exigidos para el continuo desarrollo de la vida.”

Vallace ve claramente la conexión entre estas inusuales características globales del Universo y las consiciones necesarias para que la vida evolucione y prospere en un planeta como el nuestro alumbrado por una estrella como nuestro Sol. Wallace completaba su visión y análisis de las condiciones cósmicas necesarias para la evolución de la vida dirigiendo su atención a la geología  y la historia de la Tierra. Aquó ve una situación mucho más complicada que la que existe en astronomía. Aprecia el cúmulo de accidentes históricos marcados por la vía evolutiva que ha llegado hasta nosotros, y cree “improbable en grado máximo” que el conjunto completo de características propicias para la evolución de la vida se encuentre en otros lugares. Esto le lleva a especular que el enorme tamaño del Universo podría ser necesario para dar a la vida una oportunidad razonable de desarrollarse en sólo un planeta, como el nuestro, independientemente de cuan propicio pudiera ser su entorno local:

“Un Universo tan vasto y complejo como el que sabemos que existe a nuestro alrededor, quizá haya sido absolutamente necesario … para producir un mundo que se adaptase de forma precisa en todo detalle al desarrollo ordenado de la vida que culmina en el hombre.”

cluster-galaxias

Hoy podríamos hacernos eco de ese sentimiento de Wallace. El gran tamaño del Universo observable, con sus 1080 átomos, permite un enorme número de lugares donde puedan tener lugar las variaciones estadísticas de combinaciones químicas que posibilitan la presencia de vida. Wallace dejaba volar su imaginación que unía a la lógica y, en su tiempo, no se conocían las leyes fundamentales del Universo, que exceptuando la Gravedad de Newton, eran totalmente desconocidas. Así, hoy jugamos con la ventaja de saber que, otros muchos mundos, al igual que la Tierra, pueden albergar la vida gracias a una dinámica igual que es la que, el ritmo del Universo, hace regir en todas sus regiones. No existen lugares privilegiados.

emilio silvera