¿Cómo sabemos las cosas que pensamos que sabemos? Dependiendo de la píldora que tomemos o podamos escoger, así será el rumbo que tomen nuestras vidas (entendiendo por píldora las enseñanzas y experiencias que cada cual pueda tener).
¿A qué se refieren los científicos cuando dicen que ellos “conocen” lo que hay dentro del un átomo, por ejemplo, o lo que pasó en los tres primeros minutos de vida del Universo?
Se refieren a que tienen lo que ellos denominan un modelo del átomo, o del universo temprano, o lo que sea en que ellos estén interesados, y que este modelo encaja con el resultado de sus experimentos, o sus observaciones del mundo. Este tipo de modelo científico no es una representación física de la cosa real, del mismo modo que un modelo de avión representa un avión de tamaño natural, sino que es una imagen mental que se describe mediante un grupo de ecuaciones matemáticas.
Los átomos y las moléculas que componen el aire que respiramos, por ejemplo, se pueden describir en términos de un modelo en el que imaginamos cada partícula como si fuera una pequeña esfera perfectamente elástica (una diminuta bola de billar), con todas las pequeñas esferas rebotando unas contra las otras y contra las paredes del recipiente.
Ésa es la imagen mental, pero es sólo la mitad del modelo; lo que lo hace un modelo científico es describir el modo como se mueven las esferas y rebotan unas contra otras mediante un grupo de leyes físicas, escritas en términos de ecuaciones matemáticas. En este caso, estas son esencialmente las leyes del movimiento descubiertas por Isaac Newton hacen más de 300 años.
Utilizando estas leyes matemáticas es posible predecir, por ejemplo, qué le pasará a la presión ejercida por un gas si se aplasta hasta la mitad de su volumen inicial. Si hacemos el experimento, el resultado que se obtiene encaja con la predicción del Modelo (en este caso la presión se doblará), lo que lo convierte en un buen modelo.
¿Cuáles son las diferencias entre un gas y un líquido o un sólido? Sabemos por experiencia que, si no se comprimen, los líquidos y los sólidos tienen volumen definido. Incluso si sus formas cambian, todavía ocupan la misma cantidad de espacio. Un gas, por otra parte, se expandirá espontáneamente para llenar cualquier recipiente (como una habitación). Si no está confinado, saldrá y se extenderá en todas direcciones
Naturalmente, no deberíamos sorprendernos de que el modelo estándar de un gas que lo describe en términos de pequeñas bolas que rebotan unas contra otras de acuerdo con las leyes de Newton haga esta predicción en concreto correcta, porque los experimentos fueron hechos primero, y el modelo fue diseñado o construido, para hacer encajar los resultados de esos experimentos.
El siguiente paso en el proceso científico es utilizar el modelo que se ha desarrollado desde las medidas efectuadas en un grupo de experimentos para hacer predicciones (predicciones precisas, matemáticas) sobre lo que le pasará al mismo sistema cuando se hacen experimentos diferentes. Si el modelo hacer predicciones “correctas” bajo nuevas circunstancias, demuestra que es un buen modelo; si fracasa al hacer las predicciones correctas, no se puede descartas completamente, porque todavía nos dice algo útil sobre los primeros experimentos; pero en el mejor de los casos tiene una aplicabilidad limitada.
De hecho, todos los modelos científicos tienen aplicabilidad limitada. Ninguno de ellos es “la verdad”. El modelo de un átomo como una pequeña esfera perfectamente elástica funciona bien en cálculos de cambio de presión de un gas bajo circunstancias diferentes, pero si queremos describir el modo en que el átomo emite o absorbe luz, necesitamos un modelo de átomo que al menos tenga dos componentes, un núcleo central diminuto (que se puede considerar él mismo como una pequeña esfera perfectamente elástica para determinados fines) rodeado por una nube de electrones.
Los modelos científicos son representaciones de la realidad, no la realidad en sí misma, y no importa lo bien que funcionen o lo precisas que sean sus predicciones bajo circunstancias apropiadas, siempre se considerarán aproximaciones y ayudas a la imaginación, más que la verdad absoluta. Cuando un científico afirma, por ejemplo, que el núcleo de un átomo está compuesto por partículas denominadas protones y neutrones (nucleones) lo que en realidad debería decir es que el núcleo de un átomo se comporta, bajo determinadas circunstancias, como si estuviera formado de protones y neutrones. Los mejores científicos toman el “como si” como se lee, pero entienden que sus modelos son, efectivamente, sólo modelos; científicos menores a menudo olvidan esta diferencia crucial.
Los científicos menos y muchos no-científicos, tienen otra idea equivocada. A menudo piensan que el papel de los científicos hoy en día es llevar a cabo experimentos que probarán la exactitud de un modelo con una precisión cada vez mayor –hacia posiciones con más y más decimales- ¡En absoluto! La razón para llevar a cabo experimentos que demuestren predicciones previas no comprobadas es descubrir (como decía Feynman) donde fallan los modelos.
Encontrar defectos en sus modelos es la esperanza abrigada por los mejores científicos, porque esos defectos –cosas que los modelos no pueden predecir o explicar en detalle- destacarán los lugares donde necesitamos una nueva comprensión, con modelos mejores, para progresar…
El arquetipo ejemplo de esto es la Gravedad. La ley de la gravedad de Newton se consideró la pieza clave de la física durante más de doscientos años, desde la década de 1680 hasta comienzos del siglo XX. Pero había unas pocas, aparentemente insignificantes, cosas que el modelo newtoniano no podía explicar (o predecir), referente a la órbita del planeta Mercurio y al modo como la luz se curva cuando pasa cerca del Sol.
La teoría de la gravedad de Einstein se cumple en condiciones extremas
“La teoría de la gravedad de Albert Einstein ha sido verificada en condiciones extremas: tres estrellas que orbitan entre sí en un “laboratorio” natural a unos 4.200 años luz de la Tierra. Los hallazgos de un equipo liderado por investigadores de la Universidad de Amsterdam y el Instituto Holandés de Radio Astronomía (ASTRON), se publican este jueves en Nature.
Su sujeto de prueba es un sistema de estrella triple llamado PSR J0337 + 1715, que consiste en una estrella de neutro …”
El modelo de la Gravedad de Einstein, basado en su teoría general de la relatividad, explica lo mismo que el modelo de Newton, pero también explica los detalles sutiles de órbitas planetarias y curvatura de la luz. En ese sentido, es un modelo mejor y más completo que el anterior, y hace predicciones correctas (en particular, sobre el Universo en general) que el viejo modelo no hace. Pero el modelo de Newton todavía es todo lo que se necesita si se está calculando el vuelo de una sonda espacial desde la Tierra hasta la Luna. Se podrían hacer los mismos cálculos empleando la relatividad general, pero sería más tedioso por su complejidad y daría la misma respuesta, así que, en muchos casos donde no existe la complejidad, se utiliza el modelo más sencillo de Newton.
Así que, amigos, los modelos (todos los modelos) han sido y serán buenos en su momento y, también, como ocurrió con el de la Gravedad, vendrán otros nuevos que los superarán y servirán mejor y de manera más profunda en el conocimiento de las cosas que traten, llegando así un poco más lejos en nuestros conocimientos sobre la Naturaleza, ya que, a medida que observamos el Universo, nuestras mentes se abren al saber del mundo que nos rodea y cada vez, podemos comprender mejor lo que realmente ocurre en él.
Nuestras percepciones del Universo son, la mayoría de las veces, equivocadas, y nos formamos una idea de lo que allí está o de lo que allí ocurre que, en la realidad, es otra muy diferente. Y, eso, es así debido a que nuestros conocimientos son muy limitados sobre las cosas, y, está aconsejado por ideas preconcebidas que, muchas veces, entorpece la comprensión de esa realidad que incansables buscamos.
Cuando se consiguen describir de manera exitosa las cosas que ocurren en la Naturaleza, como es el caso de la Relatividad, tanto especial como General, a los físicos, les encanta definirlos como “modelo estándar”. El modelo de los gases de las bolas de billar (que también es conocido como teoría cinética, ya que trata de partículas en movimiento) es un modelo estándar. Pero cuando los físicos hablan de “el modelo estándar”, se están refiriendo a uno de los grandes triunfos de la ciencia del siglo XX.
La distribución de los electrones alrededor del núcleo obedece a una serie de reglas que se traducen en un modelo matemático que reconoce 4 números
Así ocurre con los modelos que describen la Mecánica Cuántica y la Relatividad, son Modelos Hitos en la Historia de la Ciencia de la Humanidad. Ambos modelos han sido explicado aquí, en mis comentarios muchas veces y, además, no es este el motivo del presente trabajo que, se circunscribe a explicar lo que es un modelo científico y como funciona, al mismo tiempo de cómo se valora su validez que, en realidad, nunca será definitiva, que es lo que ocurre con nuestros conocimientos.
Así que, dicho todo lo anterior, podemos llegar a una conclusión que estaría bien y nos acercaría a la realidad: Lo que sabemos es lo que creemos saber del mundo que nos rodea, y, no es, de ninguna manera, lo que deberíamos saber si nos estamos refiriendo a la realidad de lo que es el Universo y de lo que su Naturaleza finalmente significa y nos quiere decir, para llegar a ese final de comprensión, se necesitarán muchos modelos que se irán desechando por otros que vendrán, y, de esa manera, la Humanidad se acercará a esa realidad que tanto persigue.
Adentrarse en el universo de las partículas que componen los elementos de la Tabla Periódica, y en definitiva, la materia conocida, es verdaderamente fantástico”. Esos pequeños objetos que no podemos ver, de dimensiones infinitesimales, son, en definitiva, los componentes de todo lo que contemplamos a nuestro alrededor: Las montañas, ríos, Bosques, océanos, los más exoticos animales y, nosotros mismos, estamos hechos de Quarks y Leptones que, en nuestro caso, han podido evolucionar hasta llegar…¡A los pensamientos!
los Quarks hasta los pensamientos
Estas dos familias de partículas conforman todo lo que podemos ver a nuestro alrededor, la materia del Universo y, si la “materia oscura” en realidad existe, no sabemos de qué pueda estar hecha y las clases de partículas que la puedan conformar. Habrá que esperar y, de , hablaremos de lo que conocemos.
El matrimonio Jolit-Curie en el Laboratorio
Tan pronto como los Joliot-Curie crearon el aprimer isótopo radiactivo artificial, los físicos se lanzaron en tropel a producir tribus enteras de ellas. En realidad, las variedades radiactivas de elemento en la tabla periódica son producto de laboratorio. En la moderna tabla periódica, cada elemento es una familia con miembros estables e inestables, algunos procedentes de la naturaleza, otros sólo del laboratorio. Por ejemplo, el hidrógeno presenta tres variedades: en primer lugar, el corriente, que tienen un solo protón.
Harold Urey
En 1.932, el químico Harold Urey logró aislar el segundo. Lo consiguió sometiendo a lenta evaporación una gran cantidad de agua, de acuerdo con la teoría de que los residuos representarían una concentración de la más pesada del hidrógeno que se conocía, y, en efecto, cuando se examinaron al espectroscopio las últimas gotas de agua no evaporadas, se descubrió en el espectro una leve línea cuya posición matemática revelaba la presencia de hidrógeno pesado.
No todo ha sido bueno entonces pero, teníamos que avanzar en el saber y, la clave está en saber utilizar adecuadamente esos conocimientos.
El núcleo de hidrógeno pesado está constituido por un protón y un neutrón. Como tiene un másico de 2, el isótopo es hidrógeno. Urey llamó a este átomo deuterio (de la voz griega deutoros, “segundo”), y el núcleo deuterón. Una molécula de agua que contenga deuterio se denomina agua pesada, que tiene puntos de ebullición y congelación superiores al agua ordinaria, ya que la masa del deuterio es dos veces mayor que la del hidrógeno corriente. Mientras que ésta hierve a 100º C y se congela a 0º C, el agua pesada hierve a 101’42º C y se congela a 3’79º C. El punto de ebullición del deuterio es de -23’7º K, frente a los 20’4º K del hidrógeno corriente. El deuterio se presenta en la naturaleza en la proporción de una por cada 6.000 partes de hidrógeno corriente. En 1.934 se otorgó a Urey el premio Nobel de Química por su descubrimiento del deuterio.
El deuterio resultó ser una partícula muy valiosa para bombardear los núcleos. En 1.934, el físico australiano Marcus Lawrence Edwin Oliphant y el austriaco P. Harteck atacaron el deuterio con deuterones y produjeron una tercera de hidrógeno, constituido por un protón y dos neutrones. La reacción se planteó así:
Este hidrógeno superpesado se denominó tritio (del griego tritos, “tercero”); su ebullición a 25º K y su fusión a 20’5º K.
Como es mi costumbre, me desvío del tema y sin poderlo evitar, mis ideas (que parecen tener vida propia), cogen los caminos más diversos. Basta con que se cruce en el camino del que realizo un fugaz recuerdo; lo sigo y me lleva a destinos distintos de los que me propuse al comenzar. Así, en este caso, me pasé a la química, que también me gusta mucho y está directamente relacionada con la física; de hecho son hermanas: la madre, las matemáticas, ese lenguaje especial que hablamos cuando las palabras no pueden explicar las cosas, y, la única, que finalmente lo podrá explicar todo lo complejo que existe en la Naturaleza.
En Ginebra.- Físicos en el centro de investigación CERN están logrando colisiones de alta carga energética de partículas subatómicas en su intento por recrear las inmediatamente posteriores al Big Bang, el cual llevó al inicio del universo 13.700 millones de años atrás. Mucho se ha criticado al LHC y, sin embargo, es un gran paso adelante que nos posibilitará saber, es el Universo y, nos descubrirá algunos de sus secretos. Hará posible que avancemos en el conocimiento sobre de dónde venimos, cómo el universo temprano evolucionó, cómo tienen y adquieren su masa las partículas y, algunas cosas más.
Todo eso se logra mediante las colisiones de haces partículas que son lanzadas a velocidades relativistas y que, al chocar con otro lanzado en el sentido contrario, producen el efecto que arriba en la imagen podeis ver, es como recrear el de la creación, es decir, el big bang en miniatura. La materia se descompone en otras partículas más simples, se llega hasta las entrañas más profundas para poder estudiarla y saber.
Los Bosones son las partículas mediadoras de las cuatro fuerzas
La colisión de un quark (la esfera roja) un protón (la esfera naranja) con un gluon (la esfera verde) otro protón con espín opuesto. El espín está representado por las flechas azules alrededor de los protones y del quark. Los signos de interrogación azules alrededor del gluon representan la pregunta: ¿Están los gluones polarizados? Las partículas expulsadas de la colisión son una lluvia de quarks y un fotón (la esfera púrpura).
La escala de energía es la que marcará nuestro nivel de conocimiento del Universo
El Gran Colisionador de Hadrones (LHC), la mayor máquina del mundo en su , colisionó rayos de partículas a un récord de energía de 7 teraelectron voltios (TeV), tres veces y medio más rápido de lo conseguido anteriormente en un acelerador de partículas. Sin embargo, hasta que podamos llegar a la energía de Planck, para poder atisbar las cuerdas, falta mucho, muchísimo camino que recorrer…si finalmente, lo podemos lograr.
Una manera de ver la Naturaleza “por dentro” es hacer que haces de partículas choquen de manera violenta sí y nos enseñen de qué están hechas.
Los científicos quieren creer que la naturaleza prefiere la economía en sus creaciones y que siempre parece evitar redundancias innecesarias al crear estructuras físicas, biológicas y químicas. La Naturaleza, siempre lleva su dinámica al ritmo más económico posible, no se produce absolutamente nada que sea superfluo, sino que, con lo estrictamente necesario, todo transcurre debe.
Estamos hablando de las partículas y no podemos dejar a un lado el tema del movimiento rotatorio de las mismas. Usualmente se ve cómo la partícula gira sobre su eje, a semejanza de un trompo, o como la Tierra o el Sol, o nuestra galaxia o, si se me permite decirlo, como el propio universo. En 1.925, los físicos holandeses George Eugene Uhlenbeck y Samuel Abraham Goudsmit aludieron por primera vez a esa rotación de las partículas. Éstas, al girar, generan un minúsculo campo electromagnético; tales campos han sido objeto de medidas y exploraciones, principalmente por del físico alemán Otto Stern y el físico norteamericano Isaac Rabi, quienes recibieron los premios Nobel de Física en 1.943 y 1.944 respectivamente, por sus trabajos sobre dicho fenómeno.
Esas partículas (al igual que el protón, el neutrón y el electrón), que poseen espines que pueden medirse en números mitad, se consideran según un sistema de reglas elaboradas independientemente, en 1.926, por Fermi y Dirac; por ello, se las llama y conoce como estadísticas Fermi-dirac. Las partículas que obedecen a las mismas se denominan fermiones, por lo cual el protón, el electrón y el neutrón son todos fermiones.
Estadística Fermi-Dirac para las Fermiones. La estadística de Fermi-Dirac es la de contar estados de ocupación de forma estadística en un sistema de fermionesfermiones. Forma parte de la Mecánica Estadística. Y tiene aplicaciones sobre todo en la Física del sólido.
Hay también partículas cuya rotación, al duplicarse, resulta igual a un par. Para manipular sus energías hay otra serie de reglas, ideadas por Einstein y el físico indio S. N. Bose. Las partículas que se adaptan a la estadística Bose-Einstein son bosones, como por ejemplo la partícula alfa.
Las reglas de la mecánica cuántica tienen que ser aplicadas si queremos describir estadísticamente un sistema de partículas que obedece a reglas de teoría en vez de los de la mecánica clásica. En estadística cuántica, los estados de energía se considera que están cuantizados. La estadística de Bose-Einstein se aplica si cualquier de partículas puede ocupar un estado cuántico dado. Dichas partículas son bosones, que tienden a juntarse.
Los bosones tienen un momento angular nh/2π, donde n es 0 o un entero, y h es la constante de Planck. Para bosones idénticos, la función de ondas es siempre simétrica. Si sólo una partícula puede ocupar un cuántico, tenemos que aplicar la estadística Fermi-Dirac y las partículas (como también antes dije) son los fermiones que tienen momento angular (n + ½)h / 2π y cualquier función de ondas de fermiones idénticos es siempre antisimétrica. La relación entre el espín y la estadística de las partículas está demostrada por el teorema espín-estadística. El teorema de la estadística del espín de la mecánica cuántica establece la relación directa entre el espín de una especie de partícula con la estadística que obedece. Fue demostrado por Fierz y Pauli en 1940, y requiere el formalismo de teoría cuántica de campos.
En un espacio de dos dimensiones es posible que haya partículas (o cuasipartículas) con estadística intermedia entre bosones y fermiones. Estas partículas se conocen con el de aniones; para aniones idénticos, la función de ondas no es simétrica (un cambio de fase de +1) o antisimétrica (un cambio de fase de -1), sino que interpola continuamente entre +1 y -1. Los aniones pueden ser importantes en el análisis del efecto Hall cuántico fraccional y han sido sugeridos como un mecanismo para la superconductividad de alta temperatura.
Debido al principio de exclusión de Pauli, es imposible que dos fermiones ocupen el mismo cuántico (al contrario de lo que ocurre con los bosones). La condensación Bose-Einstein es de importancia fundamental para explicar el fenómeno de la superfluidez. A temperaturas muy bajas (del orden de 2×10-7 K) se puede formar un condensado de Bose-Einstein, en el que varios miles de átomos dorman una única entidad (un superátomo). Este efecto ha sido observado con átomos de rubidio y litio. Como ha habréis podido suponer, la condensación Bose-Einstein es llamada así en honor al físico Satyendra Nath Bose (1.894 – 1.974) y a Albert Einstein. Así que, el principio de exclusión de Pauli tiene aplicación no sólo a los electrones, sino también a los fermiones; pero no a los bosones.
Si nos fijamos en todo lo que estamos hablando aquí, es fácil comprender cómo un campo magnético la partícula cargada que gira, pero ya no resulta tan fácil saber por qué ha de hacer lo mismo un neutrón descargado. Lo cierto es que cuando un rayo de neutrones incide sobre un hierro magnetizado, no se comporta de la misma que lo haría si el hierro no estuviese magnetizado. El magnetismo del neutrón sigue siendo un misterio; los físicos sospechan que contiene cargas positivas y negativas equivalente a cero, aunque por alguna razón desconocida, logran crear un campo magnético cuando gira la partícula. Es de especial interés ya que los momentos magnéticos aparecen por el movimiento de cargas eléctricas, y puesto que el neutrón es una partícula neutra, ese magnético da indicios de la existencia de una subestructura, es decir, que el neutrón está constituido por otras partículas, eléctricamente cargadas (¿Quarks?)
en las estrellas de neutrones está presente el campo magnético
Particularmente creo que, si el neutrón tiene masa, si la masa es energía (E = mc2), y si la energía es electricidad y magnetismo (según Maxwell), el magnetismo del neutrón no es tan extraño, sino que es un aspecto de lo que en realidad es: materia. La materia es la luz, la energía, el magnetismo, en definitiva, la fuerza que reina en el universo y que está presente de una u otra en todas partes (aunque no podamos verla).Y, la explicación más sencilla es que, el Neutrón tenga carga positiva y negativa que se anulan mutuamente, y, de esa manera, adquiere su propiedad neutra.
René Descartes, filósofo, matemático y físico francés, considerado el padre de la filosofía moderna, así como uno de los nombres más destacados de la revolución científica. El método científico( del latín scientia = conocimiento; camino hacia el conocimiento) es un método de investigación usado principalmente en la producción de conocimiento en las ciencias. Para ser llamado científico, un método de investigación debe basarse en la empírica y en la medición, sujeto a los principios específicos de las pruebas de razonamiento. El método científico es: «un método o procedimiento que ha caracterizado a la ciencia natural desde el siglo XVII, que consiste en la observación sistemática, medición, experimentación, la formulación, análisis y modificación de las hipótesis»
El método científico está sustentado por dos pilares fundamentales. El primero de ellos es la reproducibilidad, es decir, la capacidad de repetir un determinado experimento, en cualquier lugar y por cualquier persona. Este pilar se basa, esencialmente, en la comunicación y publicidad de los resultados obtenidos (por ej. en forma de artículo científico). El segundo pilar es la refutabilidad. Es decir, que toda proposición científica tiene que ser susceptible de ser falsada o refutada. Esto implica que se podrían diseñar experimentos, que en el caso de dar resultados distintos a los predichos, negarían la hipótesis puesta a prueba.
¡Son posibles tantas cosas!
Algunos quieren encontrar las respuestas en la religión (que si ha sido escogida voluntariamente… ¡bien está!). Pero, como todos sabemos, es cosa de fe. Creer en aquello que no podemos ver ni comprobar no es precisamente el camino de la ciencia que empieza por imaginar, después conjeturar, más tarde teorizar, se comprueba una y mil veces la teoría aceptada a medias y sólo cuando todo está amarrado y bien atado, todas esas fases pasan a la categoría de una ley o norma que se utiliza para continuar investigando en la buena dirección. Einstein solía decir: “La religión sin Ciencia es ciega.”
Otros han sido partidarios de la teoría del caos y argumentan que a medida que el nivel de complejidad de un sistema aumenta, entran en juego nuevos tipos de leyes. Entender el comportamiento de un electrón o un quark es una cosa; utilizar este conocimiento para comprender el comportamiento de un tornado es otra muy distinta. La mayoría está de acuerdo con este aspecto. Sin embargo, las opiniones divergen con respecto a si los fenómenos diversos y a veces inesperados que pueden darse en sistemas más complejos que las partículas individuales son realmente representativos del funcionamiento de los nuevos principios de la física, o si los principios implicados son algo derivado y están basados, aunque sea de un modo terriblemente complicado, en los principios físicos que gobiernan el ingente número de componentes elementales del universo.
“La teoría del todo o teoría unificada fue el sueño incumplido de Einstein. A este empeñó dedicó con pasíón los últimos 30 años de su vida. No lo logró, y hoy continúa sin descubrirse. Consiste en una teoría definitiva, una ecuación única que dé respuesta a todas las preguntas fundamentales del Universo. Claro que, Einstein no sabía que las matemáticas para plasmar esa Teoría mágica… ¡No se habían inventado en su tiempo ni tampoco en el nuestro!
“Se podría concebir un intelecto que en cualquier momento dado conociera todas las fuerzas que animan la naturaleza y las posiciones de los seres que la componen; si este intelecto fuera lo suficientemente vasto como para someter los datos a análisis, podría condensar en una simple fórmula el movimiento de los grandes cuerpos del universo y del átomo más ligero; para tal intelecto nada podría ser incierto y el futuro así como el pasado estarían frente a sus ojos.”
¿Un Universo sin secretos? ¡Qué aburrido!
La teoría del todo debe explicar todas la fuerzas de la Naturaleza, y todas las características de la energía y la materia. Debe resolver la cuestión cosmológica, es decir, dar una explicación convincente al origen del Universo. Debe unificar relatividad y cuántica, algo hasta ahora no conseguido. Y además, debe integrar otros universos en caso de que los haya. No parece tarea fácil. Ni siquiera se sabe si existe una teoría del todo en la Naturaleza. Y, en caso de que exista, si es accesible a nuestro entendimiento y a nuestras limitaciones tecnológicas para descubrirla.”
Einstein se pasó los últimos treinta años de su vida en la búsqueda de esa teoría que nunca pudo encontrar. En los escaparates de la 5ª Avenida de Nueva York, exponían sus ecuaciones y la gente, sin entender lo que veían, se arremolinaban ante el cristal para verlas.
Casi todo el mundo está de acuerdo en que el hallazgo de la Gran Teoría Unificada (teoría del Todo), no significaría de modo alguno que la psicología, la biología, la geología, la química, y también la física, hubieran resuelto todos sus problemas.
Algunos creen que en nuestro Universo todo está conectado de alguna manera
El universo es un lugar tan maravilloso, rico y complejo que el descubrimiento de una teoría final, en el sentido en el que esta planteada la teoría de supercuerdas, no supondría de modo alguno el fin de la ciencia ni podríamos decir que ya lo sabemos todo y para todo tendremos respuestas. Más bien será, cuando llegue, todo lo contrario: el hallazgo de esa teoría de Todo (la explicación completa del universo en su nivel más microscópico, una teoría que no estaría basada en ninguna explicación más profunda) nos aportaría un fundamento mucho más firme sobre el que podríamos construir nuestra comprensión del mundo y, a través de estos nuevos conocimientos, estaríamos preparados para comenzar nuevas empresas de metas que, en este momento, nuestra ignorancia no nos dejan ni vislumbrar. La nueva teoría de Todo nos proporcionaría un pilar inmutable y coherente que nos daría la llave para seguir explorando un universo más comprensible y por lo tanto, más seguro, ya que el peligro siempre llega de lo imprevisto, de lo desconocido que surge sin aviso previo; cuando conocemos bien lo que puede ocurrir nos preparamos para evitar daños.
Hablar podemos hablar de muchas cosas… ¡Lo que no quiere decir que sepamos de qué estamos hablando!
La búsqueda de esa teoría final que nos diga cómo es el universo, el tiempo y el espacio, la materia y los elementos que la conforman, las fuerzas fundamentales que interaccionan, las constantes universales y en definitiva, una formulación matemática o conjunto de ecuaciones de las que podamos obtener todas las respuestas, es una empresa nada fácil y sumamente complicada; la teoría de cuerdas es una estructura teórica tan profunda y complicada que incluso con los considerables progresos que ha realizado durante los últimos décadas, aún nos queda un largo camino antes de que podamos afirmar que hemos logrado dominarla completamente. Se podría dar el caso de que el matemático que encuentre las matemáticas necesarias para llegar al final del camino, aún no sepa ni multiplicar y esté en primaria en cualquier escuela del mundo civilizado.
Otros nos hablan de fractales
Muchos de los grandes científicos del mundo (Einstein entre ellos), aportaron su trabajo y conocimientos en la búsqueda de esta teoría, no consiguieron su objetivo pero sí dejaron sus ideas para que otros continuaran la carrera hasta la meta final. Por lo tanto, hay que considerar que la teoría de cuerdas es un trabajo iniciado a partir de las ecuaciones de campo de la relatividad general de Einstein, de la mecánica cuántica de Planck, de las teorías gauge de campos, de la teoría de Kaluza-Klein, de las teorías de… hasta llegar al punto en el que ahora estamos.
El Universo de lo muy grande y el de lo muy pequeño… ¡Es el mismo universo! Simplemente se trata de mirar en distintos ámbitos del saber, y, la importancia de las medidas… ¡también es relativia! Porque, ¿podríamos valorar la importancia de los electrones. La existencia de los fotones, o, simplemente la masa del protón? Si alguno de esos objetos fuese distinto, el Universo también lo sería.
La armoniosa combinación de la relatividad general y la mecánica cuántica es un éxito muy importante. Además, a diferencia de lo que sucedía con teorías anteriores, la teoría de cuerdas tiene la capacidad de responder a cuestiones primordiales que tienen relación con las fuerzas y los componentes fundamentales de la naturaleza.
Conozco a varios físicos que delante de una pizarra pierden la noción del Tiempo y del Espacio, se sumergen en el laberinto de las ecuaciones complejas y van de un “mundo” a “otro” tratando de encontrar esa respuesta que todos quisieran tener.
Igualmente importante, aunque algo más difícil de expresar, es la notable elegancia tanto de las respuestas que propone la teoría de cuerdas, como del marco en que se generan dichas respuestas. Por ejemplo, en la teoría de cuerdas muchos aspectos de la naturaleza que podrían parecer detalles técnicos arbitrarios (como el número de partículas fundamentales distintas y sus propiedades respectivas) surgen a partir de aspectos esenciales y tangibles de la geometría del universo. Si la teoría de cuerdas es correcta, la estructura microscópica de nuestro universo es un laberinto multidimensional ricamente entrelazado, dentro del cual las cuerdas del universo se retuercen y vibran en un movimiento infinito, marcando el ritmo de las leyes del cosmos.
Lejos de ser unos detalles accidentales, las propiedades de los bloques básicos que construyen la naturaleza están profundamente entrelazadas con la estructura del espacio-tiempo.
“Para Newton, el espacio y el tiempo eran un mero escenario. Para Einstein, el espacio-tiempo de la Teoría Especial de la Relatividad era un sofisticado entramado de cuatro dimensiones que incluía, como caso particular, a la pintura newtoniana. Para Einstein, el espacio-tiempo de la Teoría General de la Relatividad develaba la precisa naturaleza de la gravedad teniendo en cuenta a las masas y a la energía presentes en el Universo. La Relatividad General es la mejor explicación que los cosmólogos tienen del Universo y en ella el espacio-tiempo no es una entelequia sino un modo de la realidad, una entidad concreta, un objeto físico y, como tal, tiene un origen, una estructura, una materialidad. A cien años de la Teoría General de la Relatividad los físicos empiezan a olfatear cuál es la esencia íntima del espacio-tiempo. Los detalles.”
“El espacio-tiempo es una estructura suave, al menos así lo sugiere un nuevo estudio, anotando una posible victoria para Einstein sobre los teóricos cuánticos que vinieron después de él.”
El tejido de finas cuerdas que vibran y que forman la estructura de nuestro Universo
Claro que, siendo todos los indicios muy buenos, para ser serios, no podemos decir aún que las predicciones sean definitivas y comprobables para estar seguros de que la teoría de cuerdas ha levantado realmente el velo de misterio que nos impedía ver las verdades más profundas del universo, sino que con propiedad se podría afirmar que se ha levantado uno de los picos de ese velo y nos permite vislumbrar algo de lo que nos podríamos encontrar.
La teoría de cuerdas, aunque en proceso de elaboración, ya ha contribuido con algunos logros importantes y ha resuelto algún que otro problema primordial como por ejemplo, uno relativo a los agujeros negros, asociado con la llamada entropía de Bekenstein-Hawking, que se había resistido pertinazmente durante más de veinticinco años a ser solucionada con medios más convencionales. Este éxito ha convencido a muchos de que la teoría de cuerdas está en el camino correcto para proporcionarnos la comprensión más profunda posible sobre la forma de funcionamiento del universo, que nos abriría las puertas para penetrar en espacios de increíble belleza y de logros y avances tecnológicos que ahora ni podemos imaginar.
Como he podido comentar en otras oportunidades, Edward Witten, uno de los pioneros y más destacados experto en la teoría de cuerdas, autor de la versión más avanzada y certera, conocida como teoría M, resume la situación diciendo que: “la teoría de cuerdas es una parte de la física que surgió casualmente en el siglo XX, pero que en realidad era la física del siglo XXI“.
Witten, un físico-matemático de mucho talento, máximo exponente y punta de lanza de la teoría de cuerdas, reconoce que el camino que está por recorrer es difícil y complicado. Habrá que desvelar conceptos que aún no sabemos que existen.
El hecho de que nuestro actual nivel de conocimiento nos haya permitido obtener nuevas perspectivas impactantes en relación con el funcionamiento del universo es ya en sí mismo muy revelador y nos indica que podemos estar en el buen camino revelador de la rica naturaleza de la teoría de cuerdas y de su largo alcance. Lo que la teoría nos promete obtener es un premio demasiado grande como para no insistir en la búsqueda de su conformación final.
El universo, la cosmología moderna que hoy tenemos, es debida a la teoría de Einstein de la relatividadgeneral y las consecuencias obtenidas posteriormente por Alexandre Friedmann. El Big Bang, la expansión del universo, el universo plano y abierto o curvo y cerrado, la densidad crítica y el posible Big Crunch que, según parece, nunca será un hecho y, el universo, tendrá una “muerte” térmica, es decir, cuando el alejamiento de las galaxias lo haga más grande, más oscuro y más frío. En el cero absoluto de los -273 ºC, ni los átomos se moverán.
Un comienzo y un final que abarcará miles y miles de millones de años de sucesos universales a escalas cosmológicas que, claro está, nos afectará a nosotros, insignificantes mortales habitantes de un insignificante planeta, en un insignificante sistema solar creado por una insignificante y común estrella.
“Encontraremos señales de formas de vida simples fuera de la Tierra en los próximos años”
El nuevo responsable de ciencia de la Agencia Espacial Europea habla sobre los grandes objetivos de la agencia, la exploración de mundos habitables y el estudio del universo con métodos inéditos
La exploración espacial no es un trabajo para impacientes. Cuando Rosetta logró interceptar al cometa 67P/Churiumov-Guerasimenko, en 2014, había pasado ya una década desde su lanzamiento desde la Guayana Francesa y diez años más desde que su construcción fue aprobada. A esas dos décadas habría que sumar el tiempo de diseño de la propia misión. Hace unos días, Günter Hasinger (Oberammergau, Alemania, 1954), el nuevo director de ciencia de la Agencia Espacial Europea (ESA), presentaba en Madrid los próximos Rosetta, esto es, la visión de Europa para el futuro de la exploración espacial. El próximo mes de noviembre, en Sevilla, se celebrará la reunión de ministros de los Estados miembros de la agencia que decidirán sus objetivos para los próximos años.
Entre las grandes misiones ya aprobadas destaca Juice, que tiene previsto partir hacia Júpiter en 2022 para estudiar sus lunas. Los océanos que parecen existir bajo la superficie de Europa, Ganímedes o Calisto se encuentran entre los lugares donde podría haber vida dentro del Sistema Solar. Más adelante, ya en la década de 2030, llegarán Athena y Lisa, un observatorio espacial de rayos X y otro de ondas gravitacionales que prometen ver como nunca antes las fusiones de agujeros negros o estrellas de neutrones y por el camino pueden resolver dilemas de la física con más de un siglo de antigüedad. Hasinger también mencionó la posibilidad de planear una misión que visite Urano y Neptuno, dos planetas que nunca han recibido la atención de una misión espacial propia.
Pregunta. ¿Cree que encontrar algún tipo de vida extraterrestre en las próximas décadas es algo probable?
Hay gente que dice que la atmósfera de los cometas apesta como un establo de caballos
Respuesta. En primer lugar, tenemos que dejar claro qué consideramos vida. Tenemos que diferenciar entre formas de vida simples, como las algas o las bacterias, que han hecho del nuestro un planeta habitable terraformando la Tierra durante miles de millones de años y produciendo el oxígeno para que otras formas de vida puedan existir, y la vida inteligente. Unos pocos cientos de millones de años después de la formación de la Tierra ya existían las primeras formas de vida, pero la aparición de formas más complejas requirió 3.000 millones de años más, así que las primeras serán mucho más abundantes.
Por otro lado, en la Tierra hemos encontrado vida en muchos lugares inesperados, en el hielo de los glaciares o bajo el manto terrestre. Ahora sabemos que la biomasa total bajo la superficie de la Tierra es mayor que la biomasa sobre nosotros. Hay bacterias y otros organismos que viven de la desintegración radioactiva así que tienen ciclos vitales completamente diferentes de los que estamos acostumbrados. Y además hay otro factor: cuando hemos estudiado cometas, se ha encontrado un gran número de moléculas orgánicas. Hay gente que dice que la atmósfera de los cometas apesta como un establo de caballos y para mí eso significa que los ladrillos básicos de la vida, los pequeños elementos necesarios para crear vida, ya existen en cometas y otros lugares.
Creo que debería haber formas simples de vida ahí fuera, el problema es cómo detectarla. Por ejemplo, creemos que había vida en Marte hace miles de millones de años, que había agua líquida en la superficie, pero hoy está esterilizada por la radiación cósmica, así que todas las formas de vida que pudiesen haber existido en la superficie han desaparecido. Para encontrar vida, tienes que perforar el suelo. Y algo parecido sucede cuando miras, por ejemplo, a Encélado o Europa, las lunas heladas de Saturno y Júpiter. Creemos que podría haber vida bajo una capa de un kilómetro de hielo, en un océano líquido al que es muy difícil llegar. La pregunta no es tanto si descubriremos vida sino cuán difícil será descubrirla.
Creo que hay vida inteligente ahí fuera, pero está tan lejos que no hay posibilidad de comunicarnos con ella
Cuando hablamos de exoplanetas, la mera existencia de oxígeno en una atmósfera ya indica que se ha producido algún tipo de terraformación y que tiene que haber bacterias que crean oxígeno porque el oxígeno no viene del espacio exterior. En los próximos diez o veinte años creo que encontraremos señales de formas de vida simples fuera de la Tierra. La cuestión de si encontraremos vida inteligente es completamente diferente. Yo creo que hay vida inteligente ahí fuera, pero está tan lejos que no hay posibilidad de comunicarnos con ella.
P. ¿Qué misiones específicas pueden realizar estas detecciones?
Las dos lunas de Marte son Fobos y Deimos. Estas lunas de Marte podría ser asteroides capturados del cinturón principal de asteroides situado entre Marte y Júpiter. Tanto cerca de la órbita de los satélites a su planeta, unos pocos miles de kilómetros de ella, 9.377 kilómetros de Fobos y Deimos 23.460 kilómetros. El diámetro de Marte es sólo 6.792 kilómetros.
Ambas lunas están vinculados a Marte por las fuerzas de marea, por lo que siempre muestran la misma cara a su planeta, como lo hace la Luna respecto a la Tierra.
R. Creo que la primera oportunidad que tendremos es la misión de recuperación de muestras de Phobos [la luna de Marte] con MMX. En los próximos años traeremos material del sistema marciano. Creo que Exomars2020, cuando tengamos el rover, también será un comienzo. Otra posibilidad es analizar los penachos de lunas como Europa o Encélado que surgen a través de las grietas en el hielo y géiseres en los que el agua podría arrastrar algún tipo de material orgánico, aunque por el momento no tenemos instrumentos para hacer esos análisis.
ARIEL, un observatorio espacial para analizar las atmósferas de los planetas extrasolares en detalle. ARIEL (Atmospheric Remote‐sensing Infrared Exoplanet Large‐survey mission) fue presentada hace tres año entre muchas otras misiones candidatas. Con esta ya son tres las misiones de la ESA dedicadas en exclusiva a la astromomía exoplanetaria, después de CHEOPS, un pequeño observatorio para caracterizar mejor el tamaño de exoplanetas previamente descubiertos, y PLATO, un cazador de nuevos planetas que usará el método del tránsito.
Después, hay misiones como Ariel, que hacen espectroscopía de las atmósferas de exoplanetas y que podrían encontrar biomarcadores. Apostaría a que eso puede suceder en los próximos diez o veinte años.
P. ¿Qué grandes descubrimientos podemos esperar de Lisa y Athena?
R. Creo que Lisa y Athena abordan preguntas fascinantes sobre la naturaleza de los agujeros negros, de la materia oscura y de todo el universo oscuro. Ahora, con el interés despertado por los observatorios de ondas gravitacionales terrestres, hay un interés renovado en cómo se forman los agujeros negros y lo que sucede cuando se funden. Esto también puede servir para comprender la materia oscura. Sabemos que existe, pero no tenemos ni idea sobre qué partículas la forman. Tampoco entendemos de dónde vienen los agujeros negros, vemos los cuásares primitivos, en el universo temprano, donde ya hay agujeros negros, y no sabemos de dónde vienen. Y hay una especulación que es emocionante, aunque no haya acuerdo sobre si es plausible, y es si los agujeros negros son en realidad parte de la materia oscura, si los agujeros negros están contribuyendo o incluso son básicamente la materia oscura.
Eso son cuestiones que pueden ser estudiadas por Lisa y Athena. Porque Lisa y Athena encontrarán las fusiones de agujeros negros en el universo muy temprano y podrán estimar cuántos hay y si están conectados a la luz y a la materia normal. Creo que las próximas dos décadas estarán dominadas por el estudio de los planetas extrasolares, pero los veinte siguientes volverá la ciencia gravitacional que nos ayudará a entender lo que sucedió en el origen del universo.
P. Usted está interesado en Oumuamua, el primer objeto llegado de fuera del sistema solar que se ha podido observar. ¿Está de acuerdo con los investigadores de Harvard que aseguran que es, probablemente, un artefacto construido por seres inteligentes?
R. Creo que si lees el artículo que publicaron, no afirman realmente que se trate de algo artificial sino que no se puede descartar que sea un objeto artificial. Pero entonces la prensa tomó esta afirmación y dijo que astrofísicos de Harvard decían eso. Desde mi punto de vista, se referían a una idea que ha sido discutida desde hace tiempo sobre la posibilidad de viajar a otros planetas con una vela solar. Algo relacionado con la iniciativa Breakthrough Starshot en la que Stephen Hawking, antes de morir, también se involucró. Consistía en enviar un artefacto como un smartphone con una gran vela solar. Cuando lo impulsas con un rayo láser, puedes acelerarlo hasta una fracción de la velocidad de la luz y así podrías llegar a la estrella más cercana en poco tiempo.
El factor que determinará si somos capaces de poblar la galaxia es la longevidad de nuestra civilización
Soy escéptico sobre esta tecnología, porque la vela tiene que ser una estructura extremadamente fina y muy grande, de cientos de metros. Tienes que propulsarla con un rayo láser y la cantidad de energía que necesitas para acelerarla es tan grande que básicamente freirías la vela en lugar de acelerarla. Pero supón que hay una civilización que ha superado este problema de la vela solar y no se quema. Entonces, en principio, podrías enviar una sonda hasta otra estrella. Pero si esto fuese así, Oumuamua se estaría moviendo demasiado despacio. Se mueve a unos 30 kilómetros por segundo cuando con una vela solar se estaría moviendo a unos 10.000 kilómetros por segundo.
Recreación de ‘Oumuamua’ ESO/M. KORNMESSER
Además, hay explicaciones naturales bastante creíbles. No hemos visto una cola de cometa, así que debe ser un tipo especial de cometa que no hemos visto en el sistema solar. Eso se podría explicar por el hecho de que lleva viajando millones o cientos de millones de años, y quizá ha perdido la mayor parte de su gas porque está pasando junto a una nueva estrella cada millón de años aproximadamente. Hay explicaciones naturales al fenómeno aunque no las comprendamos del todo.
P. Incluso aunque en los próximos años encontremos señales de vida en un planeta extrasolar, en el universo todo está tan lejos que nunca lo podríamos visitar.
R. Si piensas en una escala humana, es imposible que en una vida llegues a ningún sitio. Pero si tienes una civilización inteligente capaz de construir robots y estos robots van a otro planeta, y después estos robots pueden construir una fábrica que construya más robots, puedes producir un efecto bola de nieve y en unos pocos cientos de millones de años podrías poblar con robots todos los planetas de la galaxia. Así que hay quien se plantea que como estos robots no han llegado a la Tierra, podemos pensar que no hay ninguna civilización en la galaxia con esa capacidad, porque si la hubiese ya estarían aquí. Pero en principio sería posible si no se piensa poblar la galaxia en una generación humana sino durante la vida una civilización completa. Así que el factor final es la longevidad de nuestra civilización. Si matamos nuestro planeta de aquí a mil años, no habrá posibilidad de comunicarse con otras civilizaciones, en particular si ellos tampoco saben cuidar sus planetas.
Un matorral y un pájaro y un pez en las olas saladas.”
Esto nos decía Empédocles, el padre de aquellos primitivos elementos formados por Agua, tierra, aire y fuego que, mezclados en la debida proporción, formaban todas las cosas que podemos ver a nuestro alrededor. Claro que, él no podía llegar a imaginar hasta donde pudimos llegar después en la comprensión de la materia a partir del descubrimiento de las partículas “elementales” que formaban el átomo. Pero sí, con sus palabras, nos quería decir que, la materia, una veces está conformando mundos y, en otras, estrellas y galaxias.
Sí, hay cosas malas y buenas pero todas deben ser conocidas para poder, en el primer caso aprovecharlas, y en el segundo, prevenirlas.
Pero demos un salto en el tiempo y viajemos hasta los albores del siglo XX cuando se hacía cada vez más evidente que alguna clase de energía atómica era responsable de la potencia del Sol y del resto de las estrellas que más lejos, brillaban en la noche oscura. Ya en 1898, sólo dos años despuès del descubrimiento de la radiactividad por Becquerel, el geólogo americano Thomas Chrowder Chamberlin especulaba que los átomos eran “complejas organizaciones y centros de enormes energías”, y que “las extraordinarias condiciones que hay en el centro del Sol pueden…liberar una parte de su energía”. Claro que, por aquel entonces, nadie sabía cual era el mecanismo y cómo podía operar, hasta que no llegamos a saber mucho más sobre los átomos y las estrellas.
Conseguimos desvelar el secreto escondido en los átomos y llegamos a saber que fuerza operaba dentro del núcleo atómico en el que residía el 99,99% de toda la masa atómica, el resto eran espacios “vacíos”.
El intento de lograr tal comprensión exigió una colaboración cada vez mayor entre los astrónomos y los físicos nucleares. Su trabajo llevaría, no sólo a resolver la cuestión de la energía estelar, sino también al descubrimiento de una trenza dorada en la que la evolución cósmica se entrelaza en la historia atómica y la estelar.
La Clave: Fue comprender la estructura del átomo. Que el átomo tenía una estructura interna podía inferirse de varias líneas de investigación, entre ellas, el estudio de la radiactividad: para que los átomos emitiesen partículas, como se había hallado que lo hacían en los laboratorios de Becquerel y los Curie, y para que esas emisiones los transformasen de unos elementos en otros, como habían demostrado Rutherford y el químico inglés Frederick Soddy, los átomos debían ser algo más que simples unidades indivisibles, como implicaba su nombre (de la voz griega que significa “imposible de cortar”).
El átomo de Demócrito era mucho más de lo que él, en un principio intuyó que sería. Hoy sabemos que está conformado por diversas partículas de familias diferentes: unas son bariones que en el seno del átomo llamados nucleones (los hadrones que forman la materia bariónica y que fuera del núcleo llevan los nombres de Protón y Neutrón), otras son leptones que gitan alrededor del núcleo para darle estabilidad de cargas, y, otras, de la familia de los Quarks, construyen los bariones del núcleo y, todo ello, está, además, vigilado por otras partículas llamadas bosones intermedios de la fuerza nuclear fuerte, los Gluones que, procuran mantener confinados a los Quarks.
Pero no corramos tanto, la física atómica aún debería recorrer un largo camino para llegar a comprender la estructura que acabamos de reseñar. De los trs principales componentes del átomo -el protón, el neutrón y el electrón-, sólo el electrón había sido identificado (por J.J. Thomson, en los últimos años del siglo XIX). Nadie hablaba de energía “nuclear” pues ni siquiera se había demostrado la existencia de un núcleo atómico, y mucho menos de sus partículas constituyentes, el protón y el neutrón, que serían identificados, respectivamente, por Thomson en 1913 y James Chawick en 1932.
De importancia capital resultó conocer la existencia del núcleo y que éste, era 1/100.000 del total del átomo, es decir, casi todo el átomo estaba compuesto de espacios “vacíos” y, la materia así considerada, era una fracción infintesimal del total atómico.
Rutherford, Hans Geiger y Ernest Marsden se encontraban entre los Estrabones y Tolomeos de la cartografía atómica, en Manchester , de 1909 a 1911, sonderaron el átomo lanzando corrientes de “partículas alfa” subatómicas -núcleos de helio- contra delgadas laminillas de oro, plata, estaño y otros metales. La mayoría de partículas Alfa se escapaban a través de las laminillas, pero, para sombro de los experimentadores, algunas rebotaban hacia atrás. Rutherford pensó durante largo tiempo e intensamente en este extraño resultado; era tan sorprendente, señalaba, como si una bala rebotase sobre un pañuelo de papel. Finalmente, en una cena en su casa en 1911, anunció a unos pocos amigos que había dado con una explicación: que la mayoría de la masa de un átomo reside en un diminuto núcleo masivo. Ruthertford pudo calcular la carga y el diámetro máximo del nucleo atómico. Así se supo que los elementos pesados eran más pesados que los elementos ligeros porque los núcleos de sus átomos tienen mayor masa.
El simple hecho de que hayamos sido capaces de “entrar” en esos laberintos profundos… ¡Es un milagro en sí mismo! LLegar a comprender lo que está pasando en el infinitesimal espacio de un núcleo atómico… ¡Esen sí mismo asombroso!
Todos sabemos ahora, la función que desarrollan los electrones en el átomo. Pero el ámbito de los electrones para poder llegar a la comprensión completa, tuvo que ser explorado, entre otros, por el físico danés Niels Bohr, quien demostró que ocupaban órbitas, o capas, discretas que rodean al núcleo. (Durante un tiempo Bohr consideró el átomo como un diminuto sistema solar, pero ese análisis, pronto demostró ser inadecuado; el átomo no está rígido por la mecánica newtoniana sino por la mecánica cuántica.)
Entre sus muchos otros éxitos, el modelo de Bohr revelaba la base física de la espectroscopia. El número de electrones de un átomo está determinado por la carga eléctrica del núcleo, la que a su vez se debe al número de protones del núcleo, que es la clave de la identidad química del átomo. Cuando un electróncae de una órbita externa a una órbita interior emite un fotón. La longitud de onda de este fotón está determinada por las órbitas particulares entre las que el electrón efectúa la transición. E esta es la razón de que un espectro que registra las longitudes de onda de los fotones, revele los elementos químicos que forman las estrellas u otros objetos que sean estudiados por el espectroscopista. En palabras de Max Planck, el fundador de la física cuántica, el modelo de Bohr del átomo nos proporciona “la llave largamente buscada de la puerta de entrada al maravilloso mundo de la espectroscopia, que desde el descubrimiento del análisis espectral (por Fraunhoufer) había desafiado obtinadamente todos los intentos de conocerlo”.
Es curioso que, mirando en la oscura noche como brillan las estrellas del cielo, nos atrae su titilar engañoso (es la atmósfera terrestre la que hace que lo parezca) y su brillo, Sin embargo, pocos llegan a pensar en lo que verdaderamente está allí ocurriendo. Las transformaciones de fase por fusión no cesan. Esta transformación de materia en energía es consecuencia de la equivalencia materia-energía, enunciada por Albert Einstein en su famosa fórmula E=mc2; donde E es la energía resultante, m es la masa transformada en energía, y c es la velocidad de la luz (300 000 kilómetros por segundo). La cantidad de energía que se libera en los procesos de fusión termonuclear es fabulosa. Un gramo de materia transformado íntegramente en energía bastaría para satisfacer los requerimientos energéticos de una familia mediana durante miles de años.
Es un gran triunfo del ingenio humano el saber cómo están conformadas las las estrellas, de qué materiales están hechas, y, sobre todo, que mecanismos funcionan dentro de ellas a más de 15.000.000 de grados para crear elementos nuevos. Recuerdo aquí a aquel Presidente de la Real Society de Londres que, en una reunión multitudinaria, llegó a decir: “Una cosa está clara, nunca podremos saber de qué están hechas las estrellas”. El hombre se vistió de gloria con la, desde entonces, famosa frase. Creo que nada, con tiempo por delante, será imposible para nosotros.
Pero, por maravilloso que nos pueda parecer el haber llegado a la comprensión de que los espectros revelan saltos y tumbos de los electrones en sus órbitas de Bohr, aún nadie podía hallar en los espectros de las estrellas las claves significativas sobre lo que las hace brillar. En ausencia de una teoría convincente, se abandonó este campo a los taxonomistas, a los que seguían obstinadamente registrando y catalogando espectros de estrellas, aunque no sabían hacia donde los conduciría esto.
En el Laboratorio de la Universidad de Harvard, uno de los principales centros de la monótona pero prometedora tarea de la taxonomía estelar, las placas fotográficas que mostraban los colores y espectros de decenas de miles de estrellas se apilaban delante de “calculadoras”, mujeres solteras en su mayoría y, de entre ellas, Henrietta Leavitt, la investigadora pionera de las estrellas variables Cefeidas que tan útiles serían a Shapley y Hubble.
Imagen de Sirio A, la estrella más brillante del cielo tomada por el Telescopio Hubble (Créd. NASA). Sirio es la quinta estrella más cercana y tiene una edad de 300, millones de años. Es una estrella blanca de la secuencia principal de tipo espectral A1V con temperatura superficial de 10 000 K y situada a 8,6 años luz de la Tierra. Es una estrella binaria y, de ella, podríamos contar muchas historias. La estrella fue importante en las vidas de Civilizaciones pasadas como, por ejemplo, la egipcia.
Fue Cannon quien, en 1915, empezó a discernir la forma en una totalidad de estrellas en las que estaba presente la diversidad, cuando descubrió que en una mayoría, las estrellas, pertenecían a una de media docena de clases espectrales distintas. Su sistema de clasificación, ahora generalizado en la astronomía estelar, ordena los espectros por el color, desde las estrellas O blancoazuladas, pasando por las estrellas G amarillas como el Sol, hasta estrellas rojas M. Era un rasgo de simplicidad denajo de la asombrosa variedad de las estrellas.
Las Pléyades y las Híades
Pronto se descubrió un orden más profundo, en 1911, cuando el ingeniero y astrónomo autodidacta danés Ejnar Hertzsprung analizó los datos de Cannon y Maury de las estrellas de dos cúmulos, las Híades y las Pléyades. Los cúmulos como estos son genuinos conjuntos de estrellas y no meras alineaciones al azar; hasta un observador poco experimentado saltaría con entusiasmo cuando recorre con el telescopio las Pléyades, con sus estrellas color azul verdoso enredadas en telarañas de polvo de diamante, o las Híades, cuyas estrellas varían en color desde el blanco mate hasta un amarillo apagado.
Las Híades
Hertzsprung utilizó los cúmulos como muestras de laboratorio con las que podía buscar una relación entre los colores y los brillos intrínsecos de las estrellas. Halló tal relación: la mayoría de las estrellas de ambos cúmulos caían en dos líneas suavemente curvadas. Esto, en forma de gráfico, fue el primer esbozo de un árbol de estrellas que desde entonces ha sido llamado diagrama Hertzsprung-Russell.
El progreso en física, mientras tanto, estaba bloquedado por una barrera aparentemente insuperable. Esto era literal: el agente responsable era conocido como barrera de Coulomb, y por un tiempo frustó los esfuerzos de las físicos teóricos para copmprender como la fusión nuclear podía producir energía en las estrellas.
La línea de razonamiento que conducía a esa barrera era impecable. Las estrellas están formadas en su mayor parte por hidrógeno. (Esto se hace evidente en el estudio de sus espectros.) El núcleo del átomo de Hidrógeno consiste en un solo protón, y el protón contiene casi toda la masa del átomo. (Sabemos esto por los experimentos de Rutherford). Por tanto, el protón también debe contener casi toda la energía latente del átomo de hidrógeno. (Recordemos que la masa es igual a la energía: E = mc2.) En el calor de una estrella, los protones son esparcidos a altas velocidades -el calor intenso significa que las partículas involucradas se mueven a enormes velocidades- y, como hay muchos protones que se apiñan en el núcleo denso de una estrella, deben tener muchísimos choques. En resumen, la energía del Sol y las estrellas, puede suponerse razonablemente, implica las interacciones de los protones. Esta era la base de la conjetura de Eddintong de que la fuente de la energía estelar “difícilmente puede ser otra que la energía subatómica, la cual, como se sabe, existe en abundancia en toda materia”.
Plasma en ebullición en la superficie del Sol
Hasta el momento todo lo que hemos repasado está bien pero, ¿que pasa con la Barrera de Coulomb? Los protones están cargados positivamente; las partículas de igual carga se repelen entre sí; y este obstáculo parecía demasiado grande para ser superado, aun a la elevada velocidad a la que los protones se agitaban en el intenso calor del interior de las estrellas. De acuerdo con la física clásica, muy raras veces podían dos protones de una estrella ir con la rapidez suficiente para romper las murallas de sus campos de fuerza electromagnéticos y fundirse en un solo núcleo. Los cálculos decían que la tasa de colisión de protones no podía bastar para mantener las reacciones de fusión. Sin embargo, allí estaba el Sol, con el rostro radiante, riéndose de las ecuaciones que afirmaban que no podía brillar.
Afortunadamente, en el ámbito nuclear, las reglas de la Naturaleza no se rigen por las de la mecánica de la física clásica, que tienen validez para grandes objetos, como guijarros y planetas, pero pierden esa validez en el reino de lo muy pequeño. En la escala nuclear, rigen las reglas de la indeterminación cuántica. La mecánica cuántica demuestra que el futuro del protón sólo puede predecirse en términos de probabilidades: la mayoría de las veces el protón rebotará en la Barrera de Coulomb, pero de cuando en cuando, la atravesará. Este es el “efecto túnel cuántico”; que permite brillar a las estrellas.
El proceso Triple Alfa que hace posible “fabricar” Carbono
George Gamow, ansioso de explotar las conexiones entre la astronomía y la nueva física exótica a la que era adepto, aplicó las probabilidades cuánticas a la cuestión de la fusión nuclear en las estrellas y descubrió que los protones pueden superar la Barrera de Coulomb. Esta historia es mucho más extensa y nos llevaría hasta los trabajos de Hans Bethe, Edward Teller y otros, así como, al famoso Fred Hoyle y su efecto Triple Alfa y otras maravillas que, nos cuentan la historia que existe desde los átomos a las estrellas del cielo.