“¿Está el Corazón y el Alma de nuestra Galaxia localizadas en Casiopeia? Posiblemente no, pero ahí es donde dos brillantes nebulosa de emisión apodadas Corazón y Alma descansan. La Nebulosa del Corazón, oficialmente catalogada como IC 1805 y visible en la parte superior derecha, tiene una forma en luz visible que nos recuerda a un clásico símbolo de un corazón. La imagen de arriba, sin embargo , fue realizada en luz infrarroja por el recientemente lanzado telescopio WISE. La luz infrarroja penetra bien dentro de las enormes y complejas burbujas creadas por la formación estelar en el interior de estas dos regiones de formación de estrellas.
Los estudios de estrellas y polvo como éstos encontrados en las Nebulosas Corazón y Alma se han focalizado en cómo se forman las estrellas masivas y cómo les afecta su entorno. La luz tarda unos 6.000 años en llegarnos desde estas nebulosas, que juntas abarcan unos 300 años luz.” (APOD)
Ubicadas en el brazo de Perseo de nuestra galaxia, la nebulosa Corazón (derecha) y la nebulosa Alma (izquierda) son muy brillantes (a pesar de eso es necesario un telescopio para verlas) en una region de la galaxia donde muchas estrellas se están formando. IC 1805 (la nebulosa Corazón) es a menudo llamada también como la nebulosa del Perro Corriendo, debido obviamente a la apariencia de la nebulosa vista desde un telescopio.
Es curioso que, mirando en la oscura noche como brillan las estrellas del cielo, nos atrae su titilar engañoso (es la atmósfera terrestre la que hace que lo parezca) y su brillo, Sin embargo, pocos llegan a pensar en lo que verdaderamente está allí ocurriendo. Las transformaciones de fase por fusión no cesan. Esta transformación de materia en energía es consecuencia de la equivalencia materia-energía, enunciada por Albert Einstein en su famosa fórmula E=mc2; donde E es la energía resultante, m es la masa transformada en energía, y c es la velocidad de la luz (300 000 kilómetros por segundo). La cantidad de energía que se libera en los procesos de fusión termonuclear es fabulosa. Un gramo de materia transformado íntegramente en energía bastaría para satisfacer los requerimientos energéticos de una familia mediana durante miles de años.
Imagen de Sirio A (estrella grande) y Sirio B (estrella pequeña abajo a la izquierda) tomadas por el Telescopio Hubble (Créd. NASA). Sirio es la quinta estrella más cercana y tiene una edad de 300, millones de años. Es una estrella blanca de la secuencia principal de tipo espectral A1V con temperatura superficial de 10 000 K y situada a 8,6 años luz de la Tierra. Es una estrella binaria y, de ella, podríamos contar muchas historias. La estrella fue importante en las vidas de Civilizaciones pasadas como, por ejemplo, la egipcia.
Lo que conocemos como estrella es una bola de gas luminosa que, durante una etapa de su vida, produce energía por la fusión nuclear del hidrógeno en helio. El término estrella, por tanto, no sólo incluye estrellas como el Sol, que están en la actualidad quemando hidrógeno, sino también protoestrellas, aún en formación y no lo suficientemente calientes como para que dicha combustión nuclear haya comenzado, y también varios tipos de objetos más evolucionados como estrellas gigantes y supergigantes, que están quemando otros combustibles nucleares, o las enanas blancas y las estrellas nucleares, que están formadas por combustible nuclear gastado.
Seguimos en la Nebulosa del Corazón (otra región)
Las estrellas se forman a partir de enormes nubes de gas y polvo que a veces tienen hasta años-luz de diámetro. Las moléculas de polvo, unidas a las de los gases, se rozan y se ionizan, se calientan y la nube comienza a girar lentamente. El enorme conglomerado, poco a poco se va juntando y la temperatura aumenta. Tal enormidad de materia crea una fuerza gravitatoria que hace contraerse la nube sobre sí misma; su diámetro y su temperatura en el núcleo es tal que se produce la fusión de los protones de hidrógeno que se transforman en un material más complejo, el helio, y ese es el momento en que nace la estrella que, a partir de ahí, puede estar miles de millones de años brillando y produciendo energía termonuclear.
La masa máxima de las estrellas puede rondar las 120 masas solares, es decir, ser 120 veces mayor que nuestro Sol, y por encima de este límite sería destruida por la enorme potencia de su propia radiación. La masa mínima para poder ser una estrella se fija en 0’08 masas solares; por debajo de ella, los objetos no serían lo suficientemente calientes en sus núcleos como para que comience la combustión del hidrógeno y se convertirían en enanas marrones. Las luminosidades de las estrellas varían desde alrededor de medio millón de veces la luminosidad del Sol para las más calientes hasta menos de la milésima de la del Sol para las enanas más débiles. Aunque las estrellas más prominentes visibles a simple vista son más luminosas que el Sol, la mayoría de las estrellas son en realidad más débiles que éste y, por tanto, imperceptibles a simple vista.
* La estrella Sirio es la más brillante y tiene el doble de tamaño que nuestro Sol
Eta Carinae (NGC 3372) tiene 400 veces el diámetro del Sol, se encuentra inmersa en esa Nebulosa que la esconde dentro de grandes “montañas” de gas y el polvo.Eta Carinae es una estrella del tipo variable luminosa azul hipermasiva, situada en la constelación de la Quilla. Su masa está en el límite y oscila entre 100 y 150 veces la masa del Sol. lo que la convierte en una de las estrellas más masivas conocidas en nuestra Galaxia. Asimismo, posee una altísima luminosidad, de alrededor de cuatro millones de veces la del Sol. debido a la gran cantidad de polvo existente a su alrededor, Eta Carinae irradia el 99% de su luminosidad en la parte infrarroja del espectro. lo que la convierte en el objeto más brillante del cielo en el intervalo de longitudes de ondas entre 10 y 20 μm (la millonésima parte de un metro).
* Betelgeuse tiene 1.000 veces el díámetro de nuestro Sol
Pero la estrella más grande conocida es:
VY Canis Majoris, supergigante roja que es aproximadamente 2.100 veces más grande que nuestro Sol.
El brillo de las estrellas (la luz y el calor) es el resultado de la conversión de masa en energía (E = mc2), por medio de reacciones nucleares, las enormes temperaturas de millones de grados de su núcleo, hace posible que los protones de los átomos del hidrógeno se fusionen y se conviertan en átomos de helio. Por cada kilogramo de hidrógeno quemado de esta manera, se convierten en energía aproximadamente siete gramos de masa. De acuerdo con la famosa ecuación de Einstein (arriba reseñada), los siete gramos equivalen a una energía de 6’3 × 1014 julios. Las reacciones nucleares no sólo aportan la luz y el calor de las estrellas, sino que también producen elementos pesados, más complejos que el hidrógeno y el helio que, posteriormente, son distribuidos por el universo, cuando al final de la estrella, esta explota en supernova, lanzando sus capas exteriores al espacio que de esta forma, deja “sembrado” de estos materiales el “vacío” estelar.
Las estrellas pueden clasificarse de muchas maneras. Una manera es mediante su etapa evolutiva: en presecuencia principal, secuencia principal, gigante, supergigante, enana blanca, estrella de neutrones y agujeros negros. Estas últimas son la consecuencia del final de sus vidas como tales estrellas, convirtiéndose en objetos estelares de una u otra clase en función de sus masas originales. Estrellas como nuestro Sol, al agotar el combustible nuclear se transforman en gigantes rojas, explotan en novas y finalmente quedan como enanas blancas. Si la masa es mayor serán estrellas de neutrones, y si aún son mayores, su final está en agujeros negros.
Nuestro Sol, nos parece un objeto enorme, grandioso que, es capaz, con su actividad de enviar a la Tierra luz y calor (radiación) para que podamos vivir los seres que la pueblan. Sin embargo, a pesar de su “grandeza”, la comparamos con otros objetos celestes y, desde luego, nos podemos quedar asombrados de que puedan existir cosas tan grandes como VY Canis Majoris. Podéis observar en ellas su tamaño en comparación con nuestro Sol.
El Color de las estrellas indican de qué materiales están conformadas y, así se compruena mediante el estudio de sus espectros.
Color azul, como la estrella I Cephei
Color blanco-azul, como la estrella Spica
Color blanco, como la estrella Vega
Color blanco-amarillo, como la estrella Proción
Color amarillo, como el Sol
Color naranja, como Arcturus
Color rojo, como la estrella Betelgeuse.
Otra clasificación es a partir de sus espectros, que indican su temperatura superficial. También por el color. Otra manera es en poblaciones I, II y III, que engloban estrellas con abundancias progresivamente menores de elementos pesados, indicando paulatinamente una mayor edad. También evolución estelar y magnitudes aparentes y absolutas y el tipo espectral con la distancia en a. L., es otra de las clasificaciones.
Después de estas clasificaciones genéricas tenemos otras mas particulares y definidas referidas a estrellas binarias, estrellas capullo, con baja velocidad, con envoltura, con exceso de ultravioleta, de alta velocidad, de baja luminosidad, de baja masa, de bario, de bariones, de campo, de carbono, de circonio, de estroncio, de helio, estrella de la población I extrema, de la población intermedia, de la rama gigante asintótica, estrella de litio, de manganeso, de manganeso-mercurio y, viceversa, estrella de metales pesados, de neutrones, estrellas de quarks (hipotética con densidad intermedia entre la estrella de neutrones y el agujero negro), estrella de referencia, de silicio, de tecnecio, de tiempo intermedio, de tipo tardío, de tipo temprano, estrella del polo, estrella doble, estrella enana, estándar, evolucionada, etc.
La luz proveniente de la superficie caliente del Sol pasa a través de la atmósfera solar más fría, es absorbida en parte, por eso llega a nosotros presentando las características líneas oscuras en su espectro. Las líneas oscuras del espectro del sol coinciden con líneas de los espectros de algunos elementos y revelan la presencia de estos elementos en la superficie solar. Las longitudes de onda de las radiaciones se indican en nanometros (nm).
El Sol
De qué está hecho el Sol
La posición e intensidad de las líneas oscuras del espectro solar han permitido establecer que casi las tres cuartas partes de la masa del Sol son hidrógeno, el elemento más simple. Casi todo el resto es helio, el segundo elemento más simple. En suma, entre hidrógeno y helio suman alrededor del 98 por ciento de la masa solar. El 2% restante está compuesto, aproximadamente, por la siguiente proporción de elementos: 0,8% de oxígeno, 0,6% de carbono, 0,2% de neón, 0,15% de nitrógeno, 0,05% de magnesio, y, en menor porcentaje aún, hierro, sodio y silicio.
La composición química de una estrella varía según la generación a la que pertenezca. Cuánto más antigua sea, más baja será su metalicidad. Al inicio de su vida una estrella similar al Sol contiene aproximadamente 75% de hidrógeno y 23% de helio. El 2% restante lo forman elementos más pesados, aportados por estrellas que finalizaron su ciclo antes que ella. Estos porcentajes son en masa; en volumen, la relación es 90% de hidrógeno y 10% de helio.
En la Vía Láctea las estrellas se clasifican según su riqueza en metales en dos grandes grupos. Las que tienen una cierta abundancia se denominan de la población I, mientras que las estrellas pobres en metales forman parte de la población II. Normalmente la metalicidad está directamente relacionada con la edad de la estrella. A más elementos pesados, más joven es la estrella.
Un equipo japones de astrónomos han descubierto una fuerte correlación entre la metalicidad del disco de polvo protoplanetario y su longevidad. A partir de éste hallazgo proponen que las estrellas de baja metalicidad son menos propensas a tener planetas, incluyendo gigantes gaseosos, debido a la corta vida de los discos protoplanetarios.
La composición de una estrella evoluciona a lo largo de su ciclo, aumentando su contenido en elementos pesados en detrimento del hidrógeno, sobre todo. Sin embargo, las estrellas sólo queman un 10% de su masa inicial, por lo que globalmente su metalicidad no aumenta mucho. Además, las reacciones nucleares sólo se dan en las regiones centrales de la estrella. Este es el motivo por el que cuando se analiza el espectro de una estrella lo que se observa es, en la mayoría de los casos, la composición que tenía cuando se formó. En algunas estrellas poco masivas los movimientos de convección penetran mucho en el interior, llegando a mezclar material procesado con el original. Entonces se puede observar incluso en la superficie parte de ese material procesado. La estrella presenta, en esos casos, una composición superficial con más metales.
La variedad de estrellas es grande y para los estudiosos fascinantes. Tal diversidad es debida a la evolución que desde su formación tiene cada tipo de estrella en función de su masa y de los gases y polvo cósmico que la forman y los que se crean en su núcleo (horno solar) a miles de millones de grados de temperatura capaces de transformar materiales simples como el hidrógeno hacia una gama más compleja y pesada que, finalmente, mediante la explosión de supernova (más temperatura), arroja al espacio materiales que, a su vez, forman nuevas estrellas de 2ª y 3ª generación con materiales complejos. La vida en nuestro planeta pudo surgir gracias a que en la Tierra había abundancia de estos materiales creados en las estrellas. Podemos decir, sin temor a equivocarnos que nosotros mismos estamos hechos del material creado en las estrellas lejanas que posiblemente, hace miles de millones de años explotó en supernova a millones de años luz de nuestro Sistema Solar.
Pero el Universo se rige por lo que llamamos las Fuerzas y Constantes Fundamentales de la Naturaleza, tenemos que decir que, precisamente, estas constantes son las que tienen el mérito de que las estrellas brillen en las galaxias y de que nosotros estemos aquí para mirar a los cielos y contemplar su belleza.
Las constantes fundamentales (constantes universales) están referidas a los parámetros que no cambian a lo largo del universo. La carga de un electrón, la velocidad de la luz en el espacio vacío, la constante de Planck, la constante gravitacional, la constante eléctrica y magnética se piensa que son todos ejemplos de constantes fundamentales.
Las fuerzas de la naturaleza que gobiernan la electricidad, el magnetismo, la radiactividad y las reacciones nucleares están confinadas a un “mundobrana” tridimensional, mientras que la gravedad actúa en todas las dimensiones y es consecuentemente más débil.
Las fuerzas fundamentales
Tipo de Fuerza
Alcance en m
Fuerza relativa
Función
Nuclear fuerte
<3×10-15
1041
Une Protones y Neutrones en el núcleo atómico por medio de Gluones.
Nuclear débil
< 10-15
1028
Es responsable de la energía radiactiva producida de manera natural. Portadoras W y Z–
Electromagnetismo
Infinito
1039
Une los átomos para formar moléculas; propaga la luz y las ondas de radio y otras formas de energías eléctricas y magnéticas por medio de los fotones.
Gravitación
Infinito
1
Mantiene unidos los planetas del Sistema Solar, las estrellas en las galaxias y, nuestros pies pegados a la superficie de la Tierra. La Gravedad está mediada por el Bosón (hipotético) llamado gravitón.
Unas pueden ser más constantes naturales que otras, pero lo cierto es que, de momento, han servido como herramientas eficaces.
La última lección importante que aprendemos de la manera en que números puros como α (alfa) definen el mundo, es el verdadero significado de que los mundos sean diferentes. El número puro que llamamos constante de estructura fina, e indicamos con α, es como hemos dicho antes, una combinación de e, c y h(el electrón, la velocidad de la luz y la constante de Planck). Inicialmente, podríamos estar tentados a pensar que un mundo en el que la velocidad de la luz fuera más lenta sería un mundo diferente. Pero sería un error. Si e, h y c cambian de modo que los valores que tienen en unidades métricas (o cualesquiera otras) fueran diferentes cuando las buscamos en nuestras tablas de constantes físicas, pero el valor de α permaneciera igual; este nuevo mundo sería observacionalmente indistinguible de nuestro mundo. Lo único que cuenta en la definición del mundo son los valores de las constantes adimensionales de la naturaleza.
Si pudiéramos coger una Gran Nave superlumínica y recorriéramos el espacio interestelar paseando por las distintas regiones del Universo, veríamos que, todo es igual en todas partes: Cúmulos y supercúmulos de Galaxias, Galaxias cuajadas de estrellas en cúmulos y sueltas con sus sistemas planetarios, púlsares de giros alucinantes, magnéteres creando inmensos capos electromagnéticos, agujeros negros que se tragan todo lo que traspasa el Horizonte de sucesos, Hermosas y brillantes Nebulosas de las que surgen las nuevas estrellas.
Está claro que pensar siquiera en que en nuestro universo, dependiendo de la región en la que nos encontremos, habrá distintos leyes físicas, sería pensar en un universo chapuza. Lo sensato es pensar como Einstein y creer que en cualquier parte del universo rigen las mismas leyes físicas, hasta que no se encuentre pruebas reales a favor de lo contrario, los científicos suponen con prudencia que, sea cual fueren las causas responsables de las pautas que llamamos “Leyes de la Naturaleza”, es mucho más inteligente adoptar la creencia de la igualdad física en cualquier parte de nuestro universo por muy remota que se encuentre; los elementos primordiales que lo formaron fueron siempre los mismos,
Cuando los físicos empezaron a apreciar el papel de las constantes en el dominio cuántico y explotar la nueva teoría de la gravedad de Einstein para describir el universo en conjunto, las circunstancias eran las adecuadas para que alguien tratara de casarlas.
Sí, el Universo podría ser considerado como la mayor Obra de Arte que, a su vez, es capaz de generar otras Obras de Artes que, en alguna ocasión, dan mucho que pensar, ya que, el surgir de la vida partierndo del simple hidrógeno que evoluciona en las estrellas del cielo…es ¡Increíble! pero, sin embargo, nada más cierto hay.
Así entró en escena Arthur Stanley Eddington: un extraordinario científico que había sido el primero en descubrir cómo se alimentaban las estrellas a partir de reacciones nucleares. También hizo importantes contribuciones a nuestra comprensión de las galaxias, escribió la primera exposición sistemática de la teoría de la relatividad general de Einstein y fue el responsable de la expedición que durante un eclipse de Sol, pudo confirmar con certeza la predicción de la relatividad general que debería desviar la luz estelar que venía hacia la Tierra en aproximadamente 1’75 segundos de arco cuando pasaba cerca de la superficie solar, cuyo espacio estaría curvado debido a la gravedad generada por la masa del Sol. En aquella expedición, el equipo de Eddington hizo una exitosa medición del fenómeno desde la isla Príncipe, que confirmó que Einstein tenía razón y que su teoría predecía de manera exacta la medida de curvatura del espacio en función de la masa del objeto estelar que genera la gravitación distorsionando el espaciotiempo a su alrededor.
Cuando publiqué este trabajo decía:
Claro que estamos en el Año Internacional de Luz, y, no debemos perder de vista que la luz tiene tanto importancia para vida como el agua. Sin luz tendríamos un planeta oscuro con una sola noche eterna, frío de tenebroso, sin esos bellos rincones que se pueden conformar cuando la luz, incide en una montaña, en el bosque, en el horizonte del Océano, o, simplemente se refleja en la blanca nieve, en las olas del Mar o en una atronadora catarata.
La luz Natural es un don que nos dio la Naturaleza y hace posible que esa luz y ese calor que el Sol nos envía, haga posible la vida en el planeta, se produzca la tan necesario fotosíntesis, y muchos más beneficiosos fenómenos que, no siempre sabemos valorar en su justa medida.
Los quarks al otro lado del espejo. Científicos del Laboratorio Nacional Jefferson Lab (EEUU) han verificado la rotura de la simetría de paridad (también llamada simetría del espejo) en los quarksmediante el bombardeo de núcleos de deuterio con electrones de alta energía. Los núcleos de deuterioestán formados por un protón y un neutrón, es decir, por tres quarks arriba y tres quarks abajo. La dispersión inelástica entre un electrón y un quark, es decir, su colisión, está mediada por la interacción electrodébil, tanto por la fuerza electromagnética como por la fuerza débil. Esta última es la única interacción fundamental que viola la simetría de paridad.
Tenemos que saber cómo la violación de la simetría CP (el proceso que originó la materia) aparece, y, lo que es más importante, hemos de introducir un nuevo fenómeno, al que llamamos campo de Higgs, para preservar la coherencia matemática del modelo estándar. La idea de Higgs, y su partícula asociada, el bosón de Higgs, cuenta en todos los problemas que he mencionado antes. Parece, con tantos parámetros imprecisos (19) que, el modelo estándar se mueve bajo nuestros pies.
Entre los teóricos, el casamiento de la relatividad general y la teoría cuántica es el problema central de la física moderna. A los esfuerzos teóricos que se realizan con ese propósito se les llama “supergravedad”, “súpersimetría”, “supercuerdas” “teoría M” o, en último caso, “teoría de todo o gran teoría unificada”.
La Física nos lleva de vez en cuando a realizar viajes alucinantes. Se ha conseguido relacionar y vibrar a dos diamantes en el proceso conocido como entrelazamiento cuántico. El misterioso proceso, al que el propio Eisntein no supo darle comprensión completa, supone el mayor avance la fecha y abre las puertas de la computación cuántica. que nos hagamos una idea del hallazgo, en 1935 Einstein lo llegó a denominar la “acción fantasmal a distancia”. Un efecto extraño en donde se conecta un objeto con otro de manera que incluso si están separados por grandes distancias, una acción realizada en uno de los objetos afecta al otro.
Ahí tenemos unas matemáticas exóticas que ponen de punta hasta los pelos de las cejas de algunos de los mejores matemáticos del mundo (¿y Perelman? ¿Por qué nos se ha implicado?). Hablan de 10, 11 y 26 dimensiones, siempre, todas ellas espaciales menos una que es la temporal. Vivimos en cuatro: tres de espacio (este-oeste, norte-sur y arriba-abajo) y una temporal. No podemos, ni sabemos o no es posible instruir, en nuestro cerebro (también tridimensional), ver más dimensiones. Pero llegaron Kaluza y Klein y compactaron, en la longitud de Planck las dimensiones que no podíamos ver. ¡Problema solucionado! Pero se sigue hablando de partículas supersimétricas.
Hablamod de la longitud de Planck, definiéndola como aquella longitud que para cierta masa su radio de Schwarzschild y su longitud de onda Compton tendrán los mismos valores. Esto nos conduce a la siguiente fórmula:
y cuyo valor usando las mediciones que hoy se tienen para las constantes físicas resulta ser (en la página 480 de su trabajo, Planck obtiene 4.13·10-33 centímetros):
La puerta de las dimensiones más altas quedó abierta y, a los teóricos, se les regaló una herramienta maravillosa. En el Hiperespacio, todo es posible. Hasta el matrimonio de la relatividad general y la mecánica cuántica, allí si es posible encontrar esa soñada teoría de la Gravedad cuántica.
Así que, los teóricos, se han embarcado a la búsqueda de un objetivo audaz: buscan una teoría que describa la simplicidad primigenia que reinaba en el intento calor del universo en sus primeros tiempos, una teoría carente de parámetros, donde estén presentes todas las respuestas. Todo debe ser contestado a partir de una ecuación básica.
¿Dónde radica el problema?
El problema está en que la única teoría candidata no tiene conexión directa con el mundo de la observación, o no lo tiene todavía si queremos expresarnos con propiedad. La energía necesaria para ello, no la tiene ni la nueva capacidad energético del acelerador de partículas LHC . Ni sumando todos los aceleradores de partículas de nuestro mundo, podríamos lograr una energía de Planck (1019 GeV), que sería necesaria para poder llegar hasta las cuerdas vibrantes de la Teoría. Ni en las próximas generaciones seremos capaces de poder utilizar tal energía.
La verdad es que, la teoría que ahora tenemos, el Modelo Estándar, concuerda de manera exacta con todos los datos a bajas energías y contesta cosas sin sentido a altas energías. Sabemos sobre las partíoculas elementales que conforman la materia bariónica, es decir, los átomos que se juntan para formar moléculas, sustancias y cuerpos… ¡La materia! Pero, no sabemos si, pudiera haber algo más elemental aún más allá de los Quarks y, ese algo, pudieran ser esas cuerdas vibrantes que no tenemos capacidad de alcanzar.
¡Necesitamos algo más avanzado!
Se ha dicho que la función de la partícula de Higgs es la de dar masa a las Cuando su autor lanzó la idea al mundo, resultó además de nueva muy extraña. El secreto de todo radica en conseguir la simplicidad: el átomo resulto ser complejo lleno de esas infinitesimales partículas electromagnéticas que bautizamos con el nombre de electrones, resultó que tenía un núcleo que contenía, a pesar de ser tan pequeño, casi toda la masa del átomo. El núcleo, tan pequeño, estaba compuesto de otros objetos más pequeños aún, los quarks que estaban instalados en nubes de otras partículas llamadas gluones y, ahora, queremos continuar profundizando, sospechamos, que después de los quarks puede haber algo más.
Con 7 TeV fue suficiente para encontrar la famosa partícula de Higgs pero…
Bueno, la idea nueva que surgió es que el espacio entero contiene un campo, el campo de Higgs, que impregna el vacío y es el mismo en todas partes. Es decir, que si miramos a las estrellas en una noche clara estamos mirando el campo de Higgs. Las partículas influidas por este campo, toman masa. Esto no es por sí mismo destacable, pues las partículas pueden tomar energía de los campos (gauge) de los que hemos comentado, del campo gravitatorio o del electromagnético. Si llevamos un bloque de plomo a lo alto de la Torre Eiffel, el bloque adquiriría energía potencial a causa de la alteración de su posición en el campo gravitatorio de la Tierra.
Como E=mc2, ese aumento de la energía potencial equivale a un aumento de la masa, en este caso la masa del Sistema Tierra-bloque de plomo. Aquí hemos de añadirle amablemente un poco de complejidad a la venerable ecuación de Einstein. La masa, m, tiene en realidad dos partes. Una es la masa en reposo, m0, la que se mide en el laboratorio cuando la partícula está en reposo. La partícula adquiere la otra parte de la masa en virtud de su movimiento (como los protones en el acelerador de partículas, o los muones, que aumentan varias veces su masa cuando son lanzados a velocidades cercanas a c) o en virtud de su energía potencial de campo. Vemos una dinámica similar en los núcleos atómicos. Por ejemplo, si separamos el protón y el neutrón que componen un núcleo de deuterio, la suma de las masas aumenta.
Peor la energía potencial tomada del campo de Higgs difiere en varios aspectos de la acción de los campos familiares. La masa tomada de Higgs es en realidad masa en reposo. De hecho, en la que quizá sea la versión más apasionante de la teoría del campo de Higgs, éste genera toda la masa en reposo. Otra diferencia es que la cantidad de masa que se traga del campo es distinta para las distintas partículas.
Los teóricos dicen que las masas de las partículas de nuestro modelo estándar miden con qué intensidad se acoplan éstas al campo de Higgs.
La influencia de Higgs en las masas de los quarks y de los leptones, nos recuerda el descubrimiento por Pieter Zeeman, en 1.896, de la división de los niveles de energía de un electrón cuando se aplica un campo magnético al átomo. El campo (que representa metafóricamente el papel de Higgs) rompe la simetría del espacio de la que el electrón disfrutaba.
Hasta ahora no tenemos ni idea de que reglas controlan los incrementos de masa generados por el Higgs(de ahí la expectación creada por las nuevas energías del acelerador de partículas LHC). Pero el problema es irritante: ¿por qué sólo esas masas -Las masas de los W+, W–, y Zº, y el up, el down, el encanto, el extraño, el top y el bottom, así como los leptones – que no forman ningún patrón obvio?
Las masas van de la del electrón 0’0005 GeV, a la del top, que tiene que ser mayor que 91 GeV. Deberíamos recordar que esta extraña idea (el Higgs) se empleó con mucho éxito para formular la teoría electrodébil (Weinberg-Salam). Allí se propuso el campo de Higgs como una forma de ocultar la unidad de las fuerzas electromagnéticas y débiles. En la unidad hay cuatro partículas mensajeras sin masa -los W+, W–, Zº y fotón que llevan la fuerza electrodébil. Además está el campo de Higgs, y, rápidamente, los W y Z chupan la esencia de Higgs y se hacen pesados; el fotón permanece intacto. La fuerza electrodébilse fragmenta en la débil (débil porque los mensajeros son muy gordos) y la electromagnética, cuyas propiedades determina el fotón, carente de masa. La simetría se rompe espontáneamente, dicen los teóricos. Prefiero la descripción según la cual el Higgs oculta la simetría con su poder dador de masa.
Las masas de los W y el Z se predijeron con éxito a partir de los parámetros de la teoría electrodébil. Y las relajadas sonrisas de los físicos teóricos nos recuerdan que ^t Hooft y Veltman dejaron sentado que la teoría entera esta libre de infinitos.
Todos los intentos y los esfuerzos por hallar una pista del cuál era el origen de la masa fallaron. Feynman escribió su famosa pregunta: “¿Por qué pesa el muón?”. Ahora, por lo menos, tenemos una respuesta parcial, en absoluto completa. Una vez potente y segura nos dice: “!Higgs¡” Durante más de 60 años los físicos experimentadores se rompieron la cabeza con el origen de la masa, y ahora el campo Higgspresenta el problema en un contexto nuevo; no se trata sólo del muón. Proporciona, por lo menos, una fuente común para todas las masas. La nueva pregunta feynmariana podría ser: ¿Cómo determina el campo de Higgs la secuencia de masas, aparentemente sin patrón, que da a las partículas de la matería?
La variación de la masa con el estado de movimiento, el cambio de masa con la configuración del sistema y el que algunas partículas (el fotón seguramente y los neutrinos posiblemente) tengan masa en reposo nula son tres hechos que ponen entre dicho que el concepto de masa sea una tributo fundamental de la materia. Habrá que recordar aquel cálculo de la masa que daba infinito y nunca pudimos resolver; los físicos sólo se deshicieron del “renormalizándolo”, ese truco matemático que emplean cuando no saben hacerlo bien.
Ese es el problema de trasfondo con el que tenemos que encarar el problema de los quarks, los leptones y los vehículos de las fuerzas, que se diferencian por sus masas. Hace que la historia de Higgs se tenga en pie: la masa no es una propiedad intrínseca de las partículas, sino una propiedad adquirida por la interacción de las partículas y su entorno.
La idea de que la masa no es intrínseca como la carga o el espín resulta aún más plausible por la idílica idea de que todos los quarks y fotones tendrían masa cero. En ese caso, obedecerían a una simetría satisfactoria, la quiral, en la que los espines estarían asociados para siempre con su dirección de movimiento. Pero ese idilio queda oculto por el fenómeno de Higgs.
¡Ah, una cosa más! Hemos hablado de los bosonesgauge y de su espín de una unidad; hemos comentado también las partículas fermiónicas de la materia (espin de media unidad). ¿Cuál es el pelaje de Higgs? Es un bosón de espin cero. El espín supone una direccionalidad en el espacio, pero el campo de Higgs de masa a los objetos dondequiera que estén y sin direccionalidad. Al Higgs se le llama a veces “bosónescalar” [sin dirección] por esa razón.
Pues justamente esto es lo que ocurre en la naturaleza cuando entra en acción la fuerza nuclear débil. Un quark tipo u cambia a uno tipo d por medio de la interacción débil así
Las otras dos partículas que salen son un anti-electrón y un neutrino. Este mismo proceso es el responsable del decaimiento radiactivo de algunos núcleos atómicos. Cuando un neutrón se convierte en un protón en el decaimiento radiactivo de un núcleo, aparece un electrón y un neutrino. Este es el origen de la radiación beta (electrones).
La interacción débil, recordareis, fue inventada por E. Fermi para describir la desintegración radiactiva de los núcleos, que era básicamente un fenómeno de poca energía, y a medida que la teoría de Fermi se desarrolló, llegó a ser muy precisa a la hora de predecir un enorme número de procesos en el dominio de energía de los 100 MeV. Así que ahora, con las nuevas tecnologías y energías del LHC, las esperanzas son enormes para, por fin, encontrar el bosónHiggs origen de la masa… y algunas cosas más.
Hay que responder montones de preguntas. ¿Cuáles son las propiedades de las partículas de Higgs y, lo que es más importante, cuál es su masa? ¿Cómo reconoceremos una si nos la encontramos en una colisión de LHC? ¿Cuántos tipos hay? ¿Genera el Higgs todas las masas, o solo las hace incrementarse? ¿Y, cómo podemos saber más al respecto? Como s su partícula, nos cabe esperar que la veamos ahora después de gastar más de 50.000 millones de euros en los elementos necesarios para ello.
También a los cosmólogos les fascina la idea de Higgs, pues casi se dieron de bruces con la necesidad de tener campos escalares que participasen en el complejo proceso de la expansión del Universo, añadiendo, pues, un peso más a la carga que ha de soportar el Higgs.
El campo de Higgs, tal y como se lo concibe ahora, se puede destruir con una energía grande, o temperaturas altas. Estas generan fluctuaciones cuánticas que neutralizan el campo de Higgs. Por lo tanto, el cuadro que las partículas y la cosmología pintan juntas de un universo primitivo puso y de resplandeciente simetría es demasiado caliente para Higgs. Pero cuando la temperatura cae bajo los 10′5grados kelvin o 100 GeV, el Higgs empieza a actuar y hace su generación de masas. Así por ejemplo, antes de Higgs teníamos unos W, Z y fotones sin masa y la fuerza electrodébil unificada.
El Universo se expande y se enfría, y entonces viene el Higgs (que engorda los W y Z, y por alguna razón ignora el fotón) y de ello resulta que la simetría electrodébil se rompe.
Tenemos entonces una interacción débil, transportada por los vehículos de la fuerza W+, W–, Z0, y por otra parte una interacción electromagnética, llevada por los fotones. Es como si para algunas partículas del campo de Higgs fuera una especie de aceite pesado a través del que se moviera con dificultad y que las hiciera parecer que tienen mucha masa. Para otras partículas, el Higgs es como el agua, y para otras, los fotones y quizá los neutrinos, es invisible.
De todas las maneras, era tanta la ignorancia que teniamos sobre el origen de la masa que, nos agarrabamos como a un clavo ardiendo el que se ahoga, en este caso, a la partícula de Higgs que, algunos, llegaron a llamar, de manera un poco exagerada:
¡La partícula Divina!
¡Ya veremos en que termina todo esto! Y que explicación se nos va ofreciendo desde el CERN en cuanto al auténtico escenario que según ellos, existe en el Universo para que sea posible que las partículas tomen su masa de ese oceáno de Higgs, en el que, según nuestro amigo Ramón Márquez, las partículas se frenan al interaccionar con el mismo y toman su masa, el lo llama el “efecto frenado”.
Peter Higgs, de la Universidad de Edimburgo, introdujo la idea en la física de partículas. La utilizaron los teóricos Steven Weinberg y Abdus Salam, que trabajaban por separado, para comprender como se convertía la unificada y simétrica fuerza electrodébil, transmitida por una feliz familia de cuatro partículas mensajeras de masa nula, en dos fuerzas muy diferentes: la QED con un fotón carente de masa y la interacción débil con sus W+, W– y Z0 de masa grande. Weinberg y Salam se apoyaron en los trabajos previos de Sheldon Glasgow, quien tras los pasos de Julian Schwinger, sabía sólo que había una teoría electrodébil unificada, coherente, pero no unió todos los detalles. Y estaban Jeffrey Goldstone y Martines Veltman y Gerard’t Hooft. También hay otras a los que había que mencionar, pero lo que siempre pasa, quedan en el olvido de manera muy injusta. Además, ¿Cuántos teóricos hacen falta para encender una bombilla?
La verdad es que, casi siempre, han hecho falta muchos. Recordemos el largo recorrido de los múltiples detalle sueltos y físicos que prepararon el terreno para que, llegara Einstein y pudiera, uniéndolo todos, exponer su teoría relativista. (Mach, Maxwell, Lorentz… y otros).
Sobre la idea de Peter Higgs, Veltman, uno de sus arquitectos, decía que era una alfombra bajo la que barríamos nuestra ignorancia. Glasgow era menos amable y lo llamó retrete donde echamos las incoherencias de nuestras teorías actuales. La objeción principal: que no teníamos la menor prueba experimental parece que se esfumó en 2012 cuando “encontraron” la dichosa partícula.
Ahora, por fin la tenemos con el LHC, y ésta pega, se la traspasamos directamente a la teoría de supercuerdas y a la materia oscura que, de momento, están en la sombra y no brillan con luz propia, toda vez que ninguna de ellas ha podido ser verificada, es decir, no sabemos si el Universo atiende a lo que en ellas se predice.
El modelo estándar es lo bastante fuerte para decirnos que la partícula de Higgs de menor masa (podría haber muchas) debe “pesar” menos de 1 TeV. ¿Por qué? Si tiene más de 1 TeV, el modelo estándar se vuelve incoherente y tenemos la crisis de la unitariedad.
Después de todo esto, llego a la conclusión de que, el campo de Higgs, el modelo estándar y nuestra idea de cómo pudo surgir el Universo dependen de que se encuentre el bosón de Higgs, Se averigue si realmente existe la materia oscura, Sepamos llegar al fondo de la Teoría de Cuerdas y confirmarla, Poder crear esa Teoría cuántica de la Gravedad…Y, en fín, seguir descubriendo los muchos misterios que no nos ejan saber lo que el Universo es. Ahora, por fin, tenemos grandes aceleradores y Telescopisos con la energía necesaria y las condiciones tecnológicas suficientes para que nos muestretodo eso que queremos saber y nos digan dónde reside esa verdad que incansables perseguimos.
El Bosón de Higss fue hallado pero todo… sigue igual.
¡La confianza en nosotros mismos, no tiene límites! Pero, no siempre ha estado justificada.
“Un huracán de materia oscura se dirige al sistema solar”
La corriente S1 contiene un flujo de materia oscura que se mueve a gran velocidad y que podría ser detectada por los científicos – C. O’Hare; NASA/Jon Lomberg
Un «huracán» de materia oscura se dirige hacia la Tierra a toda velocidad
Puede ser la ocasión que estábamos esperando para cazar, por fin, a la materia oscura. Y es que un auténtico «huracán» de este esquivo tipo de materia, que hoy solo podemos detectar gracias a su gravedad, se está dirigiendo a toda velocidad hacia nosotros. El increíble hallazgo, llevado a cabo por Ciran O´Hare, de la Universidad de Zaragoza, se acaba de publicar en Physical Review D.
Según la investigación, todo nuestro Sistema Solar está a punto de «hundirse» en los restos de una antigua galaxia, devorada hace mucho por la Vía Láctea. Y sabemos que todas las galaxias están rodeadas de materia oscura. Por ejemplo, cuando el Sol y sus planetas se mueven alrededor de nuestra Vía Láctea, todo nuestro sistema viaja a través del halo de materia oscura a una velocidad de 230 km/s. La materia oscura, por lo tanto, nos aparece como un «viento» de alta velocidad.
Pero el año pasado, el satélite europeo Gaia midió los movimientos de una serie de estrellas cercanas, y al hacerlo detectó una «corriente» previamente desconocida, que recibió el nombre de S1. Los cálculos posteriores apuntaron a que se trataba de los restos de una pequeña galaxia enana, canibalizada por la Vía Láctea largo tiempo atrás.
10.000 millones de masas solares, rumbo al Sol
Y ahora, en el nuevo estudio, O´Hare se ha encontrado con que diez mil millones de masas solares de materia oscura se están moviendo a lo largo de S1 y, lo más importante, lo hacen directamente hacia nuestra posición.
Cuando toda esa materia oscura nos alcance, golpeará al Sol, y a cualquier detector de materia oscura de la Tierra, a velocidades superiores a los 500 kilómetros por segundo (km/s), el doble de rápido que el viento «estandar» de materia oscura de nuestra galaxia. O´Hare y sus colegas lo han denominado «huracán de materia oscura» y, en su opinión, supone una ocasión de oro ara detectarla que no podemos permitirnos el lujo de perder.
A partir de este punto, el estudio trata de predecir cómo este inesperado «vendaval oscuro» podría afectar a los diferentes experimentos de detección directa de materia oscura, que se centran en varios tipos de posibles partículas.
Una de las más candidatas más populares es una partícula masiva de interacción debil (WIMP) cuya masa oscilaría entre unas pocas y cientos de veces la masa del protón, y que al chocar con otros átomos produciría un retroceso nuclear visible en el detector. Varios de estos detectores, a base de xenón líquido y cristales de yoduro de sodio, esperan actualmente (hasta ahora en vano) poder detectar por primera vez una partícula de materia oscura.
Para realizar sus predicciones, O´Hare y sus colegas se centraron en uno de los experimentos más recientes, el LZ, ubicado en la Instalación de Investigación Subterránea de Sanford, en Dakota del Sur. Y hallaron que la «corriente» podría detectarse por encima del viento estandar si ésta constituyera el 10% de la materia oscura «local» y si las partículas que la forman tuvieran entre cinco y 25 veces la masa del protón.
De este modo, escriben los autores, a medida que la corriente S1 golpeara el Sistema Solar, su estructura contrarrotativa aumentaría dramáticamente la cantidad de materia oscura que parece provenir del cielo en forma de «viento estándar». De hecho, toda esa materia extra debería producir una estructura similar a un «anillo revelador» alrededor de ese viento, algo que los detectores direccionales de materia oscura podrían detectar muy fácilmente.
Por otra parte, si resultara que las partículas de materia oscura no fueran WIMPS, sino axiones, los signos del «huracán» serían aún más evidentes. Los axiones, que en los últimos años están ganando cada vez más partidarios entre la comunidad científica, serían partículas exóticas extremadamente ligeras, capaces de convertirse en fotones en presencia de campos magnéticos intensos.
En definitiva, y sea cual sea el tipo de partícula que resulte ser el componente fundamental de la materia oscura, la corriente S1 brinda una oportunidad sin precedentes para detectarla. O´Hare y sus colegas creen que el «huracán» que se acerca aumentará «sustancialmente» las perspectivas de detección de materia oscura. Si tiene razón, se podrá resolver uno de las misterios más difíciles y complejos del Universo.
La densidad de energía-momento en la teoría de la relatividad se representa por cuadritensor energía-impulso. La relación entre la presencia de materia y la curvatura debida a dicha materia viene dada por la ecuación de campo de Einstein. Esa aparente sencilla ecuación de Einstein nos habla de la geometría del espacio y, si tenemos que hacer justicia al gran pensador, habrá que reconocer que con su teoría de la relatividad general nació la moderna cosmología. Sus ecuaciones no sólo nos habló de agujeros negros, también nos dice cómo funciona la Naturaleza, como es el Universo, las implicaciones que surgen de la presencia de materia en el espacio…
Los vientos estelares emitidos por las estrellas jóvenes, distorsionan el material presente en las Nebulosas, y, de la misma manera, en presencia de masa se distosiona el espacio-tiempo. Estamos en un Universo dinámico en el que nada está quieto, todo se mueve, todo es energía. Las cosas se transforman y todo cambia. Lo que ayer fue un objeto brillante y luminoso, mañana pudiera ser un objeto oscuro y denso con una fuerza de atracción irresistible.
La teoría cuántica de campos en espacio-tiempo curvo es una extensión de la teoría cuántica de campos estándar en la que se contempla la posibilidad de que el espacio-tiempo por el cual se propaga el campo no sea necesariamente plano (descrito por la métrica de Minkouski). Una predicción genérica de esta teoría es que pueden generarse partículas debido a campos gravitacionales dependientes del tiempo, o a la presencia de horizontes.
La teoría cuántica de campos en espacio-tiempo curvo puede considerarse como una primera aproximación de gravedad cuántica. El paso siguiente consiste en una gravedad semiclásica, en la que se tendrían en cuenta las correcciones cuánticas, debidas a la presencia de materia, sobre el espacio-tiempo.
En un espacio euclideo convencional un objeto físico finito está contenido dentro de un ortoedro mínimo, cuyas dimensiones se llaman ancho, largo y profundida o altura. El espacio físico a nuestro alrededor es tridimensional a simple vista. Sin embargo, cuando se consideran fenómenos físicos la gravedad, la teoría de la relatividad nos lleva a que el universo es un ente tetra-dimensional que incluye tanto dimensiones espaciales como el tiempo como otra dimensión. Diferentes observadores percibirán diferentes “secciones espaciales” de este espacio-tiempo por lo que el espacio físico es algo más complejo que un espacio euclídeo tridimiensional.
En las teorías actuales no existe una razón clara para que el de dimensiones espaciales sean tres. Aunque existen ciertas instuiciónes sobre ello: Ehrenfest (aquel gran físico nunca reconocido) señaló que en cuatro o más dimensiones las órbitas planetarias cerradas, por ejemplo, no serían estables (y por ende, parece difícil que en un universo así existiera vida inteligente preguntándose por la tridimensionalidad espacial del universo).
Es cierto que en nuestro mundo tridimensional y mental existen cosas misteriosas. A veces me pregunto que importancia puede tener un nombre. (“¿Qué hay en un nombre? Lo que llamamos rosa, con cualquier otro nombre ¿tendría el mismo dulce aroma”? (-Shakespeare, Romeo y Julieta-) La rosa da sustento a muchos otros tópicos literarios: se marchita como símbolo de la fugacidad del tiempo y lo efímero de la vida humana; y provoca la prisa de la doncella para recogerla mientras pueda. Por otro lado, le advierte de que hay que tener cuidado: no hay rosa sin espinas.
También el mundo de la poesía es un tanto misterioso y dicen, que… “Los poetas hablan consigo mismo en voz baja y el mundo les oye por casualidad.” Tópicos ascéticos, metafísicos o existenciales: Quiénes somos, de dónde venimos, a dónde vamos, las llamadas preguntas trascendentales, propias de la cosmología, la antropología y la metafísica. Los poetas siempre han buscado un mundo irreal y han idealizado el enaltecido mucho más allá de este mundo.
Como siempre me pasa, me desvío del tema que en este trabajo nos ocupa: El espacio-tiempo.
Estamos inmersos en el espacio-tiempo curvo y tetradimensional de nuestro Universo. Hay que entender que el espacio–tiempo es la descripción en cuatro dimensiones del universo en la que la posición de un objeto se especifica por tres coordenadas en el espacio y una en el tiempo. De acuerdo con la relatividadespecial, no existe un tiempo absoluto que pueda ser medido con independencia del observador, de manera que eventos simultáneos para un observador ocurren en instantes diferentes vistos desde otro lugar. El tiempo puede ser medido, por tanto, de manera relativa, como lo son las posiciones en el espacio (Euclides) tridimensional, y esto puede conseguirse mediante el concepto de espacio–tiempo. La trayectoria de un objeto en el espacio–tiempo se denomina por el de línea de universo. La relatividadgeneral nos explica lo que es un espacio–tiempo curvo con las posiciones y movimientos de las partículas de materia.
La introducción por parte de Minkouski de la idea espaciotemporal resultó tan importante es porque permitió a Einstein utilizar la idea de geometría espaciotemporal para formular su teoría de la relatividadgeneral que describe la Gravedad que se genera en presencia de grandes masas y cómo ésta curva el espacio y distorsiona el tiempo. En presencia de grandes masas de materia, tales como planetas, estrellas y galaxias, está presente el fenómeno descrito por Einstein en su teoría de la relatividad general, la curvatura del espacio–tiempo, eso que conocemos como gravedad, una fuerza de atracción que actúa todos los cuerpos y cuya intensidad depende de las masas y de las distancias que los separan; la fuerza gravitacional disminuye con el cuadrado. Hemos llegado a comprender que es la materia, la que determina la geometría del espacio-tiempo.
En la imagen, dos partículas en reposo relativo, en un espacio-tiempo llano y Se representan en este esquema dos partículas que se acercan entre sí siguiendo un movimiento acelerado. La interpretación newtoniana supone que el espacio-tiempo es llano y que lo que provoca la curvatura de las líneas de universo es la fuerza de interacción gravitatoria entre ambas partículas. Por el contrario, la interpretación einsteiniana supone que las líneas de universo de estas partículas son geodésicas (“rectas”), y que es la propia curvatura del espacio tiempo lo que provoca su aproximación progresiva.
El máximo exponente conocido del espacio-tiempo curvo, se podría decir que se da en la formación de los agujeros negros, donde la masa queda comprimida a tal densidad que se conforma en una singularidad, ese objeto de energía y densidad “infinitsas” en el que, el espacio y el tiempo desaparecen de nuestra vista y parece que entran en “otro mund” para nosotros desconocidos.
Los agujeros negros, cuya existencia se dedujo por Schwarzschild en 1.916 a partir de las ecuaciones de campo de Einstein de la relatividad general, son objetos supermasivos, invisibles a nuestra vista (de ahí su nombre) del que no escapa ni la luz; tal es la fuerza gravitatoria que generan que incluso engullen la materia de sus vecinas, objetos estelares como estrellas que osan traspasar el cinturón de seguridad que llamamos horizonte de sucesos.
La ecuación fue descubierta a finales de los años 20 por el físico Paul Dirac, y juntó dos de las ideas más importantes de la ciencia: la mecánica cuántica, que describe el comportamiento de objetos muy pequeños; y la teoría especial de Einstein de la relatividad, que describe el comportamiento de objetos en movimiento rápido.
Por lo tanto, la ecuación de Dirac describe cómo las partículas como electrones se comportan cuando viajan a casi la velocidad de la luz.
“¿Qué puede ser más místico que un número imaginarios interactuando con números trascendentales y reales para producir la nada?”, dirían los matemáticos si se les interroga sobre la belleza de esta ecuación. Algunos de los 25 votantes que eligieron esta ecuación la calificaron de “la expresión matemática más profunda jamás escrita”, “misteriosa y sublime”, “llena de belleza cósmica”, “una explosión cerebral”.
“Es asombroso que esta ecuación, que introduce mínimas correcciones en las fórmulas de la geometría euclídea, recoja casi todas las ecuaciones conocidas de la física macroscópica. En efecto, cuando la velocidad de la luz c tiende a infinito, de ella se derivan las leyes de gravitación universal de Newton, la Ecuación de Poisson y, por tanto, el carácter atractivo de las fuerzas gravitatorias, las ecuaciones de la mecánica de fluidos (ecuación de continuidad y ecuaciones de Euler), las leyes de conservación de la masa y el momento, el carácter euclídeo del espacio, etc.
Igualmente se derivan todas las leyes de conservación relativistas, y que la existencia de campos gravitatorios y de masa sólo es posible cuando el espacio tiene dimensión mayor que 2. Más aún, si se supone que el espacio tiene dimensión 4 (las tres que vemos diariamente más una pequeñísima dimensión circular extra, aproximadamente del tamaño de la llamada longitud de Planckcm) de la ecuación de Einstein se deducen la teoría clásica del electromagnetismo: las Ecuaciones de Maxwell y, por tanto, la Ley de Coulomb, la Conservación de la carga eléctrica y la ley de Lorentz
Él la resumía en una ecuación, que de hecho es el sumario de diez ecuaciones.
Desde siempre hemos tenido la tendencia de querer representar las cosas y a medida que pudimos descubrir conocimientos nuevos, también le dimos a esos nuevos saberes sus símbolos y ecuaciones matemáticas que representaban lo que creíamos saber. Mecánica cuántica, relatividad, átomos, el genóma, agujeros negros, la constante cosmológica, la constante de Planck racionalizada…
Wheeler decía allá por el año 1957, que el punto final de la compresión de la materia -la propia singularidad– debía estar gobernada por la unión, o matrimonio, de las leyes de la mecánica cuántica y las de la distorsión espaciotemporal. Esto debe ser así, puesto que la distorsión espaguetiza el espacio a escalas tan extraordinariamente microscópicas que están profundamente influenciadas por el principio de incertidumbre.
… respecto de uno de los ejes de coordenadas son magnitudes complementarias, estrictamente sujetas a las restricciones del Principio de Incertidumbre de …
Las leyes unificadas de la distorsión espaciotemporal y la mecánica cuántica se denominan “leyes de la gravedad cuántica”, y han sido un “santo grial” para todos los físicos desde los años cincuenta. A principios de los sesenta los que estudiaban física con Wheeler, pensaban que esas leyes de la gravedad cuántica eran tan difíciles de comprender que nunca las podrían descubrir durante sus vidas. Sin embargo, el tiempo inexorable no deja de transcurrir, mientras que, el Universo y nuestras mentes también, se expanden. De tal manera evolucionan nuestros conocimientos que, poco a poco, vamos pudiendo conquistar saberes que eran profundos secretos escondidos de la Naturaleza y, con la Teoría de cuerdas (aún en desarrollo), parece que por fín, podremos tener una teoría cuántica de la gravedad.
Una cosa sí sabemos: Las singularidades dentro de los agujeros negros no son de mucha utilidad puesto que no podemos contemplarla desde fuera, alejados del horizonte de sucesos que marca la línea infranqueable del irás y no volverás. Si alguna vez alguien pudiera llegar a ver la singularidad, no podría regresar para contarlo. Parece que la única singularidad que podríamos “contemplar” sin llegar a morir sería aquella del Big Bang, es decir, el lugar a partir del cual pudo surgir el universo y, cuando nuestros ingenios tecnológicos lo permitan, serán las ondas gravitacionales las que nos “enseñarán” esa singularidad.
Esta pretende ser la imagen de un extraño objeto masivo, un quásar que sería una evidencia vital del Universo primordial. Es un objeto muy raro que nos ayudará a entender cómo crecieron los agujeros negros súpermasivos unos pocos cientos de millones de años después del Big Bang (ESO).
Representación artística del aspecto que debió tener 770 millones después del Big bang el quásar más distante descubierto hasta la fecha (Imagen ESO). Estas observaciones del quásar brindan una imagen de nuestro universo tal como era durante su infancia, solo 750 millones de años después de producirse la explosión inicial que creó al universo. El análisis del espectro de la luz del quásar no ha aportado evidencias de elementos pesados en la nube gaseosa circundante, un hallazgo que sugiere que el quásar data de una era cercana al nacimiento de las primeras estrellas del universo.
Este pensamiento me hace pensar que antes del B.B… ¡Ya había algo!
Basándose en numerosos modelos teóricos, la mayoría de los científicos está de acuerdo sobre la secuencia de sucesos que debió acontecer durante el desarrollo inicial del universo: Hace cerca de 14.000 millones de años, una explosión colosal, ahora conocida como el Big Bang, produjo cantidades inmensas de materia y energía, creando un universo que se expandía con suma rapidez. En los primeros minutos después de la explosión, protones y neutrones colisionaron en reacciones de fusión nuclear, formando así hidrógeno y helio.
Finalmente, el universo se enfrió hasta un punto en que la fusión dejó de generar estos elementos básicos, dejando al hidrógeno como el elemento predominante en el Cosmos. En líneas generales, los elementos más pesados que el hidrógeno y el helio, como por ejemplo el carbono y el oxígeno, no se formaron hasta que aparecieron las primeras estrellas. Los astrónomos han intentado identificar el momento en el que nacieron las primeras estrellas, analizando a tal fin la luz de cuerpos muy distantes. (Cuanto más lejos está un objeto en el espacio, más antigua es la imagen que de él recibimos, en luz visible y otras longitudes de onda del espectro electromagnético.) Hasta ahora, los científicos sólo habían podido observar objetos que tienen menos de unos 11.000 millones de años. Todos estos objetos presentan elementos pesados, lo cual sugiere que las estrellas ya eran abundantes, o por lo menos estaban bien establecidas, en ese momento de la historia del universo.
Supernova 1987 A
El Big Bang produjo tres tipos de radiación: electromagnética (fotones), radiación de neutrinos y ondas gravitatorias. Se estima que durante sus primeros 100.000 años de vida, el universo estaba tan caliente y denso que los fotones no podían propagarse; eran creados, dispersados y absorbidos antes de que apenas pudieran recorrer ínfimas distancias. Finalmente, a los cien mil años de edad, el universo se había expandido y enfriado lo suficiente para que los fotones sobrevivieran, y ellos comenzaron su viaje hacia la Tierra que aún no existía. Hoy los podemos ver como un “fondo cósmico de microondas”, que llega de todas las direcciones y llevan gravada en ellos una imagen del universo cuando sólo tenía esa edad de cien mil años.
Se dice que al principio sólo había una sola fuerza, la Gravedad que contenía a las otras tres que más tarde se desgajaron de ella y “caminaron” por sí mismas para hacer de nuestro universo el que ahora conocemos. En Cosmología, la fuerza de gravedad es muy importante, es ella la que mantiene unidos los sistemas planetarios, las estrellas en las galaxias y a las galaxias en los cúmulos. La Gravedad existe a partir de la materia que la genera para curvar el espaciotiempo y dibujar la geometría del universo.
Imagen de un agujero negro en el núcleo de una galaxia arrasando otra próxima- Imagen tomada por la NASA
Un agujero negro es lo definitivo en distorsión espaciotemporal, según las ecuaciones de Einstein: está hecho única y exclusivamente a partir de dicha distorsión. Su enorme distorsión está causada por una inmensa cantidad de energía compactada: energía que reside no en la materia, sino en la propia distorsión. La distorsión genera más distorsión sin la ayuda de la materia. es la esencia del agujero negro.
Lo cierto es que los físicos relativistas se han sentido muy frustrados desde que Einstein publicó su Teoría de la relatividad general y se desprendieron de ellas mensajes asombroso como el de la existencia de agujeros negros que predecían sus ecuaciones de campo. Así que, se dirigieron a los astrónomos para que ellos confirmaran o refutaran su existencia mediante la observación del universo profundo. Sin embargo y, a pesar de su enorme esfuerzo, los astrónomos npo han podido obtener medidas cuantitativas de ninguna distorsión espaciotemporal de agujeros negros. Sus grandes triunfos han consistido en varios descubrimientos casi incontrovertibles de la existencia de agujeros negros en el universo, pero han sido incapaces de cartografiar, ni siquiera de forma ruda, esa distorsión espaciotemporal alrededor de los agujeros negros descubiertos. No tenemos la técnica para ello y somos conscientes de lo mucho que nos queda por aprender y descubrir.
Las matemáticas siempre van por delante de esa realidad que incansables buscamos. Ellas nos dicen que en un agujero negro, además de la curvatura y el frenado y ralentización del tiempo, hay un tercewr aspecto en la distorsi´pon espaciotemporal de un agujero negro: un torbellino similar a un enorme tornado de espacio y tiempo que da vueltas y vueltas alrtededor del horizonte del agujero. Así como el torbellino es muy lento lejos del corazón del tornado, también el torbellino. Más cerca del núcleo o del horizonte el torbellino es más rápido y, cuando nos acercamos hacia el centro ese torbellino espaciotemporal es tan rápido e intenso que arrastra a todos los objetos (materia) que ahí se aventuren a estar presentes y, por muy potentes que pudieran ser los motores de una nave espacial… ¡nunca podrían hacerla salir de esa inmensa fuerza que la atraería hacia sí! Su destino sería la singularidad del agujero negro donde la materia comprimida hasta límites inimaginables, no sabemos en qué se habrá podido convertir.
Todos conocemos la teoría de Einstein y lo que nos dice que ocurre cuando grandes masas, como planetas, están presentes: Curvan el espacio que lo circundan en función de la masa. El exponente máximo de dicha curvatura y distorsión temporal es el agujero negro que, comprime la masa hasta hacerla “desaparecer” y el tiempo, en la singularidad formada, deja de existir. En ese punto, la relatividadgeneral deja de ser válida y tenemos que acudir a la mecánica cuántica para seguir comprendiendo lo que allí está pasando.
Einstein no se preocupaba por la existencia de este extraño universo dentro del agujero negro porque la comunicación con él era imposible. Cualquier aparato o sonda enviada al centro de un agujero negroencontraría una curvatura infinita; es decir, el campo gravitatorio sería infinito y, como ya se explica anteriormente, nada puede salir de un agujero negro, con lo cual, el mensaje nunca llegará al exterior. Allí dentro, cualquier objeto material sería literalmente pulverizado, los electrones serían separados de los átomos, e incluso los protones y los neutrones dentro de los propios núcleos serían desgajados. De todas las maneras tenemos que reconocer que este universo especular es matemáticamente necesario para poder ir comprendiendo cómo es, en realidad, nuestro universo.
Con todo esto, nunca hemos dejado de fantasear. Ahí tenemos el famoso puente de Einstein-Rosen que conecta dos universos y que fue considerado un artificio matemático. De todo esto se ha escrito hasta la extenuación:
“Pero la factibilidad de poder trasladarse de un punto a otro del Universo recurriendo a la ayuda de un agujero de gusano es tan sólo el principio de las posibilidades. Otra posibilidad sería la de poder viajar al pasado o de poder viajar al futuro. Con un túnel conectando dos regiones diferentes del espacio-tiempo, conectando el “pasado” con el “futuro”, un habitante del “futuro” podría trasladarse sin problema alguno hacia el “pasado” Einstein—Rosen—Podolsky), para poder estar físicamente presente en dicho pasado con la capacidad de alterar lo que está ocurriendo en el “ahora”. Y un habitante del “pasado” podría trasladarse hacia el “futuro” para conocer a su descendencia mil generaciones después, si la hubo.“
El puente de Einstein-Rosen conecta universos diferentes. Einstein creía que cualquier cohete que entrara en el puente sería aplastado, haciendo así imposible la comunicación Posteriormente, los puentes de Einstein-Rosen se encontraron pronto en otras soluciones de las ecuaciones gravitatorias, tales como la solución de Reisner-Nordstrom que describe un agujero eléctricamente cargado. Sin embargo, el puente de Einstein-Rosen siguió siendo una nota a pie de página curiosa pero olvidada en el saber de la relatividad.
Lo cierto es que algunas veces, tengo la sensación de que aún no hemos llegado a comprender esa fuerza misteriosa que es la Gravedad, la que no se quiere juntar con las otras tres fuerzas de la Naturaleza. Ella campa solitaria y aunque es la más débil de las cuatro, esa debidad resulta engañosa poreque llega a todas partes y, además, como algunos de los antiguos filósofos naturales, algunos piensan que es la única fuerza del universo y, de ella, se desgajaron las otras tres cuando el Universo comenzó a enfriarse.
¡El Universo! Es todo lo que existe y es mucho para que nosotros, unos recien llegados, podamos llegar a comprenderlo en toda su inmensidad. Muchos son los secretos que esconde y, como siempre digo, son muchas más las preguntas que las respuestas. Sin embargo, estamos en el camino y… Como dijo el sabio: ¡Todos los grandes viajes comenzaron con un primer paso!
Hay ecuaciones que son aparentemente insignificantes por su reducido número de exponentes que, sin embargo, ¡dicen tántas cosas…! En la mente de todos están las sencillas ecuaciones de Einstein y de Planck sobre la energía-masa y la radiación de cuerpo negro. Esa es la belleza de la que hablan los físicos cuando se refieren a “ecuaciones bellas”.
Maxwell
Las ecuaciones de Maxwell…, “y se hizo la luz”
La identidad de Euler: Algunos dijeron de su ecuación: “la expresión matemática más profunda jamás escrita”, “misteriosa y sublime”, “llena de belleza cósmica”, “una explosión cerebral”.
Newton y su segunda ley que, aunque no funcione cuando nos acercamos a velocidades relativistas, rompió la marcha hacia la Gravedad.
Pitágoras y “su” teorema, también debe estar presente como lo está su teorema en las construcciones de todo el mundo y… mucho más.
Schrödinger y su función de onda que tampoco se queda atrás (aunque como la ecuación de Newton, si hablamos de velocidades relativistas…)
Bueno, E = mc2, nos lleva a profundidades de la materia antes jamás vistas y nos permite sacar conclusiones como que, en un gramo de materia está encerrada toda la energía consumida por la Humanidad durante un minuto. ¡Masa y Energía son la misma cosa!
Einstein, con esa ecuación de arriba de la relatividad general, vino a cambiar el mundo y, a partir de entonces, nació la verdadera cosmología. ¡Nos habla de tántas cosas!
¿Qué decir de la maravillosa fórmula de la entropía de Boltzman?
Creo que hoy, hablaremos de ella. Boltzman con su trabajo e ingenio, le dio a la Humanidad la herramienta para que pudiera seguir avanzando en el difícil laberinto de la Cienca, fue, sin duda, uno de los físicos más ilustres del siglo XIX.
El trabajo científico desarrollado por Boltzmann en su época crítica de transición que puso el colofón a la física “clásica” –cuya culminación podríamos situar en Maxwell– y antecedió (en pocos años) a la “nueva” física, que podemos decir que comenzó con Max Planck y Einstein. Aunque ciertamente no de la importancia de los dos últimos, la labor científica de Boltzmann tiene una gran relevancia, tanto por sus aportaciones directas (creador junto con “su amigo” Maxwell y Gibbs de la mecánica estadística, aunque sea el formulismo de éste último el que finalmente haya prevalecido; esclarecedor del significado de la entropía, etc.) como por la considerable influencia que tuvo en ilustres físicos posteriores a los que sus trabajos dieron la inspiración, como es el caso de los dos mencionados, Planck y Einstein.
El principio, como suele pasar en todas las cosas, es siempre tosco y, con el tiempo, se van perfeccionando las cosas, la evolución va mejorando las formas
Boltzmann fue un defensor a ultranza del atomismo, polemizando sobre todo con Mach y Ostwald, antiatomistas partidarios de la energética y claros exponentes de la corriente idealista de la física alemana. Tuvo que abandonar su ambiciosa idea de explicar exactamente la irreversibilidad en términos estrictamente mecánicos; pero esta “derrota”, no ocultaré que dolorosa desde el punto de vista personal, le fue finalmente muy productiva, pues de alguna manera fue lo que le llevó al concepto probabilista de la entropía. Estas primeras ideas de Boltzmann fueron reivindicadas y extendidas, en el contexto de la teoría de los sistemas dinámicos inestables, sobre todo por la escuela de Prigogine, a partir de la década de 1970.
La personalidad de Boltzmann era bastante compleja. Su estado de ánimo podía pasar de un desbordante optimismo al más negro pesimismo en cuestión de unas pocas horas. Era muy inquieto; él decía – medio en serio, medio en broma – que eso se debía a haber nacido en las bulliciosas horas finales de los alegres bailes del Martes de Carnaval, previas a los “duelos y quebrantos” (entonces) del Miércoles de Ceniza.
Ludwig Boltzmann and co-workers in Graz, 1887. (standing, from the left) Nernst, Streintz, Arrhenius, Hiecke, (sitting, from the left) Aulinger, Ettingshausen, Boltzmann, Klemenčič, Hausmanninger
Su lamentable final, su suicidio en Duino (Trieste) el 5 de septiembre de 1906, muy probablemente no fue ajeno a esa retorcida personalidad, aunque su precaria salud física fue seguramente determinante a la hora de dar el trágico paso hacia el lado oscuro.
Uno de los problemas conceptuales más importantes de la física es cómo hacer compatible la evolución irreversible de los sistemas macroscópicos (el segundo principio de la termodinámica) con la mecánica reversible (las ecuaciones de Hamilton o la ecuación de Schrödinger) de las partículas (átomos o moléculas) que las constituyen. Desde que Boltzmann dedujo su ecuación en 1872, este problema ha dado lugar a muy amplios debates, y el origen de la irreversibilidad es, aún hoy en día, controvertido.
En una de sus primeras publicaciones, Boltzmann obtuvo en 1866 una expresión de la entropía, que había sido definida un año antes por Clausius, basado en conceptos mecánicos. Las limitaciones de este trabajo eran que su aplicación se restringía al estudio de los gases y que el sistema era periódico en el tiempo. Además, Boltzmann no pudo deducir de su definición de entropía la irreversibilidad del segundo principio de la termodinámica de Clausius. En 1868, basándose en las ideas probabilísticas de Maxwell, obtuvo la distribución de equilibrio de un gas de partículas puntuales bajo la acción de una fuerza que deriva de un potencial (distribución de Maxwell-Boltzmann).
En el Universo, considerado como sistema cerrado, la entropía crece y…
En 1.872 publicó la denominada ecuación de Boltzmann para cuya deducción se basó, aparentemente, en ideas mecánicas. Esta ecuación contiene, sin embargo, una hipótesis no mecánica (estadística) o hipótesis del caos molecular, que Boltzmann no apreció como tal, y cuya mayor consecuencia es que, cualquiera que sea la distribución inicial de velocidad de un gas homogéneo diluido fuera del equilibrio, ésta evoluciona irreversiblemente hacia la distribución de velocidad de Maxwell. A raíz de las críticas de Loschmidt (paradoja de la reversibilidad) y Zermelo (paradoja de la recurrencia), Boltzmann acabó reconociendo el carácter estadístico de su hipótesis, y en 1877 propuso una relación entre la entropíaS de un sistema de energía constante y el número de estados dinámicos W accesibles al sistema en su espacio de fases; esto es, la conocida ecuación S = kB ln W, donde kB es la constante de Boltzmann. En esta nota, se hace una breve descripción de la ecuación de Boltzmann y de la hipótesis del caos molecular.
El comportamiento de los gases siempre dio a los físicos en qué pensar
La ecuación de Boltzmann describe la evolución temporal de un gas diluido de N partículas puntuales de masa m contenidas en un volumen V que interaccionan a través de un potencial de par central repulsivo V(r) de corto alcance a. Como simplificación adicional, considérese que sobre las partículas no actúan campos externos. Si f1(r,v,t) indica la densidad de partículas que en el tiempo t tienen un vector de posición r y velocidad v, que está normalizada en forma:
∫dr ∫dvƒ1(r,v,t) = N
Su evolución temporal es la suma de dos contribuciones. En ausencia de interacción, las partículas que en el tiempo t tienen vector de posición r y velocidad v se encuentran, después de un intervalo de tiempo Δt, en r + v Δt y tiene la misma velocidad. Como
f1(r + vΔt,v,t + Δt) = f1(r,v,t)
en el límite Δt → 0 (2) se escribe:
∂1 f1(r,v,t) = – v∂r f1(r,v,t)
Que es una ecuación invariante bajo el cambio t → – t y v → – v. La evolución es, por tanto, mecánica.
Se cumplieron más de cien años desde la muerte de Boltzmann y su trabajo sigue siendo recordado. No pienso que Boltzmann creyera en la existencia real de los átomos, pero sí en su utilidad e incluso en su necesidad para comprender las leyes macroscópicas y la evolución irreversible de los fenómenos macroscópicos desde una base más fundamental que el nivel fenomenológico. Pero había quien (con autoridad) no creía ni en la existencia ni en su utilidad. Este debate no era ajeno a las tendencias ideológicas, religiosas y usos sociales de aquella época porque, en general, la ciencia es parte de la cultura y depende del momento histórico que viven los científicos, al fin y al cabo, seres humanos como los demás, influenciables por su entorno en una gran medida.
Por el siglo XIX, e incluso antes, ya se hablaba de “átomos”* y una rudimentaria teoría cinética de los gases gozaba de aceptación y utilidad científica (recordemos los trabajos de Benoulli, Dalton, Laplace, Poisson, Cauchy, Clausius, Krönig… y Maxwell). Pero fue Boltzmann quien definitivamente profundizó en la cuestión, para el estudio del equilibrio y, sobre todo, intentando explicar mecánicamente (mecano-estadísticamente) la evolución termodinámica irreversible y la descripción de los procesos de transporte ligados a ella. Y, nuevamente (por su enorme importancia) no podemos dejar de mencionar la muy singular labor que hicieron Gibbs, Einstein, Planck, Fermi y otros. Sin la motivación ideológica de Boltzmann, Gibbs elaboró una bellísima, útil y hoy dominante formulación (cuerpo de doctrina) de la termodinámica y física estadística.
Lorentz
Fue Lorentz quien primero utilizó la ecuación de Boltzmann y lo hizo para describir la corriente eléctrica en sólidos dando un paso significativo por encima del pionero Drude. Lorentz introdujo un modelo opuesto al browniano donde partículas ligeras como viento (electrones) se mueven chocando entre sí y con árboles gordos (tales como iones en una red cristalina); un modelo del que se han hecho estudios de interés tanto físico como matemático. Enskog (inspirándose en Hilbert) y Chapman (inspirándose en Maxwell) enseñaron cómo integrar la ecuación de Boltzmann, abriendo vías a otras diversas aplicaciones (hidrodinámica, propagación del sonido, difusión másica, calor, fricción viscosa, termoelectricidad, etc.). Recordemos que Boltzmann encontró como solución de equilibrio de su ecuación una distribución de velocidades antes descubierta por Maxwell (hoy, como reseñé anteriormente, de Maxwell-Boltzmann), por lo que concluyó que así daba base microscópica mecánica (teorema H mecano-estadístico) al segundo principio de la termodinámica (estrictamente, evolución de un sistema aislado hacia su “desorden”máximo).
El físico austríaco Ludwig Boltzmann sentó las bases estadísticas de la entropía, su trabajo fue tan importante que el gran físico Max Planck sugirió que su versión de la fórmula de Boltzmann fuera grabada en la lápida de Boltzmann de Viena.
Está claro que ningún físico que se precie de serlo puede visitar Viena sin visitar el parque Zentralfriedhof para ver la tumba de Boltzmann. Yo sí me pasé por allí. Me senté junto a la tumba; el lugar estaba desierto, y cerrando los ojos traté de conectar con la conciencia del genio. La sensación, extraña y agradable, seguramente fue creada por mi imaginación, pero creo que charlé con él en el interior de mi mente – la fuerza más potente del universo– y aquellos sentimientos, aquel momento, compensaron el esfuerzo del viaje.
En la tumba, sobre una gran lápida de mármol de color blanco con los nombres Ludwig Boltzmann y de los familiares enterrados con él, sobre el busto de Boltzmann, se puede leer la inscripción, a modo de epitafio:
En esta breve ecuación se encierra la conexión entre el micromundo y el macromundo, y por ella se reconoce a Boltzmann como el padre de la rama de la física conocida como mecánica estadística. Esta sencilla ecuación es la mayor aportación de Boltzmann y una de las ecuaciones más importantes de la física. El significado de las tres letras que aparecen (aparte la notación del logaritmo) es el siguiente:
W es el número de microestados posibles de sus partículas elementales.
k es una constante de proporcionalidad que hoy recibe el nombre de Constante de Boltzmann, de valor 1’3805 × 10-23 J/K (si el logaritmo se toma en la base natural).
En definitiva, la ecuación describe la estrecha relación entre la entropía (S) y las miles de formas de partículas que en un sistema se pueden arreglar (k log W). La última parte es difícil. K es la constante de Boltzmann y W es el número de elementos microscópicos de un sistema (por ejemplo, el impulso y la posición de los átomos individuales de gas) en un sistema macroscópico en un estado de equilibrio (por ejemplo, el gas de sellado en una botella). Parece que la naturaleza ama el caos cuando empuja a los sistemas hacia el desequilibrio y Boltzmann le llamó entropía a este fenómeno.
Cuando profundizamos un poco en lo que el cerebro humano ha sido capaz de generar, los pensamientpos que ha llegado a generar bien sea en forma de ecuaciones matemáticas o expresados con palabras, no podemos dejar de sorprendernos y maravillarnos al ver que, ¡todo el universo parece estar dentro de nuestras mentes! ¿Qué secretos se encierran allí? ¿Cómo nos lleva a estos pensamientos tan profundos?
Como todas las ecuaciones sencilla de gran trascendencia en la física (como la famosa E = mc2), hay un antes y un después de su formulación: sus consecuencias son de un calado tan profundo que cambiaron la forma de entender el mundo, y en particular, de hacer física a partir de ellas. De hecho, la sutileza de la ecuación es tal que hoy, cien años después de la muerte de su creador, se siguen investigando sus nada triviales consecuencias. Creo que lo mismo ocurrirá con α = 2πe2/ħc que, en tan reducido espacio y con tan pocos símbolos, encierra los misterios del electromagnetismo (el electrón), de la constante de Planck(la mecánica cuántica), y de la luz (la relatividad de Einstein), todo ello enterrado profundamente en las entrañas de un número: 137.
Bueno, a pesar de todo lo anterior, Schrödinger nos decía:
“La actitud científica ha de ser reconstruida, la ciencia ha de rehacerse de nuevo”
¡Lo grande y lo pequeño! ¡Son tantos los secretos de la Naturaleza! Pero no podemos olvidar que todo lo grande… ¡Está hecho de “cositas” pequeñas.
Siempre hemos tenido consciencia de que en física, había que buscar nuevos paradigmas, nuevos caminos que nos llevaran más lejos. Es bien conocida la anécdota de que a finales del siglo XIX un destacado físico de la época William Thomson (1824-1907) conocido como Lord Kelvin, se atrevió a decir que solo dos pequeñas “nubecillas” arrojaban sombras sobre el majestuoso panorama de conocimiento que había construido la física clásica desde Galileo y Newton hasta ese momento: el resultado del experimento de Michelson-Morley, el cual había fallado en detectar la existencia del supuesto éter luminífero; y la radiación del cuerpo negro, i.e la incapacidad de la teoría electromagnética clásica de predecir la distribución de la energía radiante emitida a diferentes frecuencias emitidas por un radiador idealizado llamado cuerpo negro. Lo que Lord Kelvin no puedo predecir es que al tratar de disipar esas dos “nubecillas”, la física se vería irremediablemente arrastrada a una nueva física: la física moderna fundada sobre dos revoluciones en ciernes: la revolución relativista y la revolución cuántica con dos científicos como protagonistas: Planck y Albert Einstein. Sin embargo, ha pasado un siglo y seguimos con esas dos únicas guías para continuar el camino y, resultan insuficientes para llegar a la meta que… ¡Está tan lejos!