“El Premio de la Sociedad de Física Americana (APS) para contribuciones a la Física de Partículas Teórica (J. J. Sakurai Prize for Theoretical Particle Physics) de 2010 le fue concedido a Carl R. Hagen (University of Rochester), Francois Englert (Universite Libre de Bruxelles), Gerald S. Guralnik (Brown University), Peter W. Higgs (University of Edinburgh), Robert Brout (Universite Libre de Bruxelles), y T.W.B. Kibble (Imperial College) por sus contribuciones al mecanismo de Higgs–Brout–Englert–Guralnik–Hagen–Kibble para explicar la ruptura espontánea de la simetría electrodébil, mecanismo normalmente abreviado a mecanismo de Higgs.”
(Brout fallecido en 2.011, también era acreedor al Nobel de Física de 2.013)
Como complemento del trabajo que se presenta hoy referido a la concesión del Nobel de Física de 2.013, aquí he recuperado éste trabajo que viene a explicar un poco, lo que antes de todo este jaleo del Higgs, habián hecho los físicos que ahora son premiados. Perdonad que lo expuesto sea algo complejo de comprender para algunos pero, hay veces que no se pueden evitar los guarismos, ecuaciones y signos que, en Física, es el lenguaje que suple a las palabras.
Investigación experimental
Higgs” />
En aquella fecha, el bosón de Higgs no ha sido observado experimentalmente, a pesar de los esfuerzos de los grandes laboratorios de investigación como el CERN o el Fermilab. La no observación de pruebas claras permite estimar un valor mínimo experimental de masa 114.4 GeV para el bosón de Higgs del modelo estándar, con un nivel de confianza del 95%.[6] Experimentalmente se ha registrado un pequeño número de eventos no concluyentes en el colisionador LEP en el CERN. Éstos han podido ser interpretados como resultados de los bosones de Higgs, pero la evidencia no es concluyente.[7] Se espera que el Gran Colisionador de Hadrones, ya construido en el CERN, pueda confirmar o desmentir la existencia de este bosón. El anillo de 27 km de circunferencia (llamado Large Hadron Collider) fue encendido el 10 de septiembre de 2008, como estaba previsto, pero un fallo en el sistema de enfriamiento que debe mantener los imanes a una temperatura aproximada de -271,3 °C detuvo el experimento, hasta el 20 de noviembre del 2009, fecha en que volvió a ser encendido, desde 450 GeV a 2.23 TeV. Pero fue apagado para realizar ajustes, y el 30 de marzo volvió a ser encendido, aunque a potencia de 7 TeV. Eso si, no será hasta 2016 cuando funcione a pleno rendimiento.
La búsqueda del bosón de Higgs es también el objetivo de ciertos experimentos del Tevatrón en el Fermilab
Los cuatro experimentos implicados en el resultado: CDF y DZero (Tevatron
Alternativas al mecanismo de Higgs para la ruptura espontánea de simetría electrodébil
Desde los años en los que fue propuesto el bosón de Higgs, han existido muchos mecanismos alternativos. Todas las otras alternativas usan una dinámica que interactúa fuertemente para producir un valor esperado del vacío que rompa la simetría electrodébil. Una lista parcial de esos mecanismos alternativos es:
Technicolor es la clase de modelo que intenta imitar la dinámica de la fuerza fuerte como camino para romper la simetría electrodébil.
El modelo de Abbott-Farhi de composición de los bosones de vectores W y Z.
El Campo de Higgs es un campo cuántico, que, de acuerdo con una hipótesis del modelo estándar de física de partículas expuesta por el físico Peter Higgs, permearía el universo entero, y cuyo efecto sería que las partículas se comportaran como dotadas de masa, debido a la interacción asociada de partículas elementales, con el bosón de Higgs, cuya existencia aún no ha sido probada directamente y que por la interacción consigo mismo también “adquiriría” masa. Se espera que el Gran Colisionador de Hadrones sirva para probar las hipótesis de Higgs.
Dobletes de Higgs. Potencial de doble pozo en una teoría de campos con ruptura espontánea de simetría.
El mecanismo de Higgs, ideado por Peter Higgs entre otros, es uno de los mecanismos posibles para producir la ruptura espontánea de simetría electrodébil en una Teoría Gauge invariante. Permitió establecer, la unificación entre la teoría electromagnética y la teoría nuclear débil, que se denominó Teoría del campo unificado dando premio Nobel en año 1979 a Steven Weinberg, Sheldon Lee Glashow y Abdus Salam
Este mecanismo también es conocido como mecanismo de Brout–Englert–Higgs, mecanismo de Higgs–Brout–Englert–Guralnik–Hagen–Kibble, o mecanismo de Anderson–Higgs. En 1964, fue inicialmente propuesto por Robert Brout y François Englert, e independientemente por Peter Higgs y por Gerald Guralnik, C. R. Hagen, y Tom Kibble.Fue inspirado en la Teoría BCS de rompimiento de simetría en superconductividad basado en Teoría Ginzburg-Landau, los trabajos de la estructura del vacío de Yoichiro Nambu, y las ideas de Philip Anderson según las cuales la superconductividad podía ser relevante en la relatividad, el electromagnetismo y otros fenomenos clásicos. El nombre de mecanismo de Higgs fue dado por Gerardus ‘t Hooft en 1971. Los tres artículos originales de Guralnik, Hagen, Kibble, Higgs, Brout, y Englert en donde se propone este mecanismo fueron reconocidos como fundamentales en la celebración del aniversario 50 de la revista Physical Review Letters
Campos y partículas
La segunda mitad del siglo XX fue un tiempo de descubrimiento de nuevas partículas elementales, nuevas fuerzas y, sobre todo, nuevos campos. El espacio puede llenarse con una amplia variedad de influencias invisibles que tienen todo tipo de efectos sobre la materia ordinaria. De todos los nuevos campos que se descubrieron, el que tiene más que enseñarnos sobre el paisaje es el campo de Higgs. Existe una relación general entre partículas y campos. Por cada tipo de partícula de la naturaleza hay un campo y por cada tipo de campo hay una partícula. Así campos y partículas llevan el mismo nombre. El campo electromagnético podría denominarse campo de fotones. El electrón tiene un campo, también lo tienen el qua.rk, el gluón y cada miembro del reparto de personajes del modelo Standard, incluida la partícula de Higgs.
En la concepción del Modelo estándar de física de partículas, el boson de Higgs así como otros bosones (encontrados ya experimentalmente) y ligados en esta teoría, se interpretan desde el Bosón de Goldstone donde cada parte del rompimiento de simetría genera un campo, para el cual los elementos que viven en este campo son sus respectivos bosones. Existen teorías creadas a partir del miedo de la no existencia del boson de Higgs donde no es necesaria su aparición. El campo de Higgs es el ente matemático donde existe, su interpretación con la teoría es el producto de él con los otros campos que sale por el mecanismo de ruptura, este producto nos da el acople y la interacción de él, con esta interacción con los otros campos legamos la caracteristica de generador de masa.
Me resistía pero…Formulación matemática
Introducimos un campo adicional ? que rompa la simetría SU(2)L × U(1)Y ? U(1)em. Debido a las condiciones que se exigen a la teoría será un doblete (de SU(2)L) de campos escalares complejos (doblete de Higgs):
El número total de entradas (número dimensional del vector) de Higgs no está determinado por la teoría y podría ser cualquiera. No obstante la versión mínima del SM posee uno solo de estos dobletes.
El sistema vendrá entonces descrito por un Lagrangiano de la forma:
tal que:
donde V(phi) es el potencial renormalizable (y por tanto que mantiene la invarianza gauge) más sencillo. Para que se produzca ruptura espontánea de simetría es necesario que el valor esperado del campo de Higgs en el vacío sea no nulo. Para lambda mayor que 0, si mu 2 menor que 0, el potencial posee infinitas soluciones no nulas (ver figura 1), en las cuales sólo la norma del campo de Higgs está definida:
Estado fundamental
El estado fundamental está, por consiguiente, degenerado y no respeta la simetría del grupo SU(2)L × U(1)Y. Sin embargo, sí conserva la simetría del grupo U(1)em. El valor de cup ? indica la escala de energía a la que se produce la ruptura de la simetría electrodébil. La ruptura SU(2)L × U(1)Y Phi U(1)em se produce cuando se selecciona un estado del vacío concreto. La elección habitual es aquella que hace que Phi 3 sea no nulo:
Espectro de partículas
Enormes energías para poder profundizar tanto en el conocimiento de lo muy pequeño
El espectro de partículas físicas resultantes se construye realizando pequeñas oscilaciones en torno al vacío, que pueden ser parametrizadas en la forma:
donde el vector y el escalar h(x) son campos pequeños correspondientes a los cuatro grados de libertad reales del campo . Los tres campos son los bosones de Goldstone, de masa nula, que aparecen cuando una simetría continua es rota por el estado fundamental (teorema de Goldstone).
En este punto aún tenemos 4 bosonesgauge (Wi?(x) y B?(x)) y 4 escalares ( y h(x)), todos ellos sin masa, lo que equivale a 12 grados de libertad (Conviene notar que un bosón vectorial de masa nula posee dos grados de libertad, mientras que un bosón vectorial masivo adquiere un nuevo grado de libertad debido a la posibilidad de tener polarización longitudinal: 12 = 4[bosones vectoriales sin masa] × 2 + 4[escalares sin masa]). P. W. Higgs fue el primero en darse cuenta de que el teorema de Goldstone no es aplicable a teorías gauge, o al menos puede ser soslayado mediante una conveniente selección de la representación. Así, basta con escoger una transformación:
de forma que:
con lo cual desaparecen los tres campos de Higgs no físicos . Debemos aplicar estas transformaciones sobre la suma de las Lagrangianas para bosones y fermiones:
Al final del proceso, tres de los cuatro bosonesgauge adquieren masa al absorber cada uno de los tres grados de libertad eliminados del campo de Higgs, gracias a los acoplamientos entre los bosonesgauge y el campo Phi presentes en la componente cinética de la Lagrangiana SBS:
Por otro lado, el vacío de la teoría debe ser eléctricamente neutro, razón por la que no existe ningún acoplamiento entre el fotón y el campo de Higgs, h(x), de forma que aquél mantiene una masa nula. Al final, obtenemos tres bosonesgauge masivos (W±?, Zµ), un bosóngauge sin masa (A?) y un escalar con masa (h), por lo que seguimos teniendo 12 grados de libertad (del mismo modo que antes: 12 = 3[bosones vectoriales masivos] × 3 + 1[bosón vectorial sin masa] × 2 + 1[escalar]). Los estados físicos de los bosonesgauge se expresan entonces en función de los estados originales y del ángulo de mezcla electrodébil ?W:
Ángulo de mezcla
El ángulo de mezcla ?W, se define en función de las constantes de acoplamiento débil, g, y electromagnética, g´, según:
Las predicciones de las masas de los bosones a nivel de árbol son:
No creo que Homer Simpson predijera la masa del Higgs
La masa del bosón de Higgs se expresa en función de ? y del valor de la escala de ruptura de simetría, ?, como:
La medida de la anchura parcial de la desintegración:
a bajas energías en el SM permite calcular la constante de Fermi, GF, con gran precisión. Y puesto que:
se obtiene un valor de ? = 246 GeV. No obstante el valor de ? es desconocido y por tanto la masa del bosón de Higgs en el SM es un parámetro libre de la teoría.
Análogamente al caso de los bosonesgauge, los fermiones adquieren masa mediante los denominados acoplamientos de Yukawa, que se introducen a través de una serie de nuevos términos en la Lagrangiana:
donde:
Del mismo modo que antes, se aplica la transformación sobre la parte levógira de los fermiones, mientras que la parte dextrógira no se transforma:
Y finalmente se obtienen las masas de los fermiones según:
Es conveniente hacer notar en este punto, que la determinación de la masa del bosón de Higgs, no explica directamente las masas fermiónicas ya que dependen de las nuevas constantes ?e, ?u, ?d, … Por otro lado, se deduce también el valor de los acoplamientos del bosón de Higgs con los distintos fermiones y bosones, los cuales son proporcionales a las constantes de acoplamiento gauge y a la masa de cada partícula.
Esta es la cascada de consecuencias para nuestro planeta y cómo se sucederían en el tiempo
Reportaje de prensa
No hace falta ser un astrónomo experimentado para saber que dependemos completamente del Sol. Nuestra estrella particular, en efecto, ocupa el centro de nuestro sistema planetario, mantiene los mundos en su sitio e irradia la energía necesaria para que aquí, en la Tierra, sea posible la vida. Gracias al Sol tenemos luz, calor, atmósfera, fotosíntesis, océanos… Sabemos también, sin embargo, que nada, ni siquiera el Sol, dura eternamente. Durará mucho tiempo, sí, aunque no para siempre. ¿Pero qué sucedería si un buen día el Sol desapareciera de repente? ¿Cuáles serían las consecuencias para nosotros y cómo se sucederían en el tiempo?
Un gráfico recién publicado por la web SolarCentre ha recopilado mucha de la información disponible para resolver la cuestión. Y el panorama, como era de suponer, no resulta nada esperanzador…
Se acabó la gravedad
El mundo sería muy distinto si de pronto desapareciera la fuerza de Gravedad que genera el Sol
En una secuencia cronológica, lo primero que desaparecería con el Sol es su atracción gravitatoria. Todos los planetas están “ligados” gravitatoriamente al Sol, y su súbita desaparición los dejaría sin un centro alrededor del que orbitar. De modo que empezarían a viajar, más o menos, en línea recta, hasta que se toparan con otro cuerpo lo suficientemente grande como para atraerlos. La estrella más cercana, Alpha Centauri, está a 4,2 años luz de distancia, así que esta situación de “vagabundeo espacial”, suponiendo que algún mundo se dirigiera hacia allí, duraría muchos miles de años.
Por supuesto, al perder su orden establecido es muy probable que algunos planetas chocaran entre sí, o que muchas lunas acabaran precipitándose sobre los mundos a los que orbitan. Júpiter y Saturno, los dos gigantes del Sistema Solar, lograrían quizá atraer a algunos de los planetas que nos rodean, para devorarlos sin contemplaciones.
Oscuridad eterna si el Sol desapareciera
Bueno, no sólo oscuridad eterna…. ¡Sería mucho más!
Aquí, en la Tierra, tardaríamos 8 minutos en darnos cuenta de que el Sol ya no está en su sitio. Ese es, en efecto, el tiempo que un rayo de sol tarda en recorrer, a la velocidad de la luz, los 150 millones de km. que nos separan del astro rey. Pasado ese tiempo, nos veríamos sumidos de repente en una total oscuridad. Y sería para siempre. Ni siquiera seríamos capaces de volver a contemplar la Luna, ya que su brillo no es más que un reflejo de la luz que recibe del Sol. Sí que veríamos las estrellas, que disponen de sus propias fuentes de luz, pero nuestras vidas se convertirían en una larga e interminable noche. Sin luz, además, las plantas ya no podrían seguir haciendo la fotosíntesis, con lo que la aportación de oxígeno a la atmósfera se interrumpiría casi por completo. Las reservas planetarias del gas que nos permite respirar apenas si durarían un par de semanas.
Se acabó el calor
Pero la oscuridad no sería lo más grave. De hecho, la temperatura media de la Tierra, que actualmente es de 29,6 grados, descendería rápidamente hasta los -123 grados en apenas dos meses. Cuatro meses después de la desaparición del Sol, la temperatura media de nuestro planeta sería de -198 grados, casi doscientas veces más fría que el interior de una nevera doméstica. En estas condiciones, la inmensa mayoría de la vida desaparecería de nuestro mundo. Solo quedarían algunos microorgansmos extremófilos que viven en medio de las rocas de la corteza terrestre, a varios km. de profundidad, y que no dependen de la luz solar. Los animales subterráneos y los carroñeros lograrían sobrevivir, quizá, durante un breve tiempo adicional, alimentándose de los cadáveres del resto. Pero terminarían desapareciendo en pocas semanas, junto a los demás. Sorprendentemente, los árboles más grandes lograrían, quizá, sobrevivir más tiempo, incluso durante algunas décadas, a pesar del frío y sin fotosíntesis.
No creo que la idea de los submarinos sea ningún remedio a la catástrofe
Para los humanos, la única opción sería embarcar en submarinos y sumergirse con ellos hasta lo más profundo de los océanos, para aprovechar el calor interno del planeta a medida que surge a través de las fuentes hidrotermales. Con los océanos congelados, ese sería, probablemente, uno de los últimos reductos para la vida terrestre. Otra solución temporal sería la de construir módulos habitables totalmente aislados de las condiciones externas, aunque habría muy poco tiempo para hacerlo (menos de un mes desde el “apagón”) y, de conseguirlo, solo se salvarían unos pocos y durante un tiempo limitado.
Al final, unos pocos cientos de años tras la desaparición del Sol, incluso las profundidades oceánicas se congelarían. La atmósfera se colapsará y la gélida superficie de lo que fue un mundo lleno de vida quedaría indefensa del bombardeo radiactivo de los rayos cósmicos.
Un panorama, pues totalmente desolador. Por fortuna, el Sol es una estrella de mediana edad, que lleva brillando unos 5.000 millones de años y todo parece indicar que lo seguirá haciendo durante otros 5.000 millones de años más. Aunque ningún ser humano llegará a verlo. Dentro de “solo” unos 1.000 millones de años, en efecto, el Sol se habrá vuelto tan caliente que hará hervir los océanos, que se evaporarán y harán de la Tierra un mundo inhabitable. Ojalá que para entonces ya estemos instalados en otros lugares, muy lejos de aquí…
La sonda InSight aterriza en Marte para explorar sus profundidades
El módulo de la NASA sondeará el interior del planeta rojo para comprender cómo se formaron otros planetas rocosos del sistema solar, incluido el nuestro.
La sonda InSight de la NASA, la primera misión que estudiará con un detalle sin precedentes el interior de Marte, ha aterrizado con éxito sobre el suelo marciano. Tras cubrir unos 300 millones de kilómetros, la misión instalará un sismómetro y un sensor térmico para descifrar las profundidades del llamado planeta rojo.
Este módulo estacionario, que despegó el pasado 5 de mayo desde la Base Aérea Vandenberg, en California (EEUU), usará una excavadora mecánica para perforar hasta unos cinco metros de profundidad y medir su temperatura interna, además de cualquier movimiento con ayuda de un sismógrafo.
“Es la primera misión que va a estudiar el interior profundo de Marte”, asegrua a Efe el español Fernando Abilleira, subdirector de diseño y navegación del InSight y parte del equipo multidisciplinar e internacional que conforma la misión. “Al estudiar la propagación de las ondas bajo la superficie de Marte, a través de su sismómetro, vamos a tener más información sobre como el planeta ha evolucionado” en los últimos 3.000 millones de años.
Abilleira, con 17 años de servicio en proyectos espaciales de NASA, es parte de los ingenieros y científicos que desde el lunes estudiarán en el Laboratorio de Propulsión de esta agencia (JPL-NASA), en Pasadena (California), los “signos vitales” del vecino planeta, como sus “pulsaciones, temperatura”. Ahonda el español que a través de un “seguimiento de precisión” observarán “hasta los reflejos” durante los dos años de “experimentos primarios” que implicará la misión.
Para ampliar el conocimiento sobre la formación de Marte y de otros planetas rocosos, como la Tierra, se usará el Experimento Sísmico para la Estructura Interior (SEIS), un sismómetro fabricado por el Centro Nacional de Estudios Aeroespaciales de Francia (CNES) y que detectará “cualquier movimiento en la superficie de Marte”, explicó Abilleira.
Las vibraciones que serán registradas por el SEIS podrían ser ocasionadas por el impacto de un meteorito o por un pequeño terremoto, si bien la actividad sísmica del planeta rojo es menor a la de la Tierra. “Al estudiar el movimiento de las ondas que se propagan bajo la superficie de Marte, podremos tener una mejor comprensión de la composición, la estructura del núcleo, el manto y la corteza del planeta”, agrega.
La otra herramienta que adquiere protagonismo es la Sonda de Propiedades Físicas y Flujo de Calor (HP3), construida por el Centro Aeroespacial de Alemania (DLR), que será implantado en suelo marciano a unos cinco metros de profundidad. “Este instrumento lleva unos sensores térmicos que van a recoger información sobre la actividad termal del planeta rojo”, señala Abilleira, quien destaca que España ha aportado a esta misión una estación ambiental (REMS, por sus siglas en inglés) dotada de sensores meteorológicos para el entorno marciano.
La sonda medirá el pulso de Marte
Este especialista en trayectoria de vehículos espaciales y que trazó la ruta del robot “Curiosity”, el cual llegó al planeta rojo en agosto de 2012, señala que “aterrizar en Marte es muy complicado”. “La velocidad de entrada atmosférica es de aproximadamente unos 20.000 kilómetros por hora y en menos de 7 minutos tenemos que reducir esa velocidad a 5 kilómetros por hora”, asegura Abilleira, graduado de la Saint Louis University, en Missouri.
Forman parte de la misión, dos vehículos Mars Cube One (MarCO), que por primera vez serán probadas en el “espacio profundo”, como asegura Abilleira, y que con el soporte de componentes miniatura probarán un nuevo método de retransmitir información a la Tierra. La misión InSight (Interior Exploration using Seismic Investigations, Geodesy and Heat Transport) se abocará a una investigación inédita que se espera arroje pistas sobre cómo se originó el Sistema Solar hace aproximadamente 4.600 millones años, y de paso la vida.
El cosmólogo ruso explica por qué los humanos le debemos la vida a las fluctuaciones cuánticas
Viatcheslav Mukhanov
A finales de los años setenta, en la Unión Soviética, Vitali Guínzburg, uno de los creadores de la bomba atómica, le sugirió a uno de sus estudiantes que se dedicase a la cosmología. Era un campo emergente que intentaba responder algunas de las preguntas más importantes para la humanidad, por ejemplo, cómo se originó el universo. Era solo un “bla, bla, bla, no había ninguna observación experimental”, ni visos de conseguirla, recuerda el físico teórico Viatcheslav Mukhanov, quien, a pesar de ello, decidió seguir el consejo de su superior.
En 1981, cuando aún era un estudiante de doctorado en el Instituto de Física y Tecnología de Moscú, Mukhanov publicó junto a su compañero Gennady Chibisov su teoría de que las galaxias se originaron por fluctuaciones cuánticas. Esas irregularidades de densidad a escala microscópica surgieron poco después del Big Bang, se amplificaron durante los primeros momentos de expansión del universo y evolucionaron durante 13.700 millones de años hasta transformarse en los cientos de miles de millones de galaxias agrupadas en cúmulos y supercúmulos que en la actualidad conforman el universo.
En 2013, el satélite Planck realizó el mapa más detallado del fondo cósmico de microondas, la luz más antigua del universo. En sus imágenes se apreciaban pequeñas diferencias de temperatura cuya explicación más plausible eran las fluctuaciones cuánticas que Mukhanov había predicho tres décadas antes.
Si nos enviasen un mensaje extraterrestre de vuelta, el retardo sería de 48.000 años. Es imposible comunicarse
Mukhanov (Kanash, extinta URSS, 1952) emigró a Europa tras la caída de la URSS y actualmente es catedrático de cosmología en la Universidad Ludwig-Maximilians de Múnich (Alemania). Ha ganado algunos de los galardones más importantes en su área y en 2016 recibió, junto a Stephen Hawking, el Premio Fronteras del Conocimiento. De visita en España para ofrecer una conferencia en la Fundación BBVA, Mukhanov explica en esta entrevista por qué confirmar su nueva teoría puede estar más allá de nuestras capacidades como especie.
Pregunta. ¿Cuándo surgió su interés por la ciencia?
Respuesta. Cuando estaba en el colegio. Mis padres eran los dos de clase trabajadora y mi educación fue primordialmente autodidacta. Compraba libros. En la Unión Soviética, todos los libros se publicaban en grandes tiradas. Los había hasta en las ciudades provinciales, porque nadie quería comprarlos. Había libros de teoría cuántica de campos o gravitación con una tirada mucho mayor que los best sellersactuales. Después me mudé a Moscú para estudiar en el internado de Andréi Kolmogorov [un famoso matemático ruso], donde preparábamos el examen de acceso a la universidad.
P. ¿Cómo era formarse como científico en la URSS?
R. La URSS era un país horrible. Por ejemplo, necesitabas permiso para vivir en Moscú y sin él no podías trabajar en la ciudad. Era como conseguir un título aristocrático en la Edad Media. Hasta tener un teléfono era complicado. Tenías que ponerte a la cola y esperar 10 años. En 1992 me mudé a Suiza. Pensé que serían solo dos años. Pero, después, en Rusia, las cosas tomaron un cariz no muy bueno, especialmente para la ciencia. Fue el latrocinio de todo. Y continúa ahora.
… pruebas de que los meteoritos contienen ciertos bloques de construcción del ADN, la molécula que porta las instrucciones genéticas para la vida.
Descubrimos las semillas de las que surgen las galaxias, los planetas, las estrellas y, finalmente, nuestra vida
P. ¿Cómo formuló su teoría de las fluctuaciones cuánticas?
En 1978 mi supervisor decidió emigrar fuera de la URSS. Necesitaba un nuevo supervisor y ese fue Guínzburg. En 1979 no tenía ni idea de qué hacer. Se me acercó Chibisov y empezamos a trabajar. Pensamos en cómo usar la mecánica cuántica en el universo temprano. Nos dimos cuenta de que, si tomas el modelo de expansión acelerada [del universo], que fue llamado inflación dos años después, puedes emplear las fluctuaciones cuánticas, amplificarlas y tener, más o menos, una explicación válida para el origen de la estructura del universo. El origen de las semillas de las que surgen las galaxias, los planetas, las estrellas y, finalmente, nuestra vida.
P. ¿Cómo pueden unas fluctuaciones a escala cuántica generar todas las galaxias?
R. La mecánica cuántica impide conocer simultáneamente la posición y la velocidad de un fragmento determinado de materia. Esto hace que sea imposible que haya un reparto perfectamente homogéneo de la materia, hay pequeñas anomalías inevitables. Las fluctuaciones cuánticas permiten explicar cómo una pequeña burbuja de milésimas de gramo puede expandirse aceleradamente hasta generar materia suficiente para crear 100.000 millones de galaxias.
P. Si es tan fácil que aparezcan universos, ¿es posible que existan muchos más?
R. Puede que haya muchos. Pero no hay forma de confirmar la teoría cosmológica del multiverso. Al menos en los próximos 10.000 millones de años. El campo de los multiversos no es física, la física supone predecir y después medir. Este campo está en los límites de la metafísica, es imposible falsar sus predicciones.
La NASA anunció el descubrimiento de 7 nuevos planetas del tamaño de la Tierra y tres de ellos podrían ser habitables.
Encontrar un sistema solar con siete “tierras” es un descubrimiento menor
P. Solo sabemos de qué está hecho el 4% del universo, el resto es materia y energía desconocidas. ¿Cuándo cree que romperemos esta barrera?
R. No se puede decir eso. Es una afirmación un poco exagerada. Hay que diferenciar entre lo cuantitativo y lo cualitativo. Si digo que casi el 100% del universo es hidrógeno y helio, podrías pensar: ¿en qué lugar quedamos todos nosotros? Somos una fracción de un uno por ciento. Pero esa fracción, en la que están los elementos pesados de los que estamos hechos, es mucho más importante que el resto. Por eso no se puede decir que no entendemos solo el 4% del universo. El 96% restante, compuesto por materia oscura y energía oscura, son una trivialidad.
P. ¿En qué trabaja ahora mismo?
R. En las singularidades. Por ejemplo, los agujeros negros. Ya unificamos la mecánica cuántica con la relatividad general con las perturbaciones cuánticas a nivel cosmológico. Pero ahora, si caes en un agujero negro, debes unificarlo usando métodos diferentes y nadie sabe cómo. Es la teoría del todo. Intentamos entender la estructura que hay dentro de un agujero negro. De acuerdo con la relatividad general, el interior de un agujero negro es enorme. Si cayeras en un agujero negro no sentirías nada, más allá de perder la comunicación con el amigo que dejaste en el exterior. O, mejor dicho, seguirías recibiendo información suya pero él no podría escucharte. Una vez cruzas el horizonte del agujero negro, si es lo suficientemente grande, te encontrarás en otro universo que evoluciona de forma separada al nuestro.
P. ¿Seguirías vivo?
R. Por algún tiempo, sí. Si se trata de un agujero negro muy grande podrías seguir vivo mucho tiempo, incluso 100 años, si el agujero tiene un diámetro de 100 años luz. Pero si caes en un agujero negro del tipo que formaría nuestro Sol, con apenas tres kilómetros de diámetro, morirías en una fracción de segundo. La mayoría de la gente piensa que los agujeros negros son como una caja negra donde hay un centro. Pero un agujero negro no tiene centro. Más allá del horizonte es como un universo en contracción. En el centro, el tiempo termina. Gracias a la energía oscura, podrías entrar en otro universo. Por ejemplo, si hay energía oscura, puedes hacer que la contracción se detenga y podrías ser expulsado en otro universo. Pero perderías toda comunicación. Por el momento, esto es especulación, no hechos.
P. ¿Podremos explorar algún día este tipo de cuerpos para conocer su estructura?
R. No. Solo si tienes el coraje suficiente para dejarte caer en uno. Un agujero negro es una puerta en una única dirección. No puedo imaginarme cómo comunicarse desde dentro de un agujero negro hacia afuera. De alguna forma estos objetos son la frontera de nuestra fantasía.
R. Es un descubrimiento menor. ¿Qué hay de especial en la vida? No debemos pensar que somos excepcionales. Nuestro planeta es como una pequeña partícula de suciedad que llamamos Tierra, y hay una pequeña cubierta sobre ella que llamamos gente. No hay nada inusual. El descubrimiento de los exoplanetas es fantástico, pero no es sorprendente. Lo chocante sería que no existiesen.
Lo que está sucediendo con los inmigrantes en Europa y EE UU es peor que volver a la Edad Media.
P. ¿Cree que encontraremos vida inteligente en el universo?
R. Cuando era pequeño me interesaban muchos estos temas. En 1974 mandaron unas señales de radio a un cúmulo globular. Si nos enviasen un mensaje de vuelta, el retardo sería de 48.000 años. Es imposible comunicarse. En este sentido, deberíamos ser más modestos.
P. Usted trabaja en Alemania desde hace décadas, ¿qué le parecen los movimientos contrarios a la inmigración en este país y en otros?
R. Es como una vuelta a la mentalidad de la Edad Media. [Ángela] Merkel hizo un buen movimiento al acoger inmigrantes, pero lo que falta es una política. Deben ser incorporados en la sociedad. No puedes tenerlos en campos. Cuando este tipo de cosas ocurrieron en Oriente Medio desataron una guerra civil. Recordemos el final del Imperio Romano. Los godos cruzaron el Danubio y empezaron a reclamar lo que les prometieron los romanos, pero no se lo dieron debido a la corrupción. No puedes cerrar el país a los inmigrantes. No puedes hacer este tipo de estupideces. Sobre todo señalar a seis o siete países, como en el caso de EE UU. Ni siquiera es una mentalidad de la Edad Media, es anterior. Es horrible.
Bajo la “definición basada en quarks y leptones”, las partículas elementales y compuestas formados de quarks (en púrpura) y leptones (en verde) serían la “materia”; mientras los bosones “izquierda” (en rojo) no serían materia. Sin embargo, la energía de interacción inherente a partículas compuestas (por ejemplo, gluones, que implica a los neutrones y los protones) contribuye a la masa de la materia ordinaria.
Ya hemos descrito en trabajos anteriores las dos familias de partículas elementales: Quarks y Leptones. Pero hasta ahí, no se limita la sociedad del universo infinitesimal. Existen además las anti-familias. A quarks y electrones se asocian, por ejemplo, anti-quarks y anti-electrones. A cada partícula, una anti-partícula.
Uno de los primeros éxitos de la teoría relativista del campo cuántico fue la predicción de las antipartículas: nuevos cuantos que eran la imagen especular de las partículas ordinarias. Las antipartículas tienen la misma masa y el mismo spin que sus compañeras las partículas ordinarias, pero cargas inversas. La antipartícula del electrón es el positrón, y tiene, por tanto, carga eléctrica opuesta a la del electrón. Si electrones y positrones se colocan juntos, se aniquilan, liberando la energía inmensa de su masa según la equivalencia masa-energía einstiana.
Una partícula y su anti-partícula no pueden coexistir: hay aniquilación de ambas.
¿Cómo predijeron los físicos la existencia de anti-partículas? Bueno, por la «interpretación estadística» implicaba que la intensidad de un campo determinaba la probabilidad de hallar sus partículas correspondientes. Así pues, podemos imaginar un campo en un punto del espacio describiendo la creación o aniquilación de sus partículas cuánticas con una probabilidad concreta.
Si esta descripción matemática de la creación y aniquilación de partículas cuánticas se inserta en el marco de la teoría relativista del campo cuántico, no podemos contar con la posibilidad de crear una partícula cuántica sin tener también la de crear un nuevo género de partícula: su antipartícula. La existencia de antimateria es imprescindible para una descripción matemáticamente coherente del proceso de creación y aniquilación según la teoría de la relatividad y la teoría cuántica.
Las cargas gravitacionales en el vacío cuántico podrían proporcionar una alternativa a la materia oscura. La idea se basa en la hipótesis de que las partículas y antipartículas tienen cargas gravitacionales de signo opuesto. Como consecuencia, los pares de partícula-antipartícula virtuales en el vacío cuántico y sus dipolos de forma gravitacional (una carga gravitacional positivos y negativos) pueden interactuar con la materia bariónica para producir fenómenos que se suele atribuir a la materia oscura.
Las ondas gravitacionales han sido detectadas pero… ¡Los dipolos gravitacionales!
Aunque el físico del CERN, Dragan Slavkov Hajdukovic, quien propuso la idea, demostró matemáticamente que estos dipolos gravitacionales podrían explicar las curvas de rotación de las galaxias observadas sin la materia oscura en su estudio inicial, señaló que quedaba mucho por hacer.
Pero sigamos con la cuántica…
El pionero en comprender que era necesario que existiesen anti-partículas fue el físico teórico Paul Dirac, que hizo varías aportaciones importantes a la nueva teoría cuántica. Fue él quien formuló la ecuación relativista que lleva hoy su nombre, y a la que obedece el campo electrónico; constituye un descubrimiento comparable al de las ecuaciones del campo electromagnético de Maxwell. Cuando resolvió su ecuación, Dirac se encontró con que además de describir el electrón tenía soluciones adicionales que describían otra partícula con una carga eléctrica opuesta a la del electrón. ¿Qué significaría aquello? En la época en que Dirac hizo esta observación, no se conocían más partículas con esta propiedad que el protón. Dirac, que no deseaba que las partículas conocidas proliferasen, decidió que las soluciones adicionales de su ecuación describían el protón. Pero, tras un análisis más meticuloso, se hizo evidente que las partículas que describían las soluciones adicionales tenían que tener exactamente la misma masa que el electrón. Quedaba así descartado el protón, cuya masa es por lo menos, 1.800 veces mayor que la del electrón. Por tanto, las soluciones adicionales tenían que corresponder a una partícula completamente nueva de la misma masa que el electrón, pero de carga opuesta: ¡El antielectrón! Esto quedó confirmado a nivel experimental en 1932 cuando Carl Anderson, físico del Instituto de Tecnología de Calífornia, detectó realmente el antielectrón, que hoy se llama positrón.
El trabajo de Dirac sobre el electrón nada tiene que envidiarle al de Einstein de la Relatividads
La aparición de las anti-partículas cambió definitivamente el modo de pensar de los físicos respecto a la materia. Hasta entonces, se consideraba la materia permanente e inmutable. Podían alterarse las moléculas, podían desintegrarse los átomos en procesos radiactivos, pero los cuántos fundamentales se consideraban invariables. Sin embargo, tras el descubrimiento de la anti-materia realizado por Paul Dirac hubo que abandonar tal criterio. Heisenberg lo expresaba así:
“Creo que el hecho de que Dirac haya descubierto partículas y anti-partículas, ha cambiado toda nuestra visión de la física atómica… creo que, hasta entonces, todos los físicos habían concebido las partículas elementales siguiendo los criterios de la filosofía de Demócrito, es decir, considerando esas partículas elementales como unidades inalterables que se hallan en la naturaleza como algo dado y son siempre lo mismo, jamás cambian, jamás pueden transmutarse en otra cosa. No son sistemas dinámicos, simplemente existen en sí mismas. Tras el descubrimiento de Dirac, todo parecía distinto, porque uno podía preguntar: ¿por qué un protón no podría ser a veces un protón más un par electrón-positrón, etc.?… En consecuencia, el problema de la división de la materia había adquirido una dimensión distinta.”
Dado que la antimateria tiene la misma masa que la materia, es decir son de la misma magnitud y signo (la definición de masa es positiva siempre), el efecto gravitacional de la antimateria no debe ser distinto de la materia, es decir, siempre sera un efecto atractivo. Pero, ¿acaso no importa la equivalencia establecida de antipartícula viajando al futuro = partícula viajando al pasado?
La respuesta es sí. Dicha equivalencia proviene de algo llamado simetría CPT (Charge-Parity-Time), y nos dice que la equivalencia entre las partículas y anti-partículas no solo corresponde a realizar una transformación sobre la carga, sino también sobre la paridad y el tiempo. La carga no afecta la gravedad, pero la paridad y el tiempo si la afectan. En otras palabras, al modificarse el tiempo (poner el tiempo al reves) y el espacio (la paridad es “girar” el espacio), estamos alterando el espacio-tiempo, y como la teoría general de la relatividad lo afirma, es la geometría de este el que determina la gravedad.
El carácter mutable de la materia se convirtió en piedra angular de la nueva física de partículas. El hecho de que partículas y anti-partículas puedan crearse juntas a partir del vacío si se aporta energía suficiente, no sólo es importante para entender cómo se crean las partículas en aceleradores de alta energía, sino también para entender los procesos cuánticos que se produjeron en el Big Bang.
Como ya lo hemos expresado, el conocimiento que se obtuvo sobre la existencia de anti-familias de partículas o familias de anti-partículas es una consecuencia de la aplicación de la teoría relativista del campo cuántico, para cada partícula existe una partícula que tiene la misma masa pero cuya carga eléctrica (y otras llamadas cargas internas) son de signo opuesto. Estas son las anti-partículas. Así, al conocido electrón, con carga negativa, le corresponde un «electrón positivo» como anti-partícula, llamado positrón, descubierto en 1932. El an-tiprotón, descubierto en 1956, tiene la misma masa que el protón, pero carga eléctrica negativa de igual valor. El fotón, que no tiene masa ni carga eléctrica, puede ser considerada su propia anti-partícula.
Un agujero negro es un objeto que tiene tres propiedades: masa, espin y carga eléctrica. La forma del material en un agujero negro no se conoce, en parte porque está oculta para el universo externo, y en parte porque, en teoría, el material continuaría colapsando hasta tener radio cero, punto conocido como Singularidad, de densidad infinita.
Un agujero negro tiene tres propiedades: masa, espín y carga eléctrica. La forma del material de un agujero negro no se conoce, en parte porque está oculta para el universo externo, y en parte porque, en teoría, el material continuaría colapsando hasta tener radio cero, punto conocido como singularidad, de densidad infinita.
Cada partícula está caracterizada por un cierto número de parámetros que tienen valores bien definidos: su masa, carga eléctrica, spin o rotación interna y otros números, conocidos como cuánticos. Estos parámetros son tales que, en una reacción, su suma se mantiene y sirve para predecir el resultado. Se dice que hay conservación de los números cuánticos de las partículas. Así, son importantes el número bariónico, los diversos números leptónicos y ciertos números definidos para los quarks, como la extrañeza, color, etc. Estos últimos y sus antipartículas tienen cargas eléctricas (± 1/3 o ± 2/3) y números bariónicos (±1/3) fraccionarios. No todos los números asociados a cada partícula han sido medidos con suficiente precisión y no todas las partículas han sido detectadas en forma aislada, por lo menos de su ligamento, como el caso de los quarks y de los gluones.
Los gluones son una especie de «partículas mensajeras» que mantienen unidos a los quarks. Su nombre proviene del término inglés “glue”, que significa pegamento, en español quizás podría ser gomón. Ahora, en cuanto a los quarks, ya hicimos referencia de ellos anteriormente. Pero recordemos aquí, que fueron descubiertos en 1964 por Murray Gell-Mann, como los componentes más reducidos de la materia. Hasta entonces se pensaba que los átomos consistían simplemente en electrones rodeando un núcleo formado por protones y electrones.
En estado natural, quarks y gluones no tienen libertad. Pero si se eleva la temperatura a niveles 100.000 veces superiores, como se ha hecho en aceleradores de partículas, a la del centro del Sol, se produce el fenómeno del desconfinamiento y por un brevísimo tiempo quedan libres. En ese preciso momento aparece lo que se suele llamar plasma, «una sopa de quarks y gluones» que equivale al estado en que se podría haber encontrado la naturaleza apenas una milésima de segundo luego del Big Bang.
Recientemente se ha descubierto un nuevo estado de la materia, esta vez a niveles muy muy altos de energía, que los científicos han denominado Plasma Gluón-Quark. La transición ocurre a temperaturas alrededor de cien mil millones de grados y consiste en que se rompen las fuertes ligaduras que mantienen unidos los quarks dentro de los núcleos atómicos. Los protones y neutrones están formados, cada uno, por 3 quarks que se mantienen unidos gracias a los gluones (El gluón es la partícula portadora de interacción nuclear fuerte, fuerza que mantiene unida los núcleos atómicos). A temperaturas superiores se vence la fuerza nuclear fuerte y los protones y neutrones se dividen, formando esta sopa denominada plasma Gluón-Quark.
Pero por ahora aquí, nos vamos a quedar con los quarks al natural. Normalmente, los quarks no se encuentra en un estado separados, sino que en grupos de dos o tres. Asimismo, la duración de las vidas medias de las partículas, antes de decaer en otras, es muy variable (ver tablas).
Por otra parte, las partículas presentan una o más de las siguientes interacciones o fuerzas fundamentales entre ellas. Por un lado se tiene la gravitación y el electromagnetismo, conocidas de la vida cotidiana. Hay otras dos fuerzas, menos familiares, que son de tipo nuclear y se conocen como interacciones fuertes y débiles.
La gravitación afecta a todas las partículas, es una interacción universal. Todo cuerpo que tiene masa o energía está sometido a esta fuerza. Aunque es la más débil de las interacciones, como las masas son siempre positivas y su alcance es infinito, su efecto es acumulativo. Por ello, la gravitación es la fuerza más importante en cosmología.
Fluido ferroso que se agrupa cerca de los polos de un imán
La fuerza electromagnética se manifiesta entre partículas con cargas eléctricas. A diferencia de las demás, puede ser de atracción (entre cargas de signos opuestos) o de repulsión (cargas iguales). Esta fuerza es responsable de la cohesión del átomo y las moléculas. Mantiene los objetos cotidianos como entidades con forma propia. Un vaso, una piedra, un auto, el cuerpo humano. Es mucho más fuerte que la gravitación y aunque es de alcance infinito, las cargas de distinto signo se compensan y sus efectos no operan a grandes distancias. Dependiendo de las circunstancias en que actúen, estas interacciones pueden manifestarse como fuerzas eléctricas o magnéticas solamente, o como una mezcla de ambos tipos.
La Fuerza Nuclear Débil: otra fuerza nuclear, considerada mucho más débil que la Fuerza Nuclear Fuerte. El fenómeno de decaimiento aleatorio de la población de las partículas subatómicas (la radioactividad) era difícil de explicar hasta que el concepto de esta fuerza nuclear adicional fue introducido.
La interacción nuclear débil es causa de la radioactividad natural y la desintegración del neutrón. Tiene un rol capital en las reacciones de fusión del hidrógeno y otros elementos en el centro de las estrellas y del Sol. La intensidad es débil comparada con las fuerzas eléctricas y las interacciones fuertes. Su alcance es muy pequeño, sólo del orden de 10-15 cm.
La interacción fuerte es responsable de la cohesión de los núcleos atómicos. Tiene la intensidad más elevada de todas ellas, pero es también de corto alcance: del orden de 10-13 cm.
Es posible caracterizar las intensidades de las interacciones por un número de acoplamiento a, sin dimensión, lo que permite compararlas directamente:
Fuerte as = 15
Electromagnéticas a = 7,3 x 10-3
Débil aw 3,1 x 10-12
Gravitacional aG = 5,9 x 10-39
Por otro lado, la mecánica cuántica considera que la interacción de dos partículas se realiza por el intercambio de otras llamadas «virtuales». Tienen ese nombre porque no son observables: existen por un tiempo brevísimo, tanto más corto cuanto mayor sea su masa, siempre que no se viole el principio de incertidumbre de Heisenberg de la teoría cuántica (que en este contexto dice que el producto de la incertidumbre de la energía por el tiempo de vida debe ser igual o mayor que una constante muy pequeña). Desaparecen antes de que haya tiempo para que su interacción con otras partículas delate su existencia.
El fotón virtual común se desplaza hacia la partícula menos energética.
Dos partículas interactúan al emitir una de ellas una partícula virtual que es absorbida por la otra. Su emisión y absorción cambia el estado de movimiento de las originales: están en interacción. Mientras menos masa tiene la partícula virtual, más lejos llega, mayor es el rango de la interacción. El alcance de la interacción es inversamente proporcional a la masa de la partícula portadora o intermedia. Por ejemplo, la partícula portadora de la fuerza electromagnética es el fotón, de masa nula y, por lo tanto, alcance infinito. La interacción gravitacional también tiene alcance infinito y debe corresponder a una partícula de masa nula: se le denomina gravitón. Naturalmente tiene que ser neutro. (Aún no ha sido vistos ni en pelea de perros).
Como ya hicimos mención de ello, a las fuerzas nucleares se les asocian también partículas portadoras. Para la interacción débil estas partículas se llaman bosones intermedios, expresados como W+, W- y Z0 (neutro). El W- es antipartícula del W+. Los W tienen masas elevadas comparadas con las otras partículas elementales. Lo de bosones les viene porque tienen spin entero, como el fotón y el gravitón, que también los son, pero que tienen masas nulas. Las fuerzas fuertes son mediadas por unas partículas conocidas como gluones, de los cuales habría ocho. Sin embargo, ellos no tienen masa, pero tienen algunas de las propiedades de los quarks, que les permiten interactuar entre ellos mismos. Hasta ahora no se han observado gluones propiamente tal, ya que lo que mencionamos en párrafos anteriores corresponde a un estado de la materia a la que llamamos plasma. Claro está, que es posible que un tiempo más se puedan detectar gluones libres cuando se logre aumentar, aún más, la temperatura, como está previsto hacerlo en el acelerador bautizado como “Relativistic Heavy Ion Collider”, empotrado en Estados Unidos de Norteamérica.
TABLA DE LAS PRINCIPALES PROPIEDADES DE LAS PARTÍCULAS PORTADORAS DE LAS INTERACCIONES FUNDAMENTALES
Una partícula y su anti-partícula no pueden coexistir si están suficientemente cerca como para interactuar. Si ello ocurre, ellas se destruyen mutuamente: hay aniquilación de las partículas. El resultado es radiación electromagnética de alta energía, formada por fotones gama. Así, si un electrón está cercano a un positrón se aniquilan en rayos gama. Igual con un par protón-antiprotón muy próximos.
La reacción inversa también se presenta. Se llama «materialización o creación de partículas» de un par partícula-antipartícula a partir de fotones, pero se requieren condiciones físicas rigurosas. Es necesario que se creen pares partícula-anti-partícula y que los fotones tengan una energía mayor que las masas en reposo de la partículas creadas. Por esta razón, se requieren fotones de muy alta energía, de acuerdo a la relación de Einstein E=mc2 . Para dar nacimiento a electrones/positrones es necesario un campo de radiación de temperaturas mayores a 7×109 °K. Para hacer lo mismo con pares protón/antiprotón es necesario que ellas sean superiores a 2×1012 °K. Temperaturas de este tipo se producen en los primeros instantes del universo.
No debemos asombrarnos de nada a estas alturas después de todo lo que hemos podido ver.
Un equipo de científicos ha podido determinar que realmente existe una partícula que es su propia antipartícula. Se trata del fermión predicho en 1937 por el físico Ettore Majorana, que ha sido observado por primera vez en un material creado en laboratorio. Si los neutrones son partículas de Majorana, el universo está lleno de ellas, suponen los investigadores. El descubrimiento impulsará la construcción de ordenadores cuánticos.