Nov
20
El enigma del Neutrón
por Emilio Silvera ~ Clasificado en Física Cuántica ~ Comments (0)
Decaimiento β– de un núcleo. Se ilustra cómo uno de los neutrones se convierte en un protón a la vez que emite un electrón (β-) y un antineutrino electrónico.
La desintegración Beta del neutrón está mediada por un Bosón W–,que transforma uno de sus quarks, y se desintegra en el par electrón-antineutrino. Ahora leamos el reportaje de la Revista “Investigación y Ciencia”, referido a la física de partículas y a unas mediciones efectuadas que no son coincidentes.
“Dos técnicas de precisión arrojan valores distintos para el tiempo que tardan los neutrones en desintegrarse. ¿Se trata de un error experimental, o hay un misterio más profundo?
En síntesis
Un neutrón libre es un neutrón que existe fuera de un núcleo atómico. Mientras que los neutrones pueden ser estables cuando están unidos dentro de los núcleos, los neutrones libres son inestables y se desintegran con una vida media de 886 segundos, unos quince minutos.
Los neutrones libres no son estables: pasados unos 15 minutos, un neutrón se desintegra en un protón, un electrón y un antineutrino. Conocer con exactitud su vida media es clave para abordar varias cuestiones en física y cosmología.
Existen dos métodos para determinar con precisión la vida media de esta partícula. El primero cuenta los neutrones que quedan en un recipiente después de cierto tiempo; el segundo cuenta los protones generados en su desintegración.
Hace años que una y otra técnica arrojan valores considerablemente dispares. Se cree que la discrepancia obedece a errores sistemáticos en alguno de los experimentos; sin embargo, hasta ahora nadie ha logrado dar con ellos.
Así hemos podido desvelar el secreto de que como se dice antes y se ve en la imagen, el neutrón al desintegrarse sigue este camino:
14 6C → 14 7N + e–
Este proceso ocurre espontáneamente en neutrones libres, en el transcurso de 885.7(8) s de vida media.
Un neutrón está formado por dos quarks dowm (abajo) y un quark up (arriba), tiene una vida media de 14,761 minutos, es una partícula de la familia de los hadrones en su vertiente bariónica, interacción: con la Gravedad, la nuclear débil y la nuclear fuerte, su símbolo es n, su antipartícula es el antineutrón, la teorizo Rutherford y la descubrió James Chadwick, su masa es de 1,674 927 29(28)×10−27 K., la carga eléctrica es cero, espín ½. Se conoce cuando forma parte del átomo por nucleón.
Por suerte para la vida en la Tierra, la mayor parte de la materia no es radiactiva. Aunque no solemos darle demasiada importancia, este hecho no deja de resultar sorprendente, ya que el neutrón (uno de los constituyentes, junto con el protón, de los núcleos atómicos) es propenso a desintegrarse. En el interior de un núcleo típico el neutrón puede vivir durante largo tiempo, pero, aislado, se desintegra en otras partículas en unos 15 minutos. Decimos «unos 15 minutos» para ocultar nuestra ignorancia al respecto, ya que, hasta ahora, no hemos sido capaces de medir con exactitud la vida media de esta partícula.
El neutrón y el protón forman los núcleos de los átomos; el protón es estable (su vida media es superior a 10³² años, según PDG 2012), pero el neutrón es inestable (vía la interacción electrodébil se desintegra en un protón) y aislado su vida media es de solo 880,1 ± 1,1 segundos (14 minutos y 40,1 segundos).
Profundizar hasta el núcleo del átomo… ¡Es llegar a la maravilla! ¿Cómo en una parte de cien mil (que es lo que ocupa el núcleo en el átomo), puede estar el 99 por ciento de la masa del átomo, los nucleones (que son los hadrones de la rama bariónica), que están conformados por tripletes de Quarks, y, conocidos como protones y neutrones. Los Quarks están allí confinados y retenidos por la fuerza nuclear fuerte que es transmitida por partículas de la familia de los Bosones, los gluones. Si Los Quarks tratan de separarse son retenidos por la fuerza nuclear, ya que esta fuerza actúa al revés de las otras tres fuerza de la naturaleza, es decir, aumenta con la distancia. Lo dicho, una maravilla.
Hace años que una y otra técnica arrojan valores considerablemente dispares. Se cree que la discrepancia obedece a errores sistemáticos en alguno de los experimentos; sin embargo, hasta ahora nadie ha logrado dar con ellos.
Resolver este «rompecabezas de la vida media del neutrón» no solo supone una cuestión de orgullo para nuestro gremio, el de los físicos experimentales, sino que resulta también vital para comprender mejor las leyes físicas. La desintegración del neutrón constituye uno de los procesos más sencillos en los que interviene la interacción débil, una de las cuatro fuerzas fundamentales de la naturaleza. Para entenderla por completo, hemos de saber cuánto tarda un neutrón aislado en desintegrarse. Por otro lado, la vida media del neutrón condicionó cómo se formaron los elementos químicos más ligeros después de la gran explosión que dio origen a nuestro universo. A los cosmólogos les gustaría poder calcular las abundancias esperadas de los distintos elementos y contrastarlas con los datos obtenidos por los astrofísicos. Un acuerdo apuntalaría nuestras teorías cosmológicas, mientras que una discrepancia indicaría la existencia de fenómenos físicos aún por descubrir. Pero, para poder llevar a cabo dicha comparación, hemos de conocer con exactitud cuánto vive un neutrón antes de desintegrarse.
Hace más de diez años, dos grupos experimentales, uno en Francia y otro en EE.UU., intentaron medir con precisión la vida media del neutrón. Uno de nosotros (Geltenbort) pertenecía al primer equipo, mientras que el otro (Greene) trabajaba en el segundo. Con sorpresa y cierta inquietud, comprobamos que nuestros resultados diferían de manera considerable. Algunos teóricos sugirieron que la discrepancia podría deberse a fenómenos físicos exóticos, como que parte de los neutrones se hubiesen desintegrado en partículas nunca antes observadas. Nosotros, sin embargo, achacamos la diferencia a una razón mucho más mundana: uno de los grupos —o ambos— tenía que haber cometido algún error o sobreestimado la precisión de sus resultados.
Hace poco, el equipo estadounidense completó un largo y concienzudo proyecto para estudiar la principal fuente de error que afectaba a sus mediciones. Lejos de zanjar la cuestión, sus esfuerzos solo confirmaron los resultados previos. Al mismo tiempo, otros investigadores verificaron los resultados del grupo de Geltenbort. Esta discrepancia nos ha dejado más perplejos de lo que ya estábamos, pero no hemos abandonado. Por el momento, ambos equipos y otros físicos experimentales seguimos buscando una respuesta.
CRONOMETRAR NEUTRONES
El neutrón y el protón forman los núcleos de los átomos; el protón es estable (su vida media es superior a 10³² años, según PDG 2012), pero el neutrón es inestable (vía la interacción electrodébil se desintegra en un protón) y aislado su vida media es de solo 880,1 ± 1,1 segundos (14 minutos y 40,1 segundos)
En teoría, determinar la vida media del neutrón es sencillo. Entendemos bien la física del proceso y disponemos de las herramientas adecuadas para estudiarlo. Sabemos que, siempre que una partícula pueda desintegrarse en otras de menor masa, acabará haciéndolo si en el proceso se conservan ciertas propiedades, como la carga eléctrica o el espín. En la llamada desintegración beta, un neutrón se transforma en un protón, un electrón y un antineutrino. Las masas de estas tres partículas suman algo menos que la masa del neutrón, pero la carga y el espín totales permanecen idénticos. Entre las cantidades conservadas se incluye la suma de masa y energía, por lo que las tres partículas finales incorporan esa pequeña diferencia de masa en forma de energía cinética.”
Nota: El artículo me ha sido enviado por Don José Gómez, un contertulio y visitante de ésta página que, con buen criterio, apunta que en cuanto a esas diferencias, las pruebas deben ser repetidas en distintos lugares y, si es posible, por distintos científicos también, ya que, en física de partícula, los resultados de un experimento, debe coincidir sin fisuras.
Nov
15
¿Una familia de partículas inmortales?
por Emilio Silvera ~ Clasificado en Física Cuántica ~ Comments (0)
Las interacciones cuánticas convierten a las cuasipartículas en inmortales – K. Verresen / TUM
Por primera vez, un equipo de físicos comprueba que las cuasipartículas renacen de sus cenizas después de desintegrarse
Si hay algo en lo que todos estamos de acuerdo es que nada dura para siempre. Lo dicen las leyes de la Física, en concreto la segunda ley de la termodinámica, que es la que rige el destino del Universo: toda actividad o proceso incrementa la entropía de un sistema. O lo que es lo mismo, el desorden. Por eso envejecemos, por eso las estrellas se apagan, los átomos se descomponen y por eso, también, los cristales de un vaso que se ha roto jamás volverán a recomponerse.
Pero un equipo de investigadores de la Universidad Técnica de Munich, en el Instituto Max Planck para la Física de Sistemas Complejos, parece haber hallado una excepción a esta norma universal. De hecho, han descubierto que lo que parece inconcebible en nuestra experiencia cotidiana puede estar sucediendo en el misterioso mundo cuántico. Y que allí, unos extraños entes llamados “cuasipartículas” tienen la propiedad de desintegrarse y volver a renacer después de sus propias cenizas, en una serie de ciclos que no tienen fin y que las convierte, de hecho, en inmortales. El extraordinario hallazgo se acaba de publicar en Nature Physics.
Las cuasipartículas pueden describirse como un extraño fenómeno de “excitación colectiva” que sucede en el interior de los cuerpos sólidos. Cuando, por ejemplo, un electrón se mueve en el interior de un sólido, su movimiento se ve perturbado por las interacciones con otros muchos electrones, o núcleos atómicos, que también se están moviendo. Y eso hace que, a pesar de seguir comportándose como un electón libre, tenga una masa diferente, que recibe el nombre de “cuasipartícula de electrones”. Otras cuasipartículas incluyen a los fonones, que son partículas derivadas de las vibraciones de los átomos dentro de un sólido, a los plasmones, que son partículas derivadas de las oscilaciones de un plasma, y a muchas otras, como los famosos fermiones de Majorana, que son a la vez materia y antimateria, los fluxones, los plasmones o los solitones.
En los grandes aceleradores de partículas podemos observar sus comportamientos y desvelar sus secretos
A pesar de que una cuasipartícula implica a todas las partículas que, con sus movimientos, se afectan unas a otras, pueden ser consideradas como partículas individuales que se mueven en el interior de un sistema, rodeadas por una nube de otras partículas que se apartan de su camino o que son arrastradas por su movimiento. El concepto de cuasipartículas fue acuñado por el físico y ganador del premio Nobel Lev Davidovich Landau. Lo usó para describir estados colectivos de muchas partículas o más bien sus interacciones debido a fuerzas eléctricas o magnéticas. A causa de estas interacciones, varias partículas actúan como una sola.
“Hasta ahora -explica Frank Pollmann, uno de los autores del artículo- se suponía que las cuasipartículas en sistemas cuánticos interactivos decaen después de un cierto tiempo. Pero ahora sabemos que no es así: las interacciones fuertes pueden, incluso, detener la descomposición por completo”.
“Hasta el momento -prosigue el investigador- no se sabía con detalle qué procesos influyen en el destino de esas cuasipartículas en sistemas que interactúan. Pero ahora contamos con métodos numéricos con los que podemos calcular interacciones complejas, y computadoras con un rendimiento lo suficientemente alto como para resolver estas ecuaciones”.
Con estas armas a su disposición, los investigadores llevaron a cabo complejas simulaciones para “espiar” a las cuasipartículas. “Es cierto que se desintegran -explica por su parte Ruben Verresen, autor principal del estudio- pero nuevas entidades de partículas idénticas emergen de los escombros. Si el decaimiento se produce muy rápidamente, después de un cierto tiempo se produce una reacción inversa y los escombros vuelven a converger. Este proceso puede repetirse sin fin, como una oscilación sostenida en el tiempo entre decaimiento y renacimiento”.
Muerte y resurrección
La mecánica cuántica tiene muchas implicaciones que no llegamos a comprender
Desde el punto de vista de la Física, esa oscilación entre “muerte y resurrección” puede considerarse como una onda que se transforma en materia, en virtud de la dualidad onda-partícula que predice la mecánica cuántica. Por lo tanto, las cuasipartículas inmortales no violan la segunda ley de la termodinámica. Su entropía permanece constante, la decadencia se detiene.
Cada día damos un paso más en el conocimiento de lo muy pequeño
El descubrimiento, además, consigue también explicar una serie de fenómenos que hasta ahora habían desconcertado a los científicos. Los físicos experimentales, por ejemplo, han medido que el compuesto magnético Ba3CoSB2O9 es sorprendentemente estable, cuando no debería serlo. Ahora se sabe que los magnones, un tipo de cuasipartículas magnéticas, son las responsables de ello. Del mismo modo, otras cuasipartículas, los fotones hacen posible que el helio, que en la superficie de la Tierra es un gas, se convierta en un líquido a -273 grados centígrados (el cero absoluto, donde la actividad atómica se detiene) y pueda seguir fluyendo sin restricciones.
“Nuestro trabajo es pura investigación básica -enfatiza Pollmann-. Sin embargo, es perfectamente posible que algún día nuestros resultados permitan incluso aplicaciones, por ejemplo, la construcción de memorias de datos duraderas para futuras computadoras cuánticas”.
Noticias
Nov
9
¿Qué habrá más allá del Modeo Estándar de la Física de Partículas?
por Emilio Silvera ~ Clasificado en Física Cuántica ~ Comments (0)
Intentaremos viajar más allá del Modelo Estándar
Para entrar en materia
“Inicialmente, se presenta, de modo simplificado, el Modelo Estándar como una teoría sofisticada que identifica las partículas elementales y sus interacciones. Después, en el ámbito de esa teoría, se enfocan aspectos – el vacuo no es vacío; partículas desnudas y vestidas; materia oscura y viento oscuro; materia y antimateria; el campo y el bosón de Higgs; neutrinos oscilantes – que pueden ser motivadores desde el punto de vista de la enseñanza y del aprendizaje de la Física. Finalmente, se discute la probable superación de esa teoría por otra más completa.”
“… el Modelo Estándar es, en la historia, la más sofisticada teoría matemática sobre la naturaleza. A pesar de la palabra “modelo” en su nombre, el Modelo Estándar es una teoría comprensiva que identifica las partículas básicas y especifica cómo interactúan. Todo lo que pasa en nuestro mundo (excepto los efectos de la gravedad) es resultado de las partículas del Modelo Estándar interactuando de acuerdo con sus reglas y ecuaciones.”
La Física actual busca una teoría más amplia que el modelo estándar . Una teoría que dé una descripción completa, unificada y consistente de la estructura fundamental del universo. ¿Será la compleja Teoría de cuerdas,que integra también la interacción gravitaroria?
El modelo estándar es una poderosa herramienta pero no cumple todas las expectativas; no es un modelo perfecto. En primer lugar, podríamos empezar por criticar que el modelo tiene casi veinte constantes que no se pueden calcular. Desde luego, se han sugerido numerosas ideas para explicar el origen de todos estos parámetros o números inexplicables y sus valores, pero el problema de todas estas teorías es que los argumentos que dan nunca han sido enteramente convincentes. ¿Por qué se iba a preocupar la naturaleza de una fórmula mágica si en ausencia de tal fórmula no hubiera contradicciones? Lo que realmente necesitamos es algún principio fundamental nuevo, tal como el principio de la relatividad, pero no queremos abandonar todos los demás principios que ya conocemos. Ésos, después de todo, han sido enormemente útiles en el descubrimiento del modelo estándar. El mejor lugar para buscar un nuevo principio es precisamente donde se encuentran los puntos débiles de la presente teoría y, construímos máquinas como el LHC para que nos diga lo que no sabemos.
Una regla universal en la física de partículas es que para partículas con energías cada vez mayores, los efectos de las colisiones están determinados por estructuras cada vez más pequeñas en el espacio y en el tiempo. El modelo estándar es una construcción matemática que predice sin ambigüedad cómo debe ser el mundo de las estructuras aún más pequeñas. Pero existen varias razones para sospechar que sus predicciones pueden, finalmente (cuando podamos emplear más energía en un nivel más alto), resultar equivocadas.
Vistas a través del microscopio, las constantes de la naturaleza parecen estar cuidadosamente ajustadas sin ninguna otra razón aparente que hacer que las partículas parezcan lo que son. Hay algo muy erróneo aquí. Desde un punto de vista matemático no hay nada que objetar, pero la credibilidad del modelo estándar se desploma cuando se mira a escalas de tiempo y longitud extremadamente pequeñas, o lo que es lo mismo, si calculamos lo que pasaría cuando las partículas colisionan con energías extremadamente altas. ¿Y por qué debería ser el modelo válido hasta aquí? Podrían existir muchas clases de partículas súper pesadas que no han nacido porque se necesitan energías aún inalcanzables. ¿Dónde está la partícula de Higgs? ¿Cómo se esconde de nosotros el gravitón?
Parece que el Modelo estándar no admite la cuarta fuerza y tendremos que buscar más profundamente, en otras teorías que nos hablen y describan además de las partículas conocidas de otras nuevas que están por nacer y que no excluya la Gravedad. Ese es el Modelo que necesitamos para conocer mejor la Naturaleza.
Claro que las cosas no son tan sencilla y si deseamos evitar la necesidad de un delicado ajuste de las constantes de la naturaleza, creamos un nuevo problema: ¿cómo podemos modificar el modelo estándar de tal manera que el ajuste fino no sea necesario? Está claro que las modificaciones son necesarias, lo que implica que muy probablemente haya un límite más allá del cual el modelo tal como está deja de ser válido. El modelo estándar no será nada más que una aproximación matemática que hemos sido capaces de crear, de forma que todos los fenómenos que hemos observado hasta el presente están reflejados en él, pero cada vez que se pone en marcha un aparato más poderoso, tenemos que estar dispuestos a admitir que puedan ser necesarias algunas modificaciones del modelo para incluir nuevos datos que antes ignorábamos.
Más allá del modelo estándar habrá otras respuestas que nos lleven a poder hacer otras preguntas que en este momento, no sabemos ni plantear por falta de conocimientos. Si no conociéramos que los protones están formados por Quarks, ¿cómo nos podríamos preguntar si habrá algo más allá de los Quarks?
El gobierno de Estados Unidos, después de llevar gastados miles de millones de dólares, suspendió la construcción del supercolisionador superconductor de partículas asestando un duro golpe a la física de altas energías, y se esfumó la oportunidad para obtener nuevos datos de vital importancia para el avance de este modelo, que de momento es lo mejor que tenemos.
Se han estado inventando nuevas ideas, como la supersimetría y el technicolor. Los astrofísicos estarán interesados en tales ideas porque predicen una gran cantidad de nuevas partículas superpesadas, y también varios tipos de partículas que interaccionan ultradébilmente, los technipiones. Éstas podrían ser las WIMP’s (Weakly Interacting Massive Particles, o Partículas Masivas Débilmente Interactivas) que pueblan los huecos entre las galaxias, y serían así las responsables de la masa perdida que los astrofísicos siguen buscando y llaman “materia oscura”.
Que aparezcan “cosas” nuevas y además, imaginarlas antes, no es fácil. Recordemos cómo Paul Dirac se sintió muy incómodo cuando en 1931 dedujo, a partir de su ecuación del electrón, que debería existir una partícula con carga eléctrica opuesta. Esa partícula no había sido descubierta y le daba reparo perturbar la paz reinante en la comunidad científica con una idea tan revolucionaria, así que disfrazó un poco la noticia: “Quizá esta partícula cargada positivamente, tan extraña, sea simplemente el protón”, sugirió. Cuando poco después se identificó la auténtica antipartícula del electrón (el positrón) se sorprendió tanto que exclamó: “¡Mi ecuación es más inteligente que su inventor!”. Este último comentario es para poner un ejemplo de cómo los físicos trabajan y buscan caminos matemáticos mediante ecuaciones de las que, en cualquier momento (si están bien planteadas), surgen nuevas ideas y descubrimientos que ni se podían pensar. Así pasó también con las ecuaciones de Einstein de la relatividad general, donde Schwarzschild dedujo la existencia de los agujeros negros.
Se piensa que al principio del comienzo del tiempo, cuando surgió el Big Bang, las energías eran tan altas que allí reinaba la simetría total; sólo había una sola fuerza que todo lo englobaba. Más tarde, a medida que el universo se fue expandiendo y enfriando, surgieron las cuatro fuerzas que ahora conocemos y que todo lo rigen. Tenemos los medios, en los supercolisionadores de partículas, para viajar comenzando por 1.000 MeV, hasta finalizar en cerca de 1019 MeV, que corresponde a una escala de longitudes de aproximadamente 10–30 cm. Howard Georgi, Helen Quinn y Steven Weinberg descubrieron que ésta es la región donde las tres constantes de acoplamiento gauge se hacen iguales (U(1), SU(2) y SU(3)); resultan ser lo mismo. ¿Es una coincidencia que las tres se hagan iguales simultáneamente? ¿Es también una coincidencia que esto suceda precisamente en esa escala de longitud? Faltan sólo tres ceros más para alcanzar un punto de retorno. Howard Georgi y Sheldon Glashow descubrieron un modelo genuinamente unificado en el dominio de energías de 1019 MeV tal que, cuando se regresa de allí, espontáneamente surgen las tres fuerzas gauge tal como las conocemos. De hecho, ellos encontraron el modelo; la fórmula sería SU(5), que significa que el multiplote más pequeño debe tener cinco miembros.
Materia y Energía Oscura… Un Misterio…Sin resolver.
Y, a todo esto, ¿dónde está esa energía oculta? ¿Y donde la materia? Podemos suponer que la primera materia que se creo en el Universo fue la que llamamos (algún nom,bre había que ponerle) “Materia Oscura”, esa clase de Ilem o sustancia primera del Universo que mejor sería llamarla invisible, ya que, de no ser así, difícil sería explicar cómo se pudieron formar las primeras estrellas y galaxias de nuestro Universo, ¿dónde está el origen de la fuerza de Gravedad que lo hizo posible, sino en esa materia escondida?
¡Lo dicho! Necesitamos saber, y, deseo que de una vez por todas, se cumpla lo que dejó dicho Hilbert en su tumba de Gotinga (Alemania): “Tenemos que saber, ¡sabremos!. Pero…
¡Que sea pronto!
Emilio Silvera Vázquez
Nov
5
¡La Hiperdimensionalidad! ¡Qué cosas nos cuentan!
por Emilio Silvera ~ Clasificado en Física Cuántica ~ Comments (1)
El 21 de diciembre de 2010 científicos estadounidenses descubrieron “un vimana atrapado en un pozo del tiempo“ (un campo gravitatorio electromagnético, que sólo puede ocurrir en una dimensión invisible del espacio) en la ciudad de Balkh, Afganistán, lugar que alguna vez Marco Polo catalogó como: “Una de las ciudades más nobles y grandiosas del mundo”.
Los intentos por retirar el misterioso Vimana de la cueva donde había estado oculto durante por lo menos 5.000 años, causaron la “desaparición” de por lo menos 8 soldados norteamericanos, atrapados por el vórtex temporal ( nuestros cuerpos no pueden desplazarse como si nada del presente al futuro y del futuro al pasado sin cargarse el peso destructivo de las leyes de la fìsica, salvo si se logra bloquear el campo magnético, algo que aparentemente los científicos norteamericanos tardaron ocho cadáveres en descubrir y solucionar, probablemente con jaulas de Faraday ).
La existencia de este tipo de fenómenos no está demostrado por los científicos (caso contrario estaríamos hablando de leyes), pero los físicos teóricos coinciden en general que podrían ser posibles si se acepta la teoría del Multi-universo (un universo de por lo menos 11 dimensiones espaciotemporales) como estructura lógica y matemática. Atravesando esa especie de plasma líquido, nos podríamos trasladar a otros mundos, a otras galaxias.
Theodor Kaluza, ya en 1921 conjeturaba que si ampliáramos nuestra visión del universo a 5 dimensiones, entonces no habría más que un solo campo de fuerza: la gravedad, y lo que llamamos electromagnetismo sería tan sólo la parte del campo gravitatorio que opera en la quinta dimensión, una realidad espacial que jamás reconoceríamos si persistiéramos en nuestros conceptos de realidad lineal, similar a un holograma.
Bueno, independientemente de que todo esto pueda ser una realidad, lo cierto es que, nosotros, ahora en nuestro tiempo, hablamos de un universo con más dimensiones y, la carrera de las más altas dimensiones la inicio (como arrtiba se menciona) en el año 1919 (no el 1921) por Theodor Kaluza, un oscuro y desconocido matemático, cuando le presentó a Einstein mediante un escrito una teoría unificada que podía unificar, las dos grandes teorías del momento, la Relatividad General con el Magnetismo y podía realizarse si elaboraba sus ecuaciones en un espacio-tiempo de cinco dimensiones.
Teoría de la Relatividad de Kaluza
Así estaban las cosas cuando en 1.919 recibió Einstein un trabajo de Theodor Kaluza, un privatdozent en la Universidad de Königsberg, en el que extendía la Relatividad General a cinco dimensiones. Kaluza consideraba un espacio con cuatro dimensiones, más la correspondiente dimensión temporal y suponía que la métrica del espacio-tiempo se podía escribir como:
Theodor Kaluza
En 1921, Einstein presentó en la Academia Prusiana un artículo de Theodor Kaluza… en el que el campo gravitacional y electromagnético están unificados geométricamente en cinco dimensiones.
Así que, como hemos dicho, ese mismo año, Oskar Klein publicaba un trabajo sobre la relación entre la teoría cuántica y la relatividad en cinco dimensiones. Uno de los principales defectos del modelo de Kaluza era la interpretación física de la quinta dimensión. La condición cilíndrica impuesta ad hoc hacía que ningún campo dependiera de la dimensión extra, pero no se justificaba de manera alguna.
Klein propuso que los campos podrían depender de ella, pero que ésta tendría la topología de un círculo con un radio muy pequeño, lo cual garantizaría la cuantización de la carga eléctrica. Su diminuto tamaño, R5 ≈ 8×10-31 cm, cercano a la longitud de Planck, explicaría el hecho de que la dimensión extra no se observe en los experimentos ordinarios, y en particular, que la ley del inverso del cuadrado se cumpla para distancias r » R5. Pero además, la condición de periodicidad implica que existe una isometría de la métrica bajo traslaciones en la quinta dimensión, cuyo grupo U(1), coincide con el grupo de simetría gauge del electromagnetismo.
Einstein al principio se burló de aquella disparatada idea pero, más tarde, habiendo leido y pensado con más atenci`´on en lo que aquello podía significar, ayudó a Kaluza a publicar su idea de un mundo con cinco dimensiones (allí quedó abierta la puerta que más tarde, traspasarían los teóricos de las teorías de más altas dimensiones). Algunos años más tarde, , el físico sueco Oskar Klein publicó una versión cuántica del artículo de Kaluza. La Teoría Kaluza-Klein que resultó parecía interesante, pero, en realidad, nadie sabía que hacer con ella hasta que, en los años setenta; cuando pareció beneficioso trabajar en la supersimetría, la sacaron del baúl de los recuerdos, la desempolvaron y la tomaron como modelo.
Pronto, Kaluza y Klein estuvieron en los labios de todo el mundo (con Murray Gell-Mann, en su papel de centinela lingüistico, regañando a sus colegas que no lo sabían pronunciar “Ka-wu-sah-Klein”.
Pero, ¿Existen en nuestro Universo dimensiones ocultas?
Aunque la teoría de cuerdas en particular y la supersimetría en general apelaban a mayores dimensiones, las cuerdas tenían un modo de seleccionar su dimensionalidad requerida. Pronto se hizo evidente que la Teoría de cuerdas sólo sería eficaz, en dos, diez y veintiséis dimensiones, y sólo invocaba dos posibles grupos de simetría: SO(32) o E8 x E8. Cuando una teoría apunta hacia algo tan tajante, los científicos prestan atención, y a finales de los años ochenta había decenas de ellos que trabajaban en las cuerdas. Por aquel entonces, quedaba mucho trabajo duro por hacer, pero las perspectivas era brillantes. “Es posible que las décadas futuras -escribieron Schwarz y sus colaboradores en supercuerdas Green y Edward Witten- sea un excepcional período de aventura intelectual.” Desde luego, la aventura comenzó y, ¡qué aventura!
La Constante de Estructura Fina (α)
Lo único que cuenta en la definición del mundo son los valores de las constantes adimensionales de la naturaleza (así lo creían Einstein y Planck). Si se duplica el valor de todas las masas no se puede llegar a saber, porque todos los números puros definidos por las razones de cualquier par de masas son invariables.
Puesto que el radio de compactificación es tan pequeño, el valor típico de las masas será muy elevado, cercano a la masa de Planck Mp = k-12 = 1’2 × 1019 GeV*, y por tanto, a las energías accesibles hoy día (y previsiblemente, tampoco en un futuro cercano – qué más quisieran E. Witten y los perseguidores de las supercuerdas -), únicamente el modo cero n = 0 será relevante. Esto plantea un serio problema para la teoría, pues no contendría partículas ligeras cargadas como las que conocemos.
¿Y si llevamos a Kaluza-Klein a dimensiones superiores para unificar todas las interacciones?
En este proceso llamado desintegración beta y debido a la interacción débil, un neutrón se transforma en un protón, un electrón y un (anti)neutrino electrónico cuando uno de los quarks del neutrón emite una partícula W–. Aquí queda claro que el término “interacción” es más general que “fuerza”; esta interacción que hace cambiar la identidad de las partículas no podría llamarse fuerza (todo representado en uno de los famosos diagramas de Feynman).
La descripción de las interacciones débiles y fuertes a través de teorías gauge no abelianas mostró las limitaciones de los modelos en cincodimensiones, pues éstas requerirían grupos de simetría mayores que el del electromagnetismo. En 1964 Bryce de UIT presentó el primer modelo de tipo Kaluza-Klein–Yang-Mills en el que el espacio extra contenía más de una dimensión.
El siguiente paso sería construir un modelo cuyo grupo de isometría contuviese el del Modelo Estándar SU(3)c × SU(2)l × U(1)y, y que unificara por tanto la gravitación con el resto de las interacciones.
Edward Witten demostró en 1981 que el número total de dimensiones que se necesitarían sería al menos de once. Sin embargo, se pudo comprobar que la extensión de la teoría a once dimensiones no podía contener fermiones quirales, y por tanto sería incapaz de describir los campos de leptones y quarks.
Por otra parte, la supersimetría implica que por cada bosón existe un fermión con las mismas propiedades. La extensión supersimétrica de la Relatividad General es lo que se conoce como supergravedad (supersimetría local).
Joël Scherk (1946-1980) (a menudo citado como Joel Scherk) fue un francés teórico físico que estudió la teoría de cuerdas ysupergravedad [1] . Junto con John H. Schwarz , pensaba que la teoría de cuerdas es una teoría de la gravedad cuántica en 1974. En 1978, junto con Eugène Cremmer y Julia Bernard , Scherk construyó el lagrangiano y supersimetría transformaciones parasupergravedad en once dimensiones, que es uno de los fundamentos de la teoría-M .
Unos años antes, en 1978, Cremmer, Julia y Scherk habían encontrado que la super-gravedad, precisamente en once dimensiones, tenía propiedades de unicidad que no se encontraban en otras dimensiones. A pesar de ello, la teoría no contenía fermiones quirales, como los que conocemos, cuando se compactaba en cuatro dimensiones. Estos problemas llevaron a gran parte de los teóricos al estudio de otro programa de unificación a través de dimensiones extra aún más ambicioso, la teoría de cuerdas.
No por haberme referido a ella en otros trabajos anteriores estará de más dar un breve repaso a las supercuerdas. Siempre surge algún matiz nuevo que enriquece lo que ya sabemos.
El origen de la teoría de supercuerdas data de 1968, cuando Gabriela Veneziano introdujo los modelos duales en un intento de describir las amplitudes de interacción hadrónicas, que en aquellos tiempos no parecía provenir de ninguna teoría cuántica de campos del tipo de la electrodinámica cuántica. Posteriormente, en 1979, Yaichiro Nambu, Leonard Susskind y Holger Nielsen demostraron de forma independiente que las amplitudes duales podían obtenerse como resultado de la dinámica de objetos unidimensionales cuánticos y relativistas dando comienzo la teoría de cuerdas.
En 1971, Pierre Ramona, André Neveu y otros desarrollaron una teoría de cuerdas con fermiones y bosones que resultó ser supersimétrica, inaugurando de esta forma la era de las supercuerdas.
David Jonathan Gross
Sin embargo, en 1973 David Gross, David Politzer y Frank Wilczek descubrieron que la Cromodinámica Cuántica, que es una teoría de campos gauge no abeliana basada en el grupo de color SU(3)c, que describe las interacciones fuertes en términos de quarks y gluones, poseía la propiedad de la libertad asintótica. Esto significaba que a grandes energías los quarks eran esencialmente libres, mientras que a bajas energías se encontraban confinados dentro de los hadrones en una región con radio R de valor R ≈ hc/Λ ≈ 10-13 cm.
Dicho descubrimiento, que fue recompensado con la concesión del Premio Nobel de Física a sus autores en 2.004, desvió el interés de la comunidad científica hacia la Cromodinámica Cuántica como teoría de las interacciones fuertes, relegando casi al olvido a la teoría de supercuerdas.
Se habla de cuerdas abiertas, cerradas o de lazos, de p branas donde p denota su dimensionalidad (así, 1 brana podría ser una cuerda y 2.Brana una membrana) o D-Branas (si son cuerdas abiertas) Y, se habla de objetos mayores y diversos que van incorporados en esa teoría de cuerdas de diversas familias o modelos que quieren sondear en las profundidades del Universo físico para saber, como es.
En la década de los noventa se creó una versión de mucho éxito de la teoría de cuerdas. Sus autores, los físicos de Princeton David Gross, Emil Martinec, Jeffrey Harvey y Ryan Rohn, a quienes se dio en llamar el cuarteto de cuerdas de Princeton.
El de más edad de los cuatro, David Gross, hombre de temperamento imperativo, es temible en los seminarios cuando al final de la charla, en el tiempo de preguntas, con su inconfundible vozarrón dispara certeros e inquisidoras preguntas al ponente. Lo que resulta sorprendente es el hecho de que sus preguntas dan normalmente en el clavo.
Gross y sus colegas propusieron lo que se denomina la cuerda heterótica. Hoy día, de todas las variedades de teorías tipo Kaluza-Klein que se propusieron en el pasado, es precisamente la cuerda heterótica la que tiene mayor potencial para unificar todas las leyes de la naturaleza en una teoría. Gross cree que la teoría de cuerdas resuelve el problema de construir la propia materia a partir de la geometría de la que emergen las partículas de materia y también la gravedad en presencia de las otras fuerzas de la naturaleza.
¿Por qué será que, cuando los físicos manejan las ecuaciones de la teoría de cuerdas, sin que nadie las llame, allí aparecen las ecuaciones de campo de la Relatividad General? ¿No será que que en esa teoría no verificada subyace una teoría de la Gr4avedad cuántica?
El caso curioso es que, la Relatividad de Einstein, subyace en la Teoría de cuerdas, y, si eliminamos de esta a aquella y su geometría de la Gravedad…todo resulta inútil. El gran Einstein está presente en muchos lugares y quizás, más de los que nos podamos imaginar.
Es curioso constatar que si abandonamos la teoría de la gravedad de Einstein como una vibración de la cuerda, entonces la teoría se vuelve inconsistente e inútil. Esta, de hecho, es la razón por la que Witten se sintió atraído inicialmente hacia la teoría de cuerdas. En 1.982 leyó un artículo de revisión de John Schwarz y quedó sorprendido al darse cuenta de que la gravedad emerge de la teoría de supercuerdas a partir solamente de los requisitos de auto consistencia. Recuerda que fue “la mayor excitación intelectual de mi vida”.
Gross se siente satisfecho pensando que Einstein, si viviera, disfrutaría con la teoría de supercuerdas que sólo es válida si incluye su propia teoría de la relatividad general, y amaría el hecho de que la belleza y la simplicidad de esa teoría proceden en última instancia de un principio geométrico, cuya naturaleza exacta es aún desconocida.atividad general de Einstein. Nos ayuda a estudiar las partes más grandes del Universo, como las estrellas y las galaxias. Pero los elementodiminutoso los átomos y las partículas subatómicas se rigen por unas leyes diferentes denominadas mecánica cuántica.
Claro que, como todos sabemos, Einstein se pasó los últimos treinta años de su vida tratando de buscar esa teoría unificada que nunca pudo encontrar. No era consciente de que, en su tiempo, ni las matemáticas necesarias existían aún. En la historia de la física del siglo XX muchos son los huesos descoloridos de teorías que antes se consideraban cercanas a esa respuesta final que incansables buscamos.
Hasta el gran Wolfgang Pauli había colaborado con Heisenberg en la búsqueda de una teoría unificada durante algún tiempo, pero se alarmó al oir en una emisión radiofónica como Heisenberg decía: “Está a punto de ser terminada una Teoría unificada de Pauli-Heisenserg, en la que sólo nos queda por elaborar unos pocos detalles técnicos.”
Wolfgang Pauli
Enfadado por lo que consideraba una hipérbole de Heisenberg que se extralimitó con aquellas declaraciones en las que lo inviolucraba sin su consentimiento, Pauli envió a Gamow y otros colegas una simple hija de papel en blanco en la que había dibujado una caja vacía. Al pie del dibujo puso estas palabras: “Esto es para demostrar al mundo que yo puedo pintar con Tiziano. Sólo faltan algunos detalles técnicos.”
Los críticos del concepto de supercuerdas señalaron que las afirmaciones sobre sus posibilidades se basaban casi enteramente en su belleza interna. La teoría aún no había repetido siquiera los logros del Modelo Estándar, ni había hecho una sola predicción que pudiera someterse a prueba mediante el experimento. La Supersimetría ordenaba que el Universo debería estar repleto de familias de partículas nuevas, entre ellas los selectrones (equivalente al electrón supersimétrico) o el fotino (equivalente al fotón).
Lo cierto es que, nada de lo predicho ha podido ser comprobado “todavía” pero, sin embargo, la belleza que conlleva la teoría de cuerdas es tal que nos induce a creer en ella y, sólo podemos pensar que no tenemos los medios necesarios para comprobar sus predicciones, con razón nos dice E. Witten que se trata de una teoría fuera de nuestro tiempo, las supercuerdas pertenecen al futuro y aparecieron antes por Azar.
Y, a todo esto, ¿Dónde están esas otras dimensiones?
Bueno, una cosa es segura…. ¡Siempre hay más de lo que podemos ver! Ni subido en lo más alto podemos ver todo lo que hay.
Emilio Silvera Vázquez
Oct
26
El Electrón (el personaje más pequeño de la familia leptón)
por Emilio Silvera ~ Clasificado en Física Cuántica ~ Comments (1)
Sí, el electrón es el más pequeño de la familia si no tenemos en cuenta los neutrinos acompañantes
En esta representación artística, un electrón orbita el núcleo de un átomo, girando alrededor de su eje mientras una nube de otras partículas subatómicas se emiten y reabsorben constantemente – Nicolle R. Fuller, Fundación Nacional de Ciencia
El Electrón sigue siendo la esfera más perfecta del Universo
El examen de esta partícula elemental con una precisión sin precedentes respalda, una vez más, el modelo estándar de la física
Investigadores del Imperial College de Londres concluyeron en 2011 que el electrón es la esfera más perfecta del Universo. Según anunciaron, lo que separa a esta partícula elemental de la redondez absoluta es menos de 0,000000000000000000000000001 cm, algo insignificante. En otras palabras, «si un electrón se inflara hasta el tener el tamaño del Sistema Solar, todavía parecería esférico».
Ahora, investigadores de las universidades estadounidenses de Northwestern, Harvard y Yale han examinado nuevamente la forma de la carga del electrón con una precisión sin precedentes. Y nada ha cambiado. Los investigadores han confirmado que es perfectamente esférico. Esta conclusión va mucho más allá de una mera curiosidad científica. Una carga ligeramente aplastada podría haber indicado partículas pesadas desconocidas y difíciles de detectar a su alrededor, un descubrimiento que, de haberse producido, habría afectado a la comunidad física mundial. Sin embargo, y aunque para algunos puede resultar decepcionante, todo parece seguir el guion del modelo estándar, la teoría que describe cómo funciona el Universo y que, pese a sus lagunas evidentes, todavía no ha podido ser desbancada.
Representación de un electrón- Nicolle R. Fuller, Fundación Nacional de Ciencia
«Si hubiéramos descubierto que la forma no era redonda, ese sería el mayor titular en física de las últimas décadas», dice Gerald Gabrielse, quien dirigió la investigación en Northwestern. «Pero nuestro descubrimiento sigue siendo igual de importante científicamente porque fortalece el modelo estándar de la física de partículas y excluye modelos alternativos». El estudio aparece publicado en la revista «Nature».
El modelo estándar describe la mayoría de las fuerzas y partículas fundamentales en el universo. Es una imagen matemática de la realidad, y ningún experimento de laboratorio realizado ha sido capaz de contradecirlo por el momento. Pero eso ha sido desconcertante para los físicos durante décadas. «El modelo estándar tal como está no puede ser correcto porque no puede predecir por qué existe el Universo», señala Gabrielse, profesor de física. «Esa es una laguna bastante grande».
Supersimetría
Al tratar de «arreglar» el modelo estándar, muchos modelos alternativos predicen que la esfera aparentemente uniforme de un electrón está en realidad aplastada asimétricamente. Uno de esos modelos, llamado supersimetría, postula que partículas subatómicas pesadas y desconocidas influyen en el electrón para alterar su forma perfectamente esférica, un fenómeno no probado llamado «momento dipolar eléctrico». Estas partículas más pesadas y sin descubrir podrían ser responsables de algunos de los misterios más deslumbrantes del Universo y posiblemente podrían explicar por qué está hecho de materia en lugar de antimateria.
«Casi todos los modelos alternativos dicen que la carga de electrones podría estar aplastada, pero simplemente no lo hemos visto con suficiente sensibilidad», apunta Gabrielse. «Es por eso que decidimos mirar allí con una precisión más alta de lo que nunca antes se había observado».
Crean un microscopio capaz de “ver” electrones en movimiento
Investigadores de la Universidad de Arizona desarrollan el microscopio más rápido del mundo que abre nuevas fronteras en la observación de procesos electrónicos ultrarrápidos.
En física, el electrón, comúnmente representado por el símbolo e−, es una partícula subatómica con una carga eléctrica elemental negativa. Un electrón no tiene componentes o subestructura conocidos; en otras palabras, generalmente se define como una partícula elemental.
Con este objetivo en mente, el equipo disparó un haz de moléculas de óxido de torio frías a una cámara del tamaño de un escritorio grande. Luego, los investigadores estudiaron la luz emitida por las moléculas. Una luz torcida indicaría un momento dipolo eléctrico. Como la luz no se torció, el equipo de investigación concluyó que la forma del electrón era, de hecho, redonda, confirmando la predicción del modelo estándar. Que no haya evidencia de un momento dipolo eléctrico significa que no hay evidencia de esas partículas hipotéticas más pesadas. Y si a pesar de todo estas partículas existen, sus propiedades difieren de las predichas por los teóricos.
«Nuestro resultado le dice a la comunidad científica que necesitamos repensar seriamente algunas de las teorías alternativas», asegura David DeMille, profesor de física en Yale y coautor del estudio.
En 2014, el equipo realizó la misma medición con un aparato más simple. Al utilizar métodos mejorados y diferentes frecuencias de láser, el experimento actual era un orden de magnitud más sensible que su predecesor. «Si un electrón fuera del tamaño de la Tierra, podríamos detectar si el centro del planeta está a una distancia un millón de veces más pequeña que un cabello humano», explica Gabrielse. «Así de sensible es nuestro aparato».
Los investigadores planean seguir afinando sus instrumentos para realizar mediciones cada vez más precisas. Hasta que los investigadores encuentren evidencias de lo contrario, la forma redonda de los electrones y los misterios del universo permanecerán como están.
«Sabemos que el modelo estándar está mal, pero parece que no podemos encontrar dónde está mal. Es como una gran novela de misterio», admite Gabrielse. «Debemos ser muy cuidadosos al hacer suposiciones de que estamos más cerca de resolver el misterio, pero tengo una gran esperanza de que nos estamos acercando a este nivel de precisión».
Para saber más: Marzio Nessi, físico del CERN: «Estamos a punto de dar el salto a una nueva física».