Dic
12
¡Fisica! Siempre la Física estará presente
por Emilio Silvera ~ Clasificado en Física Cuántica ~ Comments (5)
Todo el Universo conocido nos ofrece una imagen con una ingente cantidad de objetos que se nos presentan en diferentes formas y maneras: Estrellas y mundos, quásares, estrellas de neutrones, magnñetares, enanas blancas y rojas, de neutrones (y no sabemos si también de Quarks), Explosiones Supernovas que dan lugar a extraños objetos y a regar el espacio interestelar con inmensas nebulosas que están cargadas de los materiales “fabricado” en los núcleos de las estrellas y también, en esas mismas explosiones. Y, cuando las estrellas sin muy masivas y llegan al final de sus días, agotado el combustible nuclear de fusión, se convierten en singularidades rodeadas de un horizonte de sucesos… ¡Un agujero negro!.
El paso del Tiempo lo cambia todo
El Hubble nos llevó los confines del Universo profundo para ver viejas galaxias de 13.000 millones de años de edad, y, cercanas al del Universo primitivo. C on la nueva generación de Telescopios espaciales, podremos contemplar el Universo aún no existían estrellas y, la materia, se estaba formando.
Se cree que cuando el universo se expandió y se enfrió a unos 3000 ºK, se volvió transparente a la radiación, que es la que observamos en la actualidad, mucho más fría y diluida, como radiación térmica de microondas. El descubrimiento del fondo de microondas en 1.956 puso fin a una larga batalla entre el Big Bang y su rival, la teoría del universo estacionario de Fred Hoyle y otros, que no podía explicar la forma de cuerpo negro del fondo de microondas. Es irónico que el término Big Bang tuviera inicialmente un sentido burlesco y fue acuñado por Hoyle, contrario a la teoría del universo inflacionario que se inventó el término “¡La Gran Explosión!” para burlarse de la teoría.
¡El Universo! ¿Sería eso lo que pasó?
Como nunca dejaremos a aprender cosas nuevas, de desvelar secretos de la Naturaleza, de seguir investigando en busca de “otras verdades”, de elaborar nuevos modelos y nuevas Teorías que nos acerquen, cada vez más a la realidad del mundo (ese es, de momento, nuestro cometido), estamos abocados a tratar de saber lo que no sabemos y que, no pocas veces, creemos que sabemos. Ya lo dijo el gran Sócrates:
“Sólo se que no se nada”
Popper lo amplió:
“Cuanto más profundizo en el saber de las cosas, más consciente soy de lo poco que sé. Mis conocimientos son limitados, mi ignorancia, es infinita“.
Las sustancias formadas por una sola clase de átomos se llaman elementos químicos. La palabra “átomo” procede del griego ατομος, que significa “indivisible” y el uso de la palabra “elemento” sugiere que se ha llegado a los ladrillos básicos con los que está formada la materia. De hecho, esta es la imagen que se tenía a mediados del siglo XIX cuando se acuñaron estos términos. Sin embargo, hoy sabemos que todo esto es falso, que los átomos se pueden dividir y que, de esta manera, los elementos han dejado de ser verdaderamente elementales. Los físicos continúan con esta nomenclatura aunque sea formalmente incorrecta, ya que, la costumbre, como dicen los juristas, no pocas veces rigen la jerga de las leyes.
“La revolución de la mecánica cuántica empieza a materializarse, y el qubit es el principal protagonista. Siendo la unidad mínima de información de extraño mundo, permitirá procesar toda la información existente en segundos.” El futuro que nos aguarda es inimaginable y cada día que pasa aparecen nuevos logros tecnológicos que nos sitúan en otro mundo, otra sociedad, otras nuevas formas de vivir y de comprender.
Sí, son los electrones los que dan al átomo su forma esférica
A todo esto y hablando de los átomos, por fuerza, nos tenemos que acordar del electrón que da al átomo su esférica. Son partículas cargadas eléctricamente que se mueven alegremente alrededor del núcleo. El electrón es muy ligero: su masa es solamente 1/1.836 de la del núcleo más ligero (el hidrógeno). La carga eléctrica del electrón es de signo opuesto a la del núcleo, de manera que los electrones están fuertemente atraídos el núcleo y se repelen mutuamente. Si la carga eléctrica total de los electrones en un átomo iguala a la del núcleo, lo que generalmente se necesitan varios electrones, se dice que el átomo está en equilibrio o que es eléctricamente neutro.
Un experimento realizado por científicos del Centro de Viena para la Ciencia y Tecnología Cuánticas ha demostrado que, en el mundo cuántico, la transición hacia el equilibrio térmico es más interesante y más complicada de lo que se pensaba.
Según destaca el , publicado en ‘Science’, entre un ordenado inicial y un estado final estadísticamente mixto, puede emerger un “cuasi-estacionario estado intermedio”. Este estado intermedio ya exhibe algunas propiedades como el equilibrio, pero parte de las características del estado inicial permanecen visibles durante un período de tiempo muy largo.
El fenómeno se denomina “pre-termalización” y desempeña un papel importante en diversos procesos de no equilibrio en la física cuántica. Podría, por ejemplo, ayudarnos a comprender el estado del universo temprano.
La fuerza a la que obedecen los electrones, la denominada fuerza electrostática o de Coulomb, es matemáticamente bastante sencilla y, sin embargo, los electrones son los responsables de las importantes propiedades de los “enlaces químicos”. Esto se debe a que las leyes de movimiento de los electrones están regidas completamente por la “mecánica cuántica”, teoría que se completó a principios del siglo XX. Es una teoría paradójica y difícil de entender y explicar, pero al mismo tiempo es muy interesante, fantástica y revolucionaria. uno se introduce en las maravillas de la mecánica cuántica es como si hiciera un viaje a un universo que está situado fuera de este mundo nuestro, ya que, las cosas que allí se ven, desdicen todo lo que dicta nuestro sentido común de cómo tiene que ser el mundo que nos rodea.
Sincronización perfecta, ¡es una sinfonía interpretada por la Naturaleza!
No solamente los electrones, sino también los núcleos atómicos y los átomos en su conjunto obedecen y se rigen por la mecánica cuántica. La Física del siglo XX empezó exactamente en el año 1900, cuando el físico alemán Max Planck, escribió un artículo de ocho páginas y allí propuso una posible solución a un problema que había intrigando a los físicos durante años. Es el problema de la luz que emiten los cuerpos calentados a una cierta temperatura, y también la radiación infrarroja emitida, con menos intensidad, por los objetos más fríos.
Estaban bien aceptados entonces que esta radiación tenía un origen electromagnético y que se conocían las leyes de la naturaleza que regían estas ondas electromagnéticas. También se conocían las leyes para el frío y el calor, la así llamada “termodinámica”, o al menos eso parecía. Pero si usamos las leyes de la termodinámica para calcular la intensidad de la radiación, el resultado no tiene ningún sentido. Los cálculos nos dicen que se emitiría una cantidad infinita de radiación en el ultravioleta más lejano, y, luego, esto no es lo que sucede. Lo que se observa es que la intensidad de la radiación muestra un pico a una cierta longitud de onda característica, y que la intensidad disminuye tanto para las longitudes mayores como para las longitudes menores. Esta longitud característica es inversamente proporcional a la temperatura absoluta del objeto radiante (la temperatura absoluta se define por una escala de temperatura que empieza a 273 ºC bajo cero). Cuando a 1.000 ºC un objeto se pone al “rojo vivo”, el objeto está radiando en la zona de luz visible.
El espectro electromagnético se extiende la radiación de menor longitud de onda, como los rayos gammay los rayos X, pasando por la luz ultravioleta, la luz visible y los rayos infrarrojos, hasta las ondas electromagnéticas de mayor longitud de onda, como son las ondas de radio. Se cree que el límite la longitud de onda más pequeña posible es la longitud de Planck mientras que el límite máximo sería el tamaño del Universo.
Lo que Planck propuso fue simplemente que la radiación sólo podía ser emitida en de un tamaño dado. La cantidad de energía de uno de esos paquetes, o cuantos, es inversamente proporcional a la longitud de la onda y, por lo tanto, proporcional a la frecuencia de la radiación emitida. La sencilla fórmula es:
donde h es la constante de Planck (cuyo valor es 6,626 × 10−34 J·s). Sólo los fotones con una frecuencia alta (por encima de un valor umbral específico) podían provocar la corriente de electrones. Por ejemplo, la luz azul emitía unos fotones con una energía suficiente para arrancar los electrones del metal, mientras que la luz roja no. Una luz más intensa por encima del umbral mínimo puede arrancar más electrones, pero ninguna cantidad de luz por debajo del mismo podrá arrancar uno solo, por muy intenso que sea su brillo.
El esquema del Efecto fotoeléctrico nos muestra como la luz arranca electrones de la placa.
Poco tiempo después, en 1905, Einstein formuló esta teoría de una forma mucho más tajante: el sugirió que los objetos calientes no son los únicos que emiten radiación en de energía, sino que toda la radiación consiste en múltiplos de los paquetes de energía de Planck. El príncipe francés Louis-Victor de Broglie, dándole otra vuelta a la teoría, propuso que no sólo cualquier cosa que oscila tiene una energía, sino que cualquier cosa con energía se debe comportar como una “onda” que se extiende en una cierta región del espacio, y que la frecuencia, v, de la oscilación verifica la ecuación de Planck. Por lo tanto, los cuantos asociados con los rayos de luz deberían verse como una clase de partículas elementales: el fotón. Todas las demás clases de partículas llevan asociadas diferentes ondas oscilatorias de campos de fuerza.
El curioso comportamiento de los electrones en el interior del átomo, descubierto y explicado por el famoso físico danés Niels Bohr, se pudo atribuir a las ondas de De Broglie. Poco después, en 1926, Erwin Schrödinger descubrió escribir la teoría ondulatoria de Debroglie con ecuaciones matemáticas exactas. La precisión con la cual se podían realizar cálculos era asombrosa, y pronto quedó claro que el comportamiento de todos los objetos pequeños estaban exactamente determinados por la recién descubiertas “ecuaciones de onda cuánticas”.
Pocas dudas nos pueden caber a estas alturas de que la mecánica cuántica (de Planck) y, la Relatividad –tanto especial general- (de Einstein), además de ser las dos teorías más importantes de la Física de nuestro tiempo, funcionan de tal forma que uno, cuando profundiza en sus predicciones y las compara con lo que ocurre en el Universo, no por menos que, asombrarse, al comprobar como unas mentes humanas han sido capaces de llegar a estos profundos pensamientos que nos acerca a la realidad de la Naturaleza, al mismo tiempo que nos aleja de nuestra propia realidad.
Sí, están ahí pero, en realidad, no sabemos, a ciencia cierta, ni cómo se formaron las galaxias
¿Qué encontraremos cuando sea posible verificar la Teoría de cuerdas? ¿Qué hay más allá de los Quarks? ¿Sabremos alguna vez lo que es una singularidad? ¿Será verdad la existencia de esa materia oscura de la que tanto se habla? ¿Podremos al fín, encontrar esa fuente de energía que tanto necesita la Humanidad para dar ese segundo paso el futuro? ¿Tendremos, acaso, algún destino que no sea el de la irremisible extinción?
¡Preguntas! Preguntas y más preguntas que no podemos contestar. Es desesperante estar inmersos en inmenso océano de ignorancia. ¿Cuándo sabremos? El el epitafio que Hilbert ordenó esculpir en su Tumba, nos lo prometía: “Tenemos que saber, sabremos”. Si, ¿pero cuándo?
Lo cierto es que, las reglas de la mecánica cuántica tienen que ser aplicadas si queremos describir estadísticamente un sistema de partículas que obedece a reglas de ésta teoría en vez de las de la mecánica clásica. En estadística cuantica, los estados de energía se considera que están cuantizados. La estadística de Bose-Einstein se aplica si cualquier de partículas puede ocupar un estado cuántico dado. Dichas partículas (como dije antes) son los bosones que, tienden a juntarse.
Los bosones tienen un angular n h / 2p, donde n es cero o un entero y h es la constante de Planck. bosones idénticos, la función de ondas es siempre simétrica. Si solo una partícula puede ocupar un cuántico, tenemos que aplicar la estadística Fermi-Dirac y las partículas (como también antes dije) son los fermiones que tienen momento angular (n+½) h/2p y cualquier función de ondas de fermionesidénticos es siempre antisimétrica.
La mejor teoría explicar el mundo subatómico nació en 1928 cuando el teórico Paul Dirac combinó la mecánica cuántica con la relatividad especial para explicar el comportamiento del electrón. El resultado fue la mecánica cuántica relativista, que se transformó en un ingrediente primario en la teoría cuántica de campos. Con unas pocas suposiciones y ajustes, la teoría cuántica de campos ha probado ser suficientemente poderosa para formar la base del modelo estándar de las partículas y las fuerzas que rigen el universo.
La relación el espín y la estadística de las partículas está demostrada por el teorema espín-estadística. En un espacio de dos dimensiones es posible que existan partículas (o cuasipartículas) con estadística intermedia entre bosones y fermiones. Estas partículas se conocen con el de aiones; para aniones idénticos la función de ondas no es simétrica (un cambio de fase de+1) o antisimétrica (un cambio de fase de -1), sino que interpola continuamente entre +1 y -1. Los aniones pueden ser importantes en el análisis del efecto Hall cuántico fraccional y han sido sugeridos como un mecanismo para la superconductividad de alta temperatura.
Debido al principio de exclusión de Pauli no es imposible que dos fermiones ocupen el mismo espacio cuántico (al contrario de lo que ocurre con los bosones). Y, precisamente por eso, se degeneran electronesy neutrones dando lugar a la formación de estrellas enanas blancas y de neutrones que, encuentran la estabilidad frenando la fuerza de gravedad.
La condensación de Bose-Einstein es de importancia fundamental explicar el fenómeno de la superfluidez. A temperaturas muy bajas (del orden de 2×10-7k) se formar un condensado de Bose-Einstein, en el que varios miles de átomos forman una única entidad (un superátomo). efecto ha sido observado con átomos de rubidio y litio. Este efecto (condensación Bose-Einstein), ya habréis podido suponer, es llamado así en honor al físico Satyendra Naht Bose (1.894-1.974) y de Albert Einstein.
Más reciente es la obtención del Condensado de Bose-Einstein (BEC); en este caso las bases teóricas se postularon en la década de los 20 en manos de Satyendra Nath Bose y Albert Einstein. El primero describe ciertas reglas para determinar si dos fotones deberían considerarse idénticos o diferentes (Estadísticas de Bose) y Einstein aplica dichas reglas a los átomos intentando averiguar como se comportarían. Así, halla los efectos de que a muy bajas temperaturas los átomos están al mismo nivel cuántico produciendo fenómenos como la superfluidez o la superconductividad.
Distribución de momentos que confirma la existencia de un estado de agregación de la materia, el condensado de Bose-Einstein. obtenidos en un gas de átomos de rubidio, la coloración indica la cantidad de átomos a cada velocidad, con el rojo indicando la menor y el blanco indicando la mayor. Las áreas blancas y celestes indican las menores velocidades. A la izquierda se observa el diagrama inmediato anterior al condensado de Bose-Einstein y al centro el inmediato posterior. A la derecha se observa el diagrama luego de cierta evaporación, con la sustancia cercana a un condensado de Bose-Einstein puro. El pico no es infinitamente angosto debido al Principio de indeterminación de Heisenberg: dado que los átomos están confinados en una región del espacio, su distribución de velocidades posee necesariamente un cierto ancho mínimo. La distribución de la izquierda es para T > Tc (sobre 400 nanokelvins (nK)), la central para T < Tc (sobre 200 nK) y la de la derecha para T << Tc (sobre 50 nK).
El puntito blanco del centro es la enana blanca
Las estrellas enanas blancas, de neutrones y los púlsares existen, precisamente, por el principio de exclusión de Pauli que, degenera electrones y neutrones cuando las estrellas masivas, al final de su existencia, explotan como Supernovas y´su masa se contraen sobre sí misma más y más. Si la estrella es demasiado masiva, entonces ni ese principio de exclusión puede frenar a la Gravedad y se convierte en un Agujero negro.
Así que, el principio de exclusión de Pauli tiene aplicación no sólo a los electrones, sino también a todos los fermiones; pero no a los bosones. Si nos fijamos en todo lo que estamos hablando aquí, nos daremos de que la mecánica cuántica es extraña y siendo fácil comprender como forma un campo magnético la partícula cargada que gira, no resulta tan fácil saber por qué ha de hacer lo mismo un neutrón descargado.
Lo cierto es que ocurre así. La prueba directa más evidente de ello es que cuando un rayo de neutrones incide sobre un hierro magnetizado, no se comporta de la misma que lo haría si el hierro no estuviese magnetizado. El magnetismo del neutrón sigue siendo un misterio; los físicos sospechan que contiene cargas positivas y negativas equivalentes a cero, aunque por alguna razón desconocida, lograr crear un campo magnético cuando gira la partícula.
emilio silvera
Dic
11
Velocidades inimaginables
por Emilio Silvera ~ Clasificado en Física Cuántica ~ Comments (1)
En el centro del átomo se encuentra un pequeño grano compacto aproximadamente 100.000 veces más pequeño que el propio átomo: el núcleo atómico. Su masa, e incluso más aún su carga eléctrica, determinan las propiedades del átomo del cual forma parte. Debido a la solidez del núcleo parece que los átomos, que dan forma a nuestro mundo cotidiano, son intercambiables entre sí, e incluso cuando interaccionan entre ellos para formar sustancias químicas (los elementos). Pero el núcleo, a pesar de ser tan sólido, puede partirse. Si dos átomos chocan uno contra el otro con gran velocidad podría suceder que los núcleos llegaran a chocar entre sí y entonces, o bien se rompen en trozos, o se funden liberando en el proceso partículas subnucleares. La nueva física de la primera mitad del siglo XX estuvo dominada por los nuevos acertijos que estas partículas planteaban.
Pero tenemos la mecánica cuántica; ¿es que no es aplicable siempre?, ¿cuál es la dificultad? Desde luego, la mecánica cuántica es válida para las partículas subatómicas, pero hay más que eso. Las fuerzas con que estas partículas interaccionan y que mantienen el núcleo atómico unido son tan fuertes que las velocidades a las que tienen que moverse dentro y fuera del núcleo están cerca de la velocidad de la luz, c, que es de 299.792’458 Km/s. Cuando tratamos con velocidades tan altas se necesita una segunda modificación a las leyes de la física del siglo XIX; tenemos que contar con la teoría de la relatividadespecial de Einstein.
Esta teoría también fue el resultado de una publicación de Einstein de 1905. en esta teoría quedaron sentadas las bases de que el movimiento y el reposo son conceptos relativos, no son absolutos, como tampoco habrá un sistema de referencia absoluto con respecto al cual uno pueda medir la velocidad de la luz.
Pero había más cosas que tenían que ser relativas. En este teoría, la masa y la energía también dependen de la velocidad, como lo hacen la intensidad del campo eléctrico y del magnético. Einstein descubrió que la masa de una partícula es siempre proporcional a la energía que contienen, supuesto que se haya tenido en cuenta una gran cantidad de energía en reposo de una partícula cualquiera, como se denota a continuación:
E = mc2
Como la velocidad de la luz es muy grande, esta ecuación sugiere que cada partícula debe almacenar una cantidad enorme de energía, y en parte esta predicción fue la que hizo que la teoría de la relatividadtuviese tanta importancia para la física (¡y para todo el mundo!). Para que la teoría de la relatividadtambién sea autoconsistente tiene que ser holista, esto es, que todas las cosas y todo el mundo obedezcan a las leyes de la relatividad. No son sólo los relojes los que se atrasan a grandes velocidades, sino que todos los procesos animados se comportan de la forma tan inusual que describe esta teoría cuando nos acercamos a la velocidad de la luz. El corazón humano es simplemente un reloj biológico y latirá a una velocidad menor cuando viaje en un vehículo espacial a velocidades cercanas a la de la luz. Este extraño fenómeno conduce a lo que se conoce como la “paradoja de los gemelos”, sugerida por Einstein, en la que dos gemelos idénticos tienen diferente edad cuando se reencuentran después de que uno haya permanecido en la Tierra mientras que el otro ha viajado a velocidades relativistas.
Einstein comprendió rápidamente que las leyes de la gravedad también tendrían que ser modificadas para que cumplieran el principio relativista.
La formulación de newton es bien conocida, en la segunda imagen que se representan en este esquema dos partículas que se acercan entre sí siguiendo un movimiento acelerado. La interpretación newtoniana supone que el espacio-tiempo es llano y que lo que provoca la curvatura de las líneas de universo es la fuerza de interacción gravitatoria entre ambas partículas. Por el contrario, la interpretación einsteiniana supone que las líneas de universo de estas partículas son geodésicas (“rectas”), y que es la propia curvatura del espacio tiempo lo que provoca su aproximación progresiva.
Para poder aplicar el principio de la relatividad a la fuerza gravitatoria, el principio tuvo que ser extendido de la siguiente manera: no sólo debe ser imposible determinar la velocidad absoluta del laboratorio, sino que también es imposible distinguir los cambios de velocidad de los efectos de una fuerza gravitatoria.
Einstein comprendió que la consecuencia de esto era que la gravedad hace al espacio-tiempo lo que la humedad a una hoja de papel: deformar la superficie con desigualdades que no se pueden eliminar. Hoy en día se conocen muy bien las matemáticas de los espacios curvos, pero en el época de Einstein el uso de estas nociones matemáticas tan abstractas para formular leyes físicas era algo completamente nuevo, y le llevó varios años encontrar la herramienta matemática adecuada para formular su teoría general de la relatividad que describe cómo se curva el espacio en presencia de grandes masas como planetas y estrellas.
Einstein tenía la idea en su mente desde 1907 (la relatividad especial la formuló en 1905), y se pasó 8 años buscando las matemáticas adecuadas para su formulación.
Leyendo el material enviado por un amigo al que pidió ayuda, Einstein quedó paralizado. Ante él, en la primera página de una conferencia dada ante el Sindicato de Carpinteros, 60 años antes por un tal Riemann, tenía la solución a sus desvelos: el tensor métrico de Riemann, que le permitiría utilizar una geometría espacial de los espacios curvos que explicaba su relatividad general.
Desde que se puso en órbita el telescopio espacial de rayos gamma Fermi, el 11 de junio de 2008, ha detectado poblaciones enteras de objetos nunca antes vistos. El último hallazgo de Fermi afecta al púlsar J1823-3021A, avistado en 1994 con el radiotelescopio Lovell, en Inglaterra. Un equipo internacional de expertos se ha dado cuenta de que esta estrella pulsante emite rayos gamma y gracias a Fermi ha podido caracterizar sus inusuales propiedades. Los resultados de su investigación se publican en el último número de Science. Lo cierto es que han descubierto el púlsar de milisegundos más joven y con la fuerza magnética más potente.
No está mal que en este punto recordemos la fuerza magnética y gravitatoria que nos puede ayudar a comprender mejor el comportamiento de las partículas subatómicas.
El electromagnetismo, decíamos al principio, es la fuerza con la cual dos partículas cargadas eléctricamente se repelen (si sus cargas son iguales) o se atraen (si tienen cargas de signo opuesto).
La interacción magnética es la fuerza que experimenta una partícula eléctricamente cargada que se mueve a través de un campo magnético. Las partículas cargadas en movimiento generan un campo magnético como, por ejemplo, los electrones que fluyen a través de las espiras de una bobina.
Las fuerzas magnéticas y eléctricas están entrelazadas. En 1873, James Clerk Maxwell consiguió formular las ecuaciones completas que rigen las fuerzas eléctricas y magnéticas, descubiertas experimentalmente por Michael Faraday. Se consiguió la teoría unificada del electromagnetismo que nos vino a decir que la electricidad y el magnetismo eran dos aspectos de una misma cosa.
La interacción es universal, de muy largo alcance (se extiende entre las estrellas), es bastante débil. Su intensidad depende del cociente entre el cuadrado de la carga del electrón y 2hc (dos veces la constante de Planck por la velocidad de la luz). Esta fracción es aproximadamente igual a 1/137’036…, o lo que llamamos α y se conoce como constante de estructura fina.
En general, el alcance de una interacción electromagnética es inversamente proporcional a la masa de la partícula mediadora, en este caso, el fotón, sin masa.
También antes hemos comentado sobre la interacción gravitatoria de la que Einstein descubrió su compleja estructura y la expuso al mundo en 1915 con el nombre de teoría general de la relatividad, y la relacionó con la curvatura del espacio y el tiempo. Sin embargo, aún no sabemos cómo se podrían reconciliar las leyes de la gravedad y las leyes de la mecánica cuántica (excepto cuando la acción gravitatoria es suficientemente débil).
La teoría de Einstein nos habla de los planetas y las estrellas del cosmos. La teoría de Planck, Heisemberg, Schrödinger, Dirac, Feynman y tantos otros, nos habla del comportamiento del átomo, del núcleo, de las partículas elementales en relación a estas interacciones fundamentales. La primera se ocupa de los cuerpos muy grandes y de los efectos que causan en el espacio y en el tiempo; la segunda de los cuerpos muy pequeños y de su importancia en el universo atómico. Cuando hemos tratado de unir ambos mundos se produce una gran explosión de rechazo. Ambas teorías son (al menos de momento) irreconciliables.
- La interacción gravitatoria actúa exclusivamente sobre la masa de una partícula.
- La gravedad es de largo alcance y llega a los más lejanos confines del universo conocido.
- Es tan débil que, probablemente, nunca podremos detectar esta fuerza de atracción gravitatoria entre dos partículas elementales. La única razón por la que podemos medirla es debido a que es colectiva: todas las partículas (de la Tierra) atraen a todas las partículas (de nuestro cuerpo) en la misma dirección.
La partícula mediadora es el hipotético gravitón. Aunque aún no se ha descubierto experimentalmente, sabemos lo que predice la mecánica cuántica: que tiene masa nula y espín 2.
La ley general para las interacciones es que, si la partícula mediadora tiene el espín par, la fuerza entre cargas iguales es atractiva y entre cargas opuestas repulsiva. Si el espín es impar (como en el electromagnetismo) se cumple a la inversa.
Pero antes de seguir profundizando en estas cuestiones hablemos de las propias partículas subatómicas, para lo cual la teoría de la relatividad especial, que es la teoría de la relatividad sin fuerza gravitatoria, es suficiente.
Si viajamos hacia lo muy pequeño tendremos que ir más allá de los átomos, que son objetos voluminosos y frágiles comparados con lo que nos ocupará a continuación: el núcleo atómico y lo que allí se encuentra. Los electrones, que ahora vemos “a gran distancia” dando vueltas alrededor del núcleo, son muy pequeños y extremadamente robustos. El núcleo está constituido por dos especies de bloques: protones y neutrones. El protón (del griego πρώτος, primero) debe su nombre al hecho de que el núcleo atómico más sencillo, que es el hidrógeno, está formado por un solo protón. Tiene una unidad de carga positiva. El neutrón recuerda al protón como si fuera su hermano gemelo: su masa es prácticamente la misma, su espín es el mismo, pero en el neutrón, como su propio nombre da a entender, no hay carga eléctrica; es neutro.
La masa de estas partículas se expresa en una unidad llamada mega-electrón-voltio o MeV, para abreviar. Un MeV, que equivale a 106 electrón-voltios, es la cantidad de energía de movimiento que adquiere una partícula con una unidad de carga (tal como un electrón o un protón) cuando atraviesa una diferencia de potencial de 106 (1.000.000) voltios. Como esta energía se transforma en masa, el MeV es una unidad útil de masa para las partículas elementales.
La mayoría de los núcleos atómicos contienen más neutrones que protones. Los protones se encuentran tan juntos en el interior de un núcleo tan pequeño que se deberían repeles entre sí fuertemente, debido a que tienen cargas eléctricas del mismo signo. Sin embargo, hay una fuerza que los mantiene unidos estrechamente y que es mucho más potente e intensa que la fuerza electromagnética: la fuerza o interacción nuclear fuerte, unas 102 veces mayor que la electromagnética, y aparece sólo entre hadronespara mantener a los nucleones confinados dentro del núcleo. Actúa a una distancia tan corta como 10-15 metros, o lo que es lo mismo, 0’000000000000001 metros.
La interacción fuerte está mediada por el intercambio de mesones virtuales, 8 gluones que, como su mismo nombre indica (glue en inglés es pegamento), mantiene a los protones y neutrones bien sujetos en el núcleo, y cuanto más se tratan de separar, más aumenta la fuerza que los retiene, que crece con la distancia, al contrario que ocurre con las otras fuerzas.
La luz es una manifestación del fenómeno electromagnético y está cuantizada en “fotones”, que se comportan generalmente como los mensajeros de todas las interacciones electromagnéticas. Así mismo, como hemos dejado reseñado en el párrafo anterior, la interacción fuerte también tiene sus cuantos (los gluones). El físico japonés Hideki Yukawa (1907 – 1981) predijo la propiedad de las partículas cuánticas asociadas a la interacción fuerte, que más tarde se llamarían piones. Hay una diferencia muy importante entre los piones y los fotones: un pión es un trozo de materia con una cierta cantidad de “masa”. Si esta partícula está en reposo, su masa es siempre la misma, aproximadamente 140 MeV, y si se mueve muy rápidamente, su masa parece aumentar en función E = mc2. Por el contrario, se dice que la masa del fotón en reposo es nula. Con esto no decimos que el fotón tenga masa nula, sino que el fotón no puede estar en reposo. Como todas las partículas de masa nula, el fotón se mueve exclusivamente con la velocidad de la luz, 299.792’458 Km/s, una velocidad que el pión nunca puede alcanzar porque requeriría una cantidad infinita de energía cinética. Para el fotón, toda su masa se debe a su energía cinética.
De manera habitual se hacen toda clase de pruebas con aparatos diseñados expresamente para ello y se trata de detectar las partículas presentes en los rayos cósmicos y, también los neutrinos procedentes de agujeros negros y otras fuentes, tratando de resolver el misterio que envuelve a los rayos cósmicos
Los físicos experimentales buscaban partículas elementales en las trazas de los rayos cósmicos que pasaban por aparatos llamados cámaras de niebla. Así encontraron una partícula coincidente con la masa que debería tener la partícula de Yukawa, el pión, y la llamaron mesón (del griego medio), porque su masa estaba comprendida entre la del electrón y la del protón. Pero detectaron una discrepancia que consistía en que esta partícula no era afectada por la interacción fuerte, y por tanto, no podía ser un pión. Actualmente nos referimos a esta partícula con la abreviatura μ y el nombre de muón, ya que en realidad era un leptón, hermano gemelo del electrón, pero con 200 veces su masa.
Antes de seguir veamos las partículas elementales de vida superior a 10-20 segundos que eran conocidas en el año 1970.
Nombre | Símbolo | Masa (MeV) | Carga | Espín | Vida media (s) |
Fotón | γ | 0 | 0 | 1 | ∞ |
Leptones (L = 1, B = 0) | |||||
Electrón | e– | 0’5109990 | – | ½ | ∞ |
Muón | μ– | 105’6584 | – | ½ | 2’1970 × 10-6 |
Tau | τ | ||||
Neutrino electrónico | νe | ~ 0 | 0 | ½ | ~ ∞ |
Neutrino muónico | νμ | ~ 0 | 0 | ½ | ~ ∞ |
Neutrino tauónico | ντ | ~ 0 | 0 | ½ | ~ ∞ |
Mesones (L = 0, B = 0) | |||||
Pión + | π+ | 139’570 | 2’603 × 10-8 | ||
Pión – | π– | 139’570 | 2’603 × 10-8 | ||
Pión 0 | π0 | 134’976 | 0’84 × 10-16 | ||
Kaón + | k+ | 493’68 | 1’237 × 10-8 | ||
Kaón – | k– | 493’68 | 1’237 × 10-8 | ||
Kaón largo | kL | 497’7 | 5’17 × 10-8 | ||
Kaón corto | kS | 497’7 | 0’893 × 10-10 | ||
Eta | η | 547’5 | 0 | 0 | 5’5 × 10-19 |
Bariones (L = 0, B = 1) | |||||
Protón | p | 938’2723 | + | ½ | ∞ |
Neutrón | n | 939’5656 | 0 | ½ | 887 |
Lambda | Λ | 1.115’68 | 0 | ½ | 2’63 × 10-10 |
Sigma + | Σ+ | 1.189’4 | + | ½ | 0’80 × 10-10 |
Sigma – | Σ– | 1.1974 | – | ½ | 7’4× 10-20 |
Sigma 0 | Σ0 | 0 | ½ | 1’48 × 10-10 | |
Ksi 0 | Ξ0 | 1.314’9 | 0 | ½ | 2’9 × 10-10 |
Ksi – | Ξ– | 1.321’3 | – | ½ | 1’64 × 10-10 |
Omega – | Ω– | 1.672’4 | – | 1½ | 0’82 × 10-10 |
Para cada leptón y cada barión existe la correspondiente antipartícula, con exactamente las mismas propiedades a excepción de la carga que es la contraria. Por ejemplo, el antiprotón se simboliza con y el electrón con e+. Los mesones neutros son su propia antipartícula, y el π+ es la antipartícula del π–, al igual que ocurre con k+ y k–. El símbolo de la partícula es el mismo que el de su antipartícula con una barra encima. Las masas y las vidas medias aquí reflejadas pueden estar corregidas en este momento, pero de todas formas son muy aproximadas.
Los símbolos que se pueden ver algunas veces, como s (extrañeza) e i (isoespín) están referidos a datos cuánticos que afectan a las partículas elementales en sus comportamientos.
Debo admitir que todo esto tiene que sonar algo misterioso. Es difícil explicar estos temas por medio de la simple palabra escrita sin emplear la claridad que transmiten las matemáticas, lo que, por otra parte, es un mundo secreto para el común de los mortales, y ese lenguaje es sólo conocido por algunos privilegiados que, mediante un sistema de ecuaciones pueden ver y entender de forma clara, sencilla y limpia, todas estas complejas cuestiones.
Si hablamos del espín (o, con más precisión, el momento angular, que es aproximadamente la masa por el radio por la velocidad de rotación) se puede medir como un múltiplo de la constante de Planck, h, dividido por 2π. Medido en esta unidad y de acuerdo con la mecánica cuántica, el espín de cualquier objeto tiene que ser o un entero o un entero más un medio. El espín total de cada tipo de partícula – aunque no la dirección del mismo – es fijo.
El electrón, por ejemplo, tiene espín ½. Esto lo descubrieron dos estudiantes holandeses, Samuel Gondsmit (1902 – 1978) y George Uhlenbeck (1900 – 1988), que escribieron sus tesis conjuntamente sobre este problema en 1972. Fue una idea audaz que partículas tan pequeñas como los electronespudieran tener espín, y de hecho, bastante grande. Al principio, la idea fue recibida con escepticismo porque la “superficie del electrón” se tendría que mover con una velocidad 137 veces mayor que la de la luz, lo cual va en contra de la teoría de la relatividad general en la que está sentado que nada en el universo va más rápido que la luz, y por otra parte, contradice E=mc2, y el electrón pasada la velocidad de la luz tendría una masa infinita.
Hoy día, sencillamente, tal observación es ignorada, toda vez que el electrón carece de superficie.
Las partículas con espín entero se llaman bosones, y las que tienen espín entero más un medio se llaman fermiones. Consultado los valores del espín en la tabla anterior podemos ver que los leptones y los bariones son fermiones, y que los mesones y los fotones son bosones. En muchos aspectos, los fermionesse comportan de manera diferente de los bosones. Los fermiones tienen la propiedad de que cada uno de ellos requiere su propio espacio: dos fermiones del mismo tipo no pueden ocupar o estar en el mismo punto, y su movimiento está regido por ecuaciones tales que se evitan unos a otros. Curiosamente, no se necesita ninguna fuerza para conseguir esto. De hecho, las fuerzas entre los fermiones pueden ser atractivas o repulsivas, según las cargas. El fenómeno por el cual cada fermión tiene que estar en un estado diferente se conoce como el principio de exclusión de Pauli. Cada átomo está rodeado de una nube de electrones, que son fermiones (espín ½). Si dos átomos se aproximan entre sí, los electrones se mueven de tal manera que las dos nubes se evitan una a otra, dando como resultado una fuerza repulsiva. Cuando aplaudimos, nuestras manos no se atraviesan pasando la uno a través de la otra. Esto es debido al principio de exclusión de Pauli para los electrones de nuestras manos que, de hecho, los de la izquierda rechazan a los de la derecha.
En contraste con el característico individualismo de los fermiones, los bosones se comportan colectivamente y les gusta colocarse todos en el mismo lugar. Un láser, por ejemplo, produce un haz de luz en el cual muchísimos fotones llevan la misma longitud de onda y dirección de movimiento. Esto es posible porque los fotones son bosones.
Cuando hemos hablado de las fuerzas fundamentales que, de una u otra forma, interaccionan con la materia, también hemos explicado que la interacción débil es la responsable de que muchas partículas y también muchos núcleos atómicos exóticos sean inestables. La interacción débil puede provocar que una partícula se transforme en otra relacionada, por emisión de un electrón y un neutrino. Enrico Fermi, en 1934, estableció una fórmula general de la interacción débil, que fue mejorada posteriormente por George Sudarshan, Robert Marschak, Murray Gell-Mann, Richard Feynman y otros. La fórmula mejorada funciona muy bien, pero se hizo evidente que no era adecuada en todas las circunstancias.
Uno de los protones se transmuta en un neutrón por medio de la interacción débil, transformando un quark “up”, en “down”. Este proceso consume energía (el neutrón tiene ligeramente más masa que..
En 1970, de las siguientes características de la interacción débil sólo se conocían las tres primeras:
- La interacción actúa de forma universal sobre muchos tipos diferentes de partículas y su intensidad es aproximadamente igual para todas (aunque sus efectos pueden ser muy diferentes en cada caso). A los neutrinos les afecta exclusivamente la interacción débil.
- Comparada con las demás interacciones, ésta tiene un alcance muy corto.
- La interacción es muy débil. Consecuentemente, los choques de partículas en los cuales hay neutrinos involucrados son tan poco frecuentes que se necesitan chorros muy intensos de neutrinos para poder estudiar tales sucesos.
- Los mediadores de la interacción débil, llamados W+, W– y Z0, no se detectaron hasta la década de 1980. al igual que el fotón, tienen espín 1, pero están eléctricamente cargados y son muy pesados (esta es la causa por la que el alcance de la interacción es tan corto). El tercer mediador, Z0, que es responsable de un tercer tipo de interacción débil que no tiene nada que ver con la desintegración de las partículas llamada “corriente neutra”, permite que los neutrinos puedan colisionar con otras partículas sin cambiar su identidad.
A partir de 1970, quedó clara la relación de la interacción débil y la electromagnética (electrodébil de Weinberg-Salam).
La interacción fuerte (como hemos dicho antes) sólo actúa entre las partículas que clasificamos en la familia llamada de los hadrones, a los que proporciona una estructura interna complicada. Hasta 1972 sólo se conocían las reglas de simetría de la interacción fuerte y no fuimos capaces de formular las leyes de la interacción con precisión.
El triplete de Quarks que conforma a protones y neutrones están confinados en el núcleo del átomo y bien atados por los gluones que son los bosones intermediarios de la fuerza. Como apuntamos, el alcance de esta interacción no va más allá del radio de un núcleo atómico ligero (10-13 cm aproximadamente).
La interacción es fuerte. En realidad, la más fuerte de todas.
Lo dejaré aquí, en verdad, eso que el Modelo Estándar de la Física, es feo, complejo e incompleto y, aunque hasta el momento ha sido una buena herramienta con la que trabajar, la verdad es que, se necesita un nuevo modelo más avanzado y que incluya la Gravedad.
Existen esperanzas de que el LHC empleando energías más elevadas, nos pueda dar alguna sorpresa y encuentre objetos largamente perseguidos. Entre otros, la partícula de la “materia oscura” si finalmente se descubre que realmente existe.
emilio silvera
Dic
7
Una sola teoría para todas las fuerzas del Universo
por Emilio Silvera ~ Clasificado en Física Cuántica ~ Comments (1)
La discusión de la unificación de las leyes de la Naturaleza fue más bien abstracta, y lo habría seguido siendo si Einstein no hubiese dado el siguiente paso decisivo. Él comprendió que si el espacio y el tiempo pueden unificarse en una sola entidad, llamada espaciotiempo, entonces quizá la materia y la energía pueden unirse también en una relación dialéctica. Si las reglas pueden contraerse y los relojes pueden frenarse, razonó, entonces cualquier cosa que midamos con regla y relojes también debe cambiar. (Es deseable dejar aquí una nota aclaratoria de que, todo lo que ahora se cuenta de Einstein, en parte, tiene su fuente en otros científicos que, aportaron la base de sus ideas en las que él se inspiró para llegar hasta la relatividad, y, su efecto fotoeléctrico -que le valió el Nobel de Física- le llegó desde la mente de Planck que, con su cuento de acción, h, le abrió el camino a aquel trabajo).
Más rápido que la luz, en nuestro Universo conocido, nada puede ir. Ni información, ni objetos inanimados, ni seres vivos. La velocidad de la luz recorre la distancia de la Tierra a la Luna en poco más de un segundo.
Sin embargo, casi todo en el laboratorio de un físico se mide con regla y relojes. Esto significa que los físicos tendrán que recalibrar todas las magnitudes del laboratorio que una vez dieron por hecho que eran constantes.
En concreto, la energía es una cantidad que depende de cómo midamos las distancias y los intervalos de tiempo. Un automóvil de prueba que choca a gran velocidad contra una pared de ladrillos tiene obviamente energía. No obstante, si el veloz automóvil se aproxima a la velocidad de la luz, sus propiedades se distorsionan. Se contrae como un acordeón y los relojes en su interior se frenan.
Lo que es más importante, Einstein descubrió que la masa del automóvil también aumenta cuando reacelera. Pero ¿de dónde procede este exceso de masa? Y él concluyó que procedía de la energía. La masa relativista es la masa de un cuerpo medida por un observador con respecto al cual ese cuerpo se mueve. De acuerdo con la teoría de Einstein, esta masa está dada por:
donde m0 es su masa en reposo y c es la velocidad de la luz. La masa relativista sólo difiere de la masa en reposo si su velocidad es una fracción apreciable de la velocidad de la luz. Si V= c/2, por ejemplo, la masa relativista es un 15% mayor que la masa en reposo.
De hecho, cuando una partícula se acerca a la velocidad de c, su masa … ¡aumenta! El muón, aumentó su masa m´ñas de diez veces al llegar cerca de la velocidad de la luz.
Esto tuvo consecuencias perturbadoras. Dos de los grandes descubrimientos de la física del siglo XIX fueron la conservación de la masa y la conservación de la energía; es decir, la masa total y la energía total de un sistema cerrado, tomadas por separado, no cambian.
Sin embargo, Einstein decía que cuando un cuerpo material se acerca a la velcoidad de la luz, su masa aumenta y, si puediera llegar a la velocidad de c, se haría infinita. Por eso precisamente, nada, en el Universo, puede ir más rápido que la luz. Esa es la frontera que impone el Universo para la velocidad. Nació un nuevo principio de conservación que decía que la suma total de la masa y la energía debe siempre permanecer constante. La materia no desaparece repentinamente, ni la energía brota de la nada. En este sentido, la materia desaparece sólo para liberar enormes cantidades de energía o viceversa.
¿Sabremos alguna vez qué energía es la que sale del “vacío”?
Cuando Einstein tenía 26 años, calculó exactamente cómo debía cambiar la energía si el principio de la relatividad era correcto, y descubrió la relación E=mc2. Puesto que la velocidad de la luz al cuadrado (c2) es un número astronómicamente grande, una pequeña cantidad de materia puede liberar una enorme cantidad de energía. Dentro de las partículas más pequeñas de materia hay un almacén de energía, más de un millón de veces la energía liberada en una explosión química. La materia, en cierto sentido, puede verse como un depósito casi inagotable de energía; es decir, la materia es en realidad, energía condensada.
La materia del Universo…¿donde está? ¡Esa que no podemos ver!
Einstein supo ver que las dimensiones más altas tienen un propósito: unificar los principios de la Naturaleza. Al añadir dimensiones más altas podía unir conceptos físicos que, en un mundo tridimensional, no tienen relación, tales como la materia y la energía o el espacio y el tiempo que, gracias a la cuarta dimensión de la relatividad especial, quedaron unificados.
¿Que pensaba Einstein del puente Einstein-Rosen?
El puente de Einstein-Rosen conecta universos diferentes. Einstein creía que cualquier cohete que entrara en el puente sería aplastado, haciendo así imposible la comunicación entre estos dos universos. Sin embargo, cálculos más recientes muestran que el viaje a través del puente, aunque podría ser muy difícil, no sería imposible; existen ciertas posibilidades de que algún día se pudiera realizar
Posteriormente, los puentes de Einstein-Rosen se encontraron pronto en otras soluciones de las ecuaciones gravitatorias, tales como la solución de Reisner-Nordstrom que describe un agujero eléctricamente cargado. Sin embargo, el puente de Einstein-Rosen siguió siendo una nota a pie de página curiosa pero olvidada en el saber de la relatividad.
Roy Patrick Kerr (16-05-1934- ) es un matemático neozelandés, famoso por haber encontrado en 1963 una solución exacta de la ecuación de campo de la relatividad general, aplicada a un agujero negro en rotación.
Las cosas comenzaron a cambiar con la solución que el trabajo matemático presentado por el neozelandés Roy Kerr, presentado en 1.963, encontró otra solución exacta de las ecuaciones de Einstein. Kerr supuso que cualquier estrella colapsante estaría en rotación. Así pues, la solución estacionaria de Schwarzschild para un Agujero Negro no era la solución físicamente más relevante de las ecuaciones de Einstein.
La solución de Kerr causó sensación en el campo de la relatividad cuando fue propuesta. El astrofísico Subrahmanyan Chandrasekhar llegó a decir:
“La experiencia que ha dejado más huella en mi vida científica, de más de cuarenta años, fue cuando comprendí que una solución exacta de las ecuaciones de Einstein de la relatividad general, descubierta por el matemático Roy Kerr, proporciona la representación absolutamente exacta de innumerables agujeros negros masivos que pueblan el universo. Este estremecimiento ante lo bello, este hecho increíble de que un descubrimiento motivado por una búsqueda de la belleza en matemáticas encontrará su réplica exacta en la naturaleza, es lo que me lleva a decir que la belleza es aquello a lo que lleva la mente humana en su nivel más profundo“.
Si queremos saber, tendremos que desvelar lo que ocurrió y, según la información que el agujero negro retenga de los entes cósmicos que generaron su origen o de las propiedades de su anterior vida como masiva estrella.
La solución de Kerr de un agujeros negros giratorio permite que una nave espacial pase a través del centro del agujero por el eje de rotación y sobrevivir al viaje a pesar de los enormes pero finitos campos gravitorios en el centro, y seguir derecha hacia el otro universo especular sin ser destruida por la curvatura infinita.
Desde entonces, estos conceptos, los tenemos que clasificar, no por separado, sino siempre juntos como dos aspectos de un mismo ente materia-energía por una parte y espacio-tiempo por la otra. El impacto directo del trabajo de Einstein sobre la cuarta dimensión fue, por supuesto, la bomba de hidrógeno, que se ha mostrado la más poderosa creación de la ciencia del siglo XX. Claro que, en contra del criterio de Einstein que era un pacifista y nunca quiso participar en proyectos de ésta índole.
Ernest Mach
Einstein completó su teoría de la relatividad con una segunda etapa que, en parte, estaba inspirada por lo que se conoce como principio de Mach, la guía que utilizó Einstein para crear esta parte final y completar su teoría de relatividad general.
Einstein enunció que, la presencia de materia-energía determina la curvatura del espacio-tiempo a su alrededor. Esta es la esencia del principio físico que Riemann no logró descubrir: la curvatura del espacio está directamente relacionada con la cantidad de energía y materia contenida en dicho espacio.
Esto, a su vez, puede resumirse en la famosa ecuación de Einstein que, esencialmente afirma:
La ecuación anterior expresa que el contenido material determina la curvatura del espacio-tiempo.
Materia-energía determina la curvatura del espacio-tiempo.
Esa ecuación de arriba de la imagen, engañosamente corta es uno de los mayores triunfos de la mente humana (me he referido a ella en otras muchas ocasiones). De ella emergen los principios que hay tras los movimientos de las estrellas y las galaxias, los agujeros negros, el big bang, y seguramente el propio destino del Universo.
Es curiosa la similitud que se da entre la teoría del electromagnetismo y la relatividad general, mientras que Faraday experimentó y sabía los resultados, no sabía expresarlos mediante las matemáticas y, apareció Maxwell que, finalmente formuló la teoría.
Einstein, al igual que Faraday, había descubierto los principios físicos correctos, pero carecía de un formulismo matemático riguroso suficientemente potente para expresarlo (claro que Faraday no era matemático y Einstein si lo era). Carecía de una versión de los campos de Faraday para la Gravedad. Irónicamente, Riemann tenía el aparato matemático, pero no el principio físico guía, al contrario que Einstein. Así que, finalmente, fue Einstein el que pudo formular la teoría con las matemáticas de Riemann.
Mediante el Tensor métrico de Rieman, Einstein pudo formular su famosa teoría de la relatividad General, sonde el espacio y el tiempo se distorsionan en presencia de grandes masas. El tensor métrico de Riemann le permitió erigir un potente aparato para describir espacios de cualquier dimensión con curvatura arbitraría. Para su sorpresa, encontró que todos estos espacios están bien definidos y son autoconsistentes. Previamente, se pensaba que aparecerían terribles contradicciones al investigar el mundo prohibido de dimensiones más altas. Riemann no encontró ninguna. De hecho, resultaba casi trivial extender su trabajo a un espacio N-dimensional. El tensor métrico se parecía ahora a un tablero de ajedrez de N x N casillas
El tensor de Riemann contiene toda la información necesaria para poder describir un espacio curvo en N-dimensiones. Se necesita dieciséis números para describir el tensor métrico en un espacio tetradimensional. Estos números pueden disponerse en una matriz cuadrada (seis de dichos números son realmente redundantes; de modo que el tensor métrico tiene diez números independientes).
“¡Qué extraño sería que la teoría final se descubriera durante nuestra vida! El descubrimiento de las leyes finales de la Naturaleza marcará una discontinuidad en la Historia del intelecto humano, la más abrupta que haya ocurrido desde el comienzo de la ciencia moderna del siglo XVII. ¿Podemos imaginar ahora como sería?” Así se expresó Steven Weinberg que comprendia la complejidad de la empresa. Él, se refería a las modernas versiones de la teoría de cuerdas.
¿Es la belleza un principio Físico?
Cuando hablamos de las teorías de supercuerdas (todas las versiones), lo hacemos sobre otro universo…En este, de momento, las cuerdas no aparecen y, por lo que parece, durante bastante tiempo no aparecerán.Es una teoría, como nos dice Witten, adelantada a su tiempo y, no disponemos ni de la energía necesaria para poder llegar a ellas (si es que finalmente existen) ni tampoco, las matemáticas actuales son lo suficientemente potentes para poder explicarlas en toda su grandeza.
Un universo de cuerdas que vibran en el espacio-tiempo para producirm partículas…¡Todo podríam ser!
La teoría de supercuerdas nos da una formulación convincente de la teoría del Universo, sin embargo, el problema fundamental radica en que una comprobación de dicha teoría, está más allá de nuestras posibilidades actuales. De hecho, la misma teoría predice que la unificación de todas las fuerzas ocurre a la energía de Planck, o 1019 miles de millones de electronvoltios (eV), que como sabéis, es alrededor de mil billones de veces mayor que las energías actualmente disponibles en nuestros aceleradores de partículas.
Ni el LHC con toda su moderna tecnología, podría encontrar las cuerdas. No dispone de la energía de Planck, es decir 1019 GeV que es la que se calcula podría alcanzar las hipóteticas cuerdas, y, esa energía, está lejos de que la podamos manejar.
Los creadores de la QED: Feynman, Tomonaga, Schwinger y Dyson
Ya he comentado otras veces que el físico David Gross (el de más edad de los miembros conocidos como el “cuarteto de cuerdas” y autores de la teoría llamada la cuerda heterótica) dijo en una ocasión: “El coste de generar esta fantástica energía, necesitaría el dinero de las tesorerías de todos los países del mundo juntos, y quizá, no llegara. Es verdaderamente astronómico.”
Siendo así, de momento estamos condenados a no poder verificar experimentalmente este motor (parado) que haría marchar el vehículo de la Física. La teoría decadimensional está paralizada en dos sentidos: el económico y el técnico – matemático. El primero por falta de dinero que nos pudiera construir aceleradores tan potentes como para descubrir la partícula de Higgs (la única descubierta) los quarks e incluso las cuerdas vibrantes, esos previsibles y minúsculos objetos primordiales que conforman la materia. En segundo lugar, las formulaciones matemáticas complejas que, según parece, aún no se han inventado. Parece que hoy, ni siquiera Witten o Perelman, conocen el secreto de los números mágicos que nos puedan llevar hasta el final del camino iniciado con Einstein y Kaluza-Klein.
Particularmente opino que la teoría de cuerdas nos dará muchas alegrías y que en ella están las respuestas a muchas preguntas que no sabemos contestar. Incluso estaría por apostar alguna cosa (un café), sobre la posibilidad de que, aunque con mucho menos energía de la necesaria para hallar las cuerdas, en el LHC podrían aparecer…las sombras de las mismas.
No, de estas cuerdas no hablamos
Dentro del mundo de la Física, los hay de todas las opiniones: en contra y a favor. Es famosa la postura detractora del Nóbel Sheldoy Glasgow de Harvard, no quiere ni oír hablar de la teoría de supercuerdas a la que califica de física de Teatro.
Otros muchos, la mayoría, como Murray Gell-Marn, Steven Weinberg (ambos Premios Nóbel) o el mismo. E. Witten (Medalla Field), opinan lo contrario y ven en esta teoría de dimensiones más altas el futuro de la Física.
Ya sabemos que en física toda teoría debe ser verificada, una y otra vez, en uno y en otro lugar, experimentalmente, obteniendo siempre el mismo resultado, es la única manera de que sea aceptada por la comunidad científica, mientras tanto, la teoría no es fiable y queda a la espera de ser comprobada, verificada sin ningún lugar para la duda.
Pero, ¿Se puede recrear la creación?
Eso es, precisamente, lo que tratan de hacer aquí, recrear los primeros instantes del Universo
La teoría de supercuerdas trata de eso. Quiere explicarnos todos los misterios del Universo a partir de ese primer momento, ¡la creación!
¿Cuántas y cuántas páginas no habré leído y escrito sobre estos temas fascinantes de los secretos del Universo, las fuerzas que lo rigen, la materia de las Galaxias y de los objetos que lo pueblan?
No podría decirlo. Sin embargo, hay una cosa que sí puede decir: ¡Cuánto más profundizo en estas cuestiones, cuánto más conocimientos adquiero, más fascinación siento y desde luego, mi capacidad de asombro, más crece! Qué verdad dijo aquel sabio: “Siempre seremos aprendices” ¿Porque, quién puede saberlo todo? Es raro el día que nos acostamos sin haber aprendido algo nuevo.
La degradación de los cables superconductores en el corazón de la máquina de fusión ITERamenaza con provocar mayores retrasos. El ITER (International Thermonuclear Experimental Reactor) Son muchos los proyectos que tienen vía libre y otros han sido desechados por su alto costo.
El acelerador de partículas más grande del mundo está abandonado en Texas
¡Qué lastima que no se construyera el súper colisionador superconductor! (SSC), que encontrara los vestigios subatómicos que mostrara una señal característica de la supercuerda, tal como la súpersimetría. Aunque ni con este monstruoso SSC se hubiera podido sondear la distante energía de Planck, si podría habernos ofrecido una evidencia muy fuerte (aunque indirecta) de la corrección de la teoría de supercuerdas.
Este súper colisionador que se hubiese completado en las afueras de Dallas, Texas, hubiera contado con un tubo gigantesco de 85 km. De circunferencia rodeado de enormes bobinas magnéticas. Lanzaría protones a velocidades muy cercanas a la de la luz que, viajarían en el sentido de las aguas del reloj y el sentido contrario, para en un momento dado, hacerlos colisionar a una energía de 40 billones de electronvoltios (TeV), generando una intensa ráfaga de residuos subatómicos analizados por detectores que, en contrarían partículas exóticas que hubieran arrojado luz sobre la forma esencial de la materia. Los campos magnéticos para guiar los protones y los antiprotones dentro del tubo son tan excepcionalmente grandes (del orden de 100.000 veces el campo magnético de la Tierra) que, hubieran sido necesarios procedimientos extraordinarios para generarlos y mantenerlos.
Además del enfriamiento de las bobinas hasta casi el cero absoluto (-273°) y otros problemas que hubieran obligado a enormes avances tecnológicos. Sin embargo, la política, se cargó el proyecto y nos quedamos sin la esperada partícula de Higgs que es la que genera la ruptura de simetría y es por tanto el origen de la masa de los quarks, así que, habríamos podido descubrir el origen de la masa. Sin embargo, no podemos perder la esperanza, el LHC está en marcha y pronto, nos dará muchas alegrías.
Me viene a la memoria que en el siglo XIX, algunos científicos declararon que la composición de las estrellas estaría siempre fuera del alcance del experimento. En 1.825, el filósofo y crítico social francés Auguste Comte, al escribir el Curso de Filosofía, declaraba que nunca conoceríamos las estrellas de otra forma que como inalcanzables puntos de luz en el cielo debido a su enorme distancia de nosotros. Las máquinas del siglo XIX, o de cualquier siglo, argumentaba, no eran suficientemente potentes para escapar de la Tierra y alcanzar las estrellas.
Así que parecía que el determinar la composición de las estrellas era imposible, y, lo curioso es que, casi al mismo tiempo, el físico alemán Joseph Von Fraunhofer estuviera haciendo precisamente eso. Utilizando un prisma y un espectroscópio, pudo descomponer la luz blanca emitida desde las estrellas lejanas y determinar la composición química de dichas estrellas.
De la misma manera, pudiera, en este mismo instante, estar trabajando un físico-matemático en profundizar en la teoría de supercuerdas y estar formulando otro respetable avance hacia nuestro futuro.
¿Qué sería de nosotros sin la Física?
emilio silvera
Nov
24
Anti-partículas, fuerzas…
por Emilio Silvera ~ Clasificado en Física Cuántica ~ Comments (1)
Bajo la “definición basada en quarks y leptones”, las partículas elementales y compuestas formados de quarks (en púrpura) y leptones (en verde) serían la “materia”; mientras los bosones “izquierda” (en rojo) no serían materia. Sin embargo, la energía de interacción inherente a partículas compuestas (por ejemplo, gluones, que implica a los neutrones y los protones) contribuye a la masa de la materia ordinaria.
Ya hemos descrito en trabajos anteriores las dos familias de partículas elementales: Quarks y Leptones. Pero hasta ahí, no se limita la sociedad del universo infinitesimal. Existen además las anti-familias. A quarks y electrones se asocian, por ejemplo, anti-quarks y anti-electrones. A cada partícula, una anti-partícula.
Uno de los primeros éxitos de la teoría relativista del campo cuántico fue la predicción de las antipartículas: nuevos cuantos que eran la imagen especular de las partículas ordinarias. Las antipartículas tienen la misma masa y el mismo spin que sus compañeras las partículas ordinarias, pero cargas inversas. La antipartícula del electrón es el positrón, y tiene, por tanto, carga eléctrica opuesta a la del electrón. Si electrones y positrones se colocan juntos, se aniquilan, liberando la energía inmensa de su masa según la equivalencia masa-energía einstiana.
¿Cómo predijeron los físicos la existencia de anti-partículas? Bueno, por la «interpretación estadística» implicaba que la intensidad de un campo determinaba la probabilidad de hallar sus partículas correspondientes. Así pues, podemos imaginar un campo en un punto del espacio describiendo la creación o aniquilación de sus partículas cuánticas con una probabilidad concreta.
Si esta descripción matemática de la creación y aniquilación de partículas cuánticas se inserta en el marco de la teoría relativista del campo cuántico, no podemos contar con la posibilidad de crear una partícula cuántica sin tener también la de crear un nuevo género de partícula: su antipartícula. La existencia de antimateria es imprescindible para una descripción matemáticamente coherente del proceso de creación y aniquilación según la teoría de la relatividad y la teoría cuántica.
Las cargas gravitacionales en el vacío cuántico podrían proporcionar una alternativa a la materia oscura. La idea se basa en la hipótesis de que las partículas y antipartículas tienen cargas gravitacionales de signo opuesto. Como consecuencia, los pares de partícula-antipartícula virtuales en el vacío cuántico y sus dipolos de forma gravitacional (una carga gravitacional positivos y negativos) pueden interactuar con la materia bariónica para producir fenómenos que se suele atribuir a la materia oscura.
Las ondas gravitacionales han sido detectadas pero… ¡Los dipolos gravitacionales!
Aunque el físico del CERN, Dragan Slavkov Hajdukovic, quien propuso la idea, demostró matemáticamente que estos dipolos gravitacionales podrían explicar las curvas de rotación de las galaxias observadas sin la materia oscura en su estudio inicial, señaló que quedaba mucho por hacer.
Pero sigamos con la cuántica…
El pionero en comprender que era necesario que existiesen anti-partículas fue el físico teórico Paul Dirac, que hizo varías aportaciones importantes a la nueva teoría cuántica. Fue él quien formuló la ecuación relativista que lleva hoy su nombre, y a la que obedece el campo electrónico; constituye un descubrimiento comparable al de las ecuaciones del campo electromagnético de Maxwell. Cuando resolvió su ecuación, Dirac se encontró con que además de describir el electrón tenía soluciones adicionales que describían otra partícula con una carga eléctrica opuesta a la del electrón. ¿Qué significaría aquello? En la época en que Dirac hizo esta observación, no se conocían más partículas con esta propiedad que el protón. Dirac, que no deseaba que las partículas conocidas proliferasen, decidió que las soluciones adicionales de su ecuación describían el protón. Pero, tras un análisis más meticuloso, se hizo evidente que las partículas que describían las soluciones adicionales tenían que tener exactamente la misma masa que el electrón. Quedaba así descartado el protón, cuya masa es por lo menos, 1.800 veces mayor que la del electrón. Por tanto, las soluciones adicionales tenían que corresponder a una partícula completamente nueva de la misma masa que el electrón, pero de carga opuesta: ¡El antielectrón! Esto quedó confirmado a nivel experimental en 1932 cuando Carl Anderson, físico del Instituto de Tecnología de Calífornia, detectó realmente el antielectrón, que hoy se llama positrón.
El trabajo de Dirac sobre el electrón nada tiene que envidiarle al de Einstein de la Relatividads
La aparición de las anti-partículas cambió definitivamente el modo de pensar de los físicos respecto a la materia. Hasta entonces, se consideraba la materia permanente e inmutable. Podían alterarse las moléculas, podían desintegrarse los átomos en procesos radiactivos, pero los cuántos fundamentales se consideraban invariables. Sin embargo, tras el descubrimiento de la anti-materia realizado por Paul Dirac hubo que abandonar tal criterio. Heisenberg lo expresaba así:
“Creo que el hecho de que Dirac haya descubierto partículas y anti-partículas, ha cambiado toda nuestra visión de la física atómica… creo que, hasta entonces, todos los físicos habían concebido las partículas elementales siguiendo los criterios de la filosofía de Demócrito, es decir, considerando esas partículas elementales como unidades inalterables que se hallan en la naturaleza como algo dado y son siempre lo mismo, jamás cambian, jamás pueden transmutarse en otra cosa. No son sistemas dinámicos, simplemente existen en sí mismas. Tras el descubrimiento de Dirac, todo parecía distinto, porque uno podía preguntar: ¿por qué un protón no podría ser a veces un protón más un par electrón-positrón, etc.?… En consecuencia, el problema de la división de la materia había adquirido una dimensión distinta.”
Dado que la antimateria tiene la misma masa que la materia, es decir son de la misma magnitud y signo (la definición de masa es positiva siempre), el efecto gravitacional de la antimateria no debe ser distinto de la materia, es decir, siempre sera un efecto atractivo. Pero, ¿acaso no importa la equivalencia establecida de antipartícula viajando al futuro = partícula viajando al pasado?
La respuesta es sí. Dicha equivalencia proviene de algo llamado simetría CPT (Charge-Parity-Time), y nos dice que la equivalencia entre las partículas y anti-partículas no solo corresponde a realizar una transformación sobre la carga, sino también sobre la paridad y el tiempo. La carga no afecta la gravedad, pero la paridad y el tiempo si la afectan. En otras palabras, al modificarse el tiempo (poner el tiempo al reves) y el espacio (la paridad es “girar” el espacio), estamos alterando el espacio-tiempo, y como la teoría general de la relatividad lo afirma, es la geometría de este el que determina la gravedad.
El carácter mutable de la materia se convirtió en piedra angular de la nueva física de partículas. El hecho de que partículas y anti-partículas puedan crearse juntas a partir del vacío si se aporta energía suficiente, no sólo es importante para entender cómo se crean las partículas en aceleradores de alta energía, sino también para entender los procesos cuánticos que se produjeron en el Big Bang.
Como ya lo hemos expresado, el conocimiento que se obtuvo sobre la existencia de anti-familias de partículas o familias de anti-partículas es una consecuencia de la aplicación de la teoría relativista del campo cuántico, para cada partícula existe una partícula que tiene la misma masa pero cuya carga eléctrica (y otras llamadas cargas internas) son de signo opuesto. Estas son las anti-partículas. Así, al conocido electrón, con carga negativa, le corresponde un «electrón positivo» como anti-partícula, llamado positrón, descubierto en 1932. El an-tiprotón, descubierto en 1956, tiene la misma masa que el protón, pero carga eléctrica negativa de igual valor. El fotón, que no tiene masa ni carga eléctrica, puede ser considerada su propia anti-partícula.
Un agujero negro es un objeto que tiene tres propiedades: masa, espin y carga eléctrica. La forma del material en un agujero negro no se conoce, en parte porque está oculta para el universo externo, y en parte porque, en teoría, el material continuaría colapsando hasta tener radio cero, punto conocido como Singularidad, de densidad infinita.
Un agujero negro tiene tres propiedades: masa, espín y carga eléctrica. La forma del material de un agujero negro no se conoce, en parte porque está oculta para el universo externo, y en parte porque, en teoría, el material continuaría colapsando hasta tener radio cero, punto conocido como singularidad, de densidad infinita.
Cada partícula está caracterizada por un cierto número de parámetros que tienen valores bien definidos: su masa, carga eléctrica, spin o rotación interna y otros números, conocidos como cuánticos. Estos parámetros son tales que, en una reacción, su suma se mantiene y sirve para predecir el resultado. Se dice que hay conservación de los números cuánticos de las partículas. Así, son importantes el número bariónico, los diversos números leptónicos y ciertos números definidos para los quarks, como la extrañeza, color, etc. Estos últimos y sus antipartículas tienen cargas eléctricas (± 1/3 o ± 2/3) y números bariónicos (±1/3) fraccionarios. No todos los números asociados a cada partícula han sido medidos con suficiente precisión y no todas las partículas han sido detectadas en forma aislada, por lo menos de su ligamento, como el caso de los quarks y de los gluones.
Los gluones son una especie de «partículas mensajeras» que mantienen unidos a los quarks. Su nombre proviene del término inglés “glue”, que significa pegamento, en español quizás podría ser gomón. Ahora, en cuanto a los quarks, ya hicimos referencia de ellos anteriormente. Pero recordemos aquí, que fueron descubiertos en 1964 por Murray Gell-Mann, como los componentes más reducidos de la materia. Hasta entonces se pensaba que los átomos consistían simplemente en electrones rodeando un núcleo formado por protones y electrones.
En estado natural, quarks y gluones no tienen libertad. Pero si se eleva la temperatura a niveles 100.000 veces superiores, como se ha hecho en aceleradores de partículas, a la del centro del Sol, se produce el fenómeno del desconfinamiento y por un brevísimo tiempo quedan libres. En ese preciso momento aparece lo que se suele llamar plasma, «una sopa de quarks y gluones» que equivale al estado en que se podría haber encontrado la naturaleza apenas una milésima de segundo luego del Big Bang.
Recientemente se ha descubierto un nuevo estado de la materia, esta vez a niveles muy muy altos de energía, que los científicos han denominado Plasma Gluón-Quark. La transición ocurre a temperaturas alrededor de cien mil millones de grados y consiste en que se rompen las fuertes ligaduras que mantienen unidos los quarks dentro de los núcleos atómicos. Los protones y neutrones están formados, cada uno, por 3 quarks que se mantienen unidos gracias a los gluones (El gluón es la partícula portadora de interacción nuclear fuerte, fuerza que mantiene unida los núcleos atómicos). A temperaturas superiores se vence la fuerza nuclear fuerte y los protones y neutrones se dividen, formando esta sopa denominada plasma Gluón-Quark.
Pero por ahora aquí, nos vamos a quedar con los quarks al natural. Normalmente, los quarks no se encuentra en un estado separados, sino que en grupos de dos o tres. Asimismo, la duración de las vidas medias de las partículas, antes de decaer en otras, es muy variable (ver tablas).
Por otra parte, las partículas presentan una o más de las siguientes interacciones o fuerzas fundamentales entre ellas. Por un lado se tiene la gravitación y el electromagnetismo, conocidas de la vida cotidiana. Hay otras dos fuerzas, menos familiares, que son de tipo nuclear y se conocen como interacciones fuertes y débiles.
La gravitación afecta a todas las partículas, es una interacción universal. Todo cuerpo que tiene masa o energía está sometido a esta fuerza. Aunque es la más débil de las interacciones, como las masas son siempre positivas y su alcance es infinito, su efecto es acumulativo. Por ello, la gravitación es la fuerza más importante en cosmología.
Fluido ferroso que se agrupa cerca de los polos de un imán
La fuerza electromagnética se manifiesta entre partículas con cargas eléctricas. A diferencia de las demás, puede ser de atracción (entre cargas de signos opuestos) o de repulsión (cargas iguales). Esta fuerza es responsable de la cohesión del átomo y las moléculas. Mantiene los objetos cotidianos como entidades con forma propia. Un vaso, una piedra, un auto, el cuerpo humano. Es mucho más fuerte que la gravitación y aunque es de alcance infinito, las cargas de distinto signo se compensan y sus efectos no operan a grandes distancias. Dependiendo de las circunstancias en que actúen, estas interacciones pueden manifestarse como fuerzas eléctricas o magnéticas solamente, o como una mezcla de ambos tipos.
La Fuerza Nuclear Débil: otra fuerza nuclear, considerada mucho más débil que la Fuerza Nuclear Fuerte. El fenómeno de decaimiento aleatorio de la población de las partículas subatómicas (la radioactividad) era difícil de explicar hasta que el concepto de esta fuerza nuclear adicional fue introducido.
La interacción nuclear débil es causa de la radioactividad natural y la desintegración del neutrón. Tiene un rol capital en las reacciones de fusión del hidrógeno y otros elementos en el centro de las estrellas y del Sol. La intensidad es débil comparada con las fuerzas eléctricas y las interacciones fuertes. Su alcance es muy pequeño, sólo del orden de 10-15 cm.
La interacción fuerte es responsable de la cohesión de los núcleos atómicos. Tiene la intensidad más elevada de todas ellas, pero es también de corto alcance: del orden de 10-13 cm.
Es posible caracterizar las intensidades de las interacciones por un número de acoplamiento a, sin dimensión, lo que permite compararlas directamente:
Fuerte as = 15
Electromagnéticas a = 7,3 x 10-3
Débil aw 3,1 x 10-12
Gravitacional aG = 5,9 x 10-39
Por otro lado, la mecánica cuántica considera que la interacción de dos partículas se realiza por el intercambio de otras llamadas «virtuales». Tienen ese nombre porque no son observables: existen por un tiempo brevísimo, tanto más corto cuanto mayor sea su masa, siempre que no se viole el principio de incertidumbre de Heisenberg de la teoría cuántica (que en este contexto dice que el producto de la incertidumbre de la energía por el tiempo de vida debe ser igual o mayor que una constante muy pequeña). Desaparecen antes de que haya tiempo para que su interacción con otras partículas delate su existencia.
El fotón virtual común se desplaza hacia la partícula menos energética.
Dos partículas interactúan al emitir una de ellas una partícula virtual que es absorbida por la otra. Su emisión y absorción cambia el estado de movimiento de las originales: están en interacción. Mientras menos masa tiene la partícula virtual, más lejos llega, mayor es el rango de la interacción. El alcance de la interacción es inversamente proporcional a la masa de la partícula portadora o intermedia. Por ejemplo, la partícula portadora de la fuerza electromagnética es el fotón, de masa nula y, por lo tanto, alcance infinito. La interacción gravitacional también tiene alcance infinito y debe corresponder a una partícula de masa nula: se le denomina gravitón. Naturalmente tiene que ser neutro. (Aún no ha sido vistos ni en pelea de perros).
Como ya hicimos mención de ello, a las fuerzas nucleares se les asocian también partículas portadoras. Para la interacción débil estas partículas se llaman bosones intermedios, expresados como W+, W- y Z0 (neutro). El W- es antipartícula del W+. Los W tienen masas elevadas comparadas con las otras partículas elementales. Lo de bosones les viene porque tienen spin entero, como el fotón y el gravitón, que también los son, pero que tienen masas nulas. Las fuerzas fuertes son mediadas por unas partículas conocidas como gluones, de los cuales habría ocho. Sin embargo, ellos no tienen masa, pero tienen algunas de las propiedades de los quarks, que les permiten interactuar entre ellos mismos. Hasta ahora no se han observado gluones propiamente tal, ya que lo que mencionamos en párrafos anteriores corresponde a un estado de la materia a la que llamamos plasma. Claro está, que es posible que un tiempo más se puedan detectar gluones libres cuando se logre aumentar, aún más, la temperatura, como está previsto hacerlo en el acelerador bautizado como “Relativistic Heavy Ion Collider”, empotrado en Estados Unidos de Norteamérica.
TABLA DE LAS PRINCIPALES PROPIEDADES DE LAS PARTÍCULAS PORTADORAS DE LAS INTERACCIONES FUNDAMENTALES
Una partícula y su anti-partícula no pueden coexistir si están suficientemente cerca como para interactuar. Si ello ocurre, ellas se destruyen mutuamente: hay aniquilación de las partículas. El resultado es radiación electromagnética de alta energía, formada por fotones gama. Así, si un electrón está cercano a un positrón se aniquilan en rayos gama. Igual con un par protón-antiprotón muy próximos.
La reacción inversa también se presenta. Se llama «materialización o creación de partículas» de un par partícula-antipartícula a partir de fotones, pero se requieren condiciones físicas rigurosas. Es necesario que se creen pares partícula-anti-partícula y que los fotones tengan una energía mayor que las masas en reposo de la partículas creadas. Por esta razón, se requieren fotones de muy alta energía, de acuerdo a la relación de Einstein E=mc2 . Para dar nacimiento a electrones/positrones es necesario un campo de radiación de temperaturas mayores a 7×109 °K. Para hacer lo mismo con pares protón/antiprotón es necesario que ellas sean superiores a 2×1012 °K. Temperaturas de este tipo se producen en los primeros instantes del universo.
No debemos asombrarnos de nada a estas alturas después de todo lo que hemos podido ver.
Un equipo de científicos ha podido determinar que realmente existe una partícula que es su propia antipartícula. Se trata del fermión predicho en 1937 por el físico Ettore Majorana, que ha sido observado por primera vez en un material creado en laboratorio. Si los neutrones son partículas de Majorana, el universo está lleno de ellas, suponen los investigadores. El descubrimiento impulsará la construcción de ordenadores cuánticos.
emilio silvera
Nov
24
El Micro Mundo de los Átomos
por Emilio Silvera ~ Clasificado en Física Cuántica ~ Comments (0)
Sí, existe otro mundo que no vemos pero…, ¡está en éste!
La mecánica cuántica domina en el micromundo de los átomos y de las partículas “elementales”. Nos enseña que en la naturaleza cualquier masa, por sólida o puntual que pueda parecer, tiene un aspecto ondulatorio. Esta onda no es como una onda de agua. Es una onda de información. Nos indica la probabilidad de detectar una partícula. La longitud de onda de una partícula, la longitud cuántica, se hace menor cuanto mayor es la masa de esa partícula.
Por el contrario, la relatividad general era siempre necesaria cuando se trataba con situaciones donde algo viaja a la velocidad de la luz, o está muy cerca o donde la gravedad es muy intensa. Se utiliza para describir la expansión del universo o el comportamiento en situaciones extremas, como la formación de agujeros negros. Sin embargo, la gravedad es muy débil comparada con las fuerzas que unen átomos y moléculas y demasiado débil para tener cualquier efecto sobre la estructura del átomo o de partículas subatómicas, se trata con masas tan insignificantes que la incidencia gravitatoria es despreciable. Todo lo contrario que ocurre en presencia de masas considerables como planetas, estrellas y galaxias, donde la presencia de la gravitación curva el espacio y distorsiona el tiempo.
La Gravedad hace que la Tierra se vea como un mapa. Es una vista altamente exagerada, pero ilustra a las claras cómo la atracción gravitatoria que se manifiesta desde la masa de roca bajo nuestros pies no es la misma en todo lugar. La gravedad es más fuerte en áreas amarillas y más débil en las azules. (Imagen tomada por el satélite Goce)
Como resultado de estas propiedades antagónicas, la teoría cuántica y la teoría relativista gobiernan reinos diferentes, muy dispares, en el universo de lo muy pequeño o en el universo de lo muy grande. Nadie ha encontrado la manera de unir, sin fisuras, estas dos teorías en una sola y nueva de Gravedad-Cuántica.
¿Cuáles son los límites de la teoría cuántica y de la teoría de la relatividad general de Einstein? Afortunadamente, hay una respuesta simple y las unidades de Planck nos dicen cuales son.
Supongamos que tomamos toda la masa del universo visible y determinamos su longitud de onda cuántica. Podemos preguntarnos en qué momento esta longitud de onda cuántica del universo visible superará su tamaño. La respuesta es: cuando el universo sea más pequeño en tamaño que la longitud de Planck, es decir, 10-33 centímetros, más joven que el Tiempo de Planck, 10-43 segundos y supere la temperatura de Planck de 1032 grados. Las unidades de Planck marcan la frontera de aplicación de nuestras teorías actuales. Para comprender en que se parece el mundo a una escala menor que la longitud de Planck tenemos que comprender plenamente cómo se entrelaza la incertidumbre cuántica con la gravedad. Para entender lo que podría haber sucedido cerca del suceso que estamos tentados a llamar el principio del universo, o el comienzo del tiempo, tenemos que penetrar la barrera de Planck. Las constantes de la naturaleza marcan las fronteras de nuestro conocimiento existente y nos dejan al descubierto los límites de nuestras teorías.
En los intentos más recientes de crear una teoría nueva para describir la naturaleza cuántica de la gravedad ha emergido un nuevo significado para las unidades naturales de Planck. Parece que el concepto al que llamamos “información” tiene un profundo significado en el universo. Estamos habituados a vivir en lo que llamamos “la edad de la información”. La información puede ser empaquetada en formas electrónicas, enviadas rápidamente y recibidas con más facilidad que nunca antes.
Los tiempos cambian y la manera de informar también, lejos nos queda ya aquellos toscos aparatos impresores del pasado, ahora, en espacios muy reducidos, tenemos guardada más información que antes había en una colección de libros.
Nuestra evolución en el proceso rápido y barato de la información se suele mostrar en una forma que nos permite comprobar la predicción de Gordon Moore, el fundador de Intel, llamada ley de Moore, en la que, en 1.965, advirtió que el área de un transistor se dividía por dos aproximadamente cada 12 meses. En 1.975 revisó su tiempo de reducción a la mitad hasta situarlo en 24 meses. Esta es “la ley de Moore” cada 24 meses se obtiene una circuiteria de ordenador aproximadamente el doble, que corre a velocidad doble, por el mismo precio, ya que, el coste integrado del circuito viene a ser el mismo, constante.
Los límites últimos que podemos esperar para el almacenamiento y los ritmos de procesamiento de la información están impuestos por las constantes de la naturaleza. En 1.981, el físico israelí, Jacob Bekenstein, hizo una predicción inusual que estaba inspirada en su estudio de los agujeros negros. Calculó que hay una cantidad máxima de información que puede almacenarse dentro de cualquier volumen. Esto no debería sorprendernos. Lo que debería hacerlo es que el valor máximo está precisamente determinado por el área de la superficie que rodea al volumen, y no por el propio volumen. El número máximo de bits de información que puede almacenarse en un volumen viene dado precisamente por el cómputo de su área superficial en unidades de Planck. Supongamos que la región es esférica. Entonces su área superficial es precisamente proporcional al cuadrado de su radio, mientras que el área de Planck es proporcional a la longitud de Planck al cuadrado, 10-66 cm2. Esto es muchísimo mayor que cualquier capacidad de almacenamiento de información producida hasta ahora. Asimismo, hay un límite último sobre el ritmo de procesamiento de información que viene impuesto por las constantes de la naturaleza.
La información llega a todos los rincones del Mundo
No debemos descartar la posibilidad de que seamos capaces de utilizar las unidades de Planck-Stoney para clasificar todo el abanico de estructuras que vemos en el universo, desde el mundo de las partículas elementales hasta las más grandes estructuras astronómicas. Este fenómeno se puede representar en un gráfico que recree la escala logarítmica de tamaño desde el átomo a las galaxias.
Todas las estructuras del universo existen porque son el equilibrio de fuerzas dispares y competidoras que se detienen o compensan las unas a las otras; la atracción y la repulsión. Ese es el equilibrio de las estrellas donde la repulsión termonuclear tiende a expandirla y la atracción (contracción) de su propia masa tiende a comprimirla; así, el resultado es la estabilidad de la estrella. En el caso del planeta Tierra, hay un equilibrio entre la fuerza atractiva de la gravedad y la repulsión atómica que aparece cuando los átomos se comprimen demasiado juntos. Todos estos equilibrios pueden expresarse aproximadamente en términos de dos números puros creados a partir de las constantes e, h, c, G y mprotón.
α = 2πe2 / hc ≈ 1/137
αG = (Gmp2)2 / hc ≈ 10-38
La identificación de constantes adimensionales de la naturaleza como a (alfa) y aG, junto con los números que desempeñan el mismo papel definitorio para las fuerzas débil y fuerte de la naturaleza, nos anima a pensar por un momento en mundos diferentes del nuestro.
Estos otros mundos pueden estar definidos por leyes de la naturaleza iguales a las que gobiernan el universo tal como lo conocemos, pero estarán caracterizados por diferentes valores de constantes adimensionales. Estos cambios numéricos alterarán toda la fábrica de los mundos imaginarios. Los átomos pueden tener propiedades diferentes. La gravedad puede tener un papel en el mundo a pequeña escala. La naturaleza cuántica de la realidad puede intervenir en lugares insospechados.
Lo único que cuenta en la definición del mundo son los valores de las constantes adimensionales de la naturaleza (así lo creían Einstein y Planck). Si se duplica el valor de todas las masas no se puede llegar a saber, porque todos los números puros definidos por las razones de cualquier par de masas son invariables.
Cuando surgen comentarios de números puros y adimensionales, de manera automática aparece en mi mente el número 137. Ese número encierra más de lo que estamos preparados para comprender; me hace pensar y mi imaginación se desboca en múltiples ideas y teorías. Einstein era un campeón en esta clase de ejercicios mentales que él llamaba “libre invención de la mente”. El gran físico creía que no podríamos llegar a las verdades de la naturaleza sólo por la observación y la experimentación. Necesitamos crear conceptos, teorías y postulados de nuestra propia imaginación que posteriormente deben ser explorados para averiguar si existe algo de verdad en ellos. Con los adelantos actuales, estudiando la luz lejana de cuásares muy antiguos, se estudia si la constante de estructura fina (α) ha variado con el paso del tiempo.
“Detalles del cuásar 3C 273 observado con el Telescopio Espacial Hubble. La imagen de la izquierda muestra claramente lo brillante y compacto que es el objeto, lo que hizo que pareciese una estrella. Para conseguir la imagen de la izquierda se utilizó un instrumento (un coronógrafo) que bloqueaba la luz del cuásar, dejando ver su galaxia anfitriona. En ambas tomas se aprecia el chorro de gas a alta velocidad proveniente del agujero negro súper-masivo central. Una de las componentes de la emisión en radio de 3C 273 coincide perfectamente con este chorro de gas. | Crédito de la imagen: HST / NASA / ESA / STScI.”
El Universo es muy grande, inmensamente grande y, probablemente, todo lo que nuestras mentes puedan imaginar podrá exisitir en alguna parte de esas regiones perdidas en las profundidades cósmicas, en los confines del Espacio-Tiempo, en lugares ignotos de extraña belleza en los que otros mundos y otras criaturas tendrán, sus propios habitats que, siendo diferente al nuestro, también, sus criaturas, estarán buscando el significado de las leyes del Universo.
emilio silvera