Ago
15
¿Qué haríamos en un Universo sin fotones?
por Emilio Silvera ~ Clasificado en Física Cuántica ~ Comments (0)
Malentendido acerca del efecto fotoeléctrico (1905)
Es frecuente asociar el carácter corpuscular de la radiación con la explicación einsteniana del efecto fotoeléctrico en 1905. Pero tal asociación requiere precisiones. El fenómeno fue detectado por H. Hertz, en 1887, como un fenómeno secundario en sus experimentos diseñados para confirmar la teoría de Maxwell. Ironías de la historia: tratando de asentar una teoría de naturaleza continua, como es la del campo electromagnético, Hertz proporcionó, sin sospecharlo, una base experimental para pensar en posibles aspectos discretos de la radiación. Es en 1905 cuando Einstein muestra la analogía formal existente entre un gas ideal monoatómico y la radiación del cuerpo negro, si se admite para ésta la ya entonces caduca ley de Wien. Un genuino análisis le lleva a la siguiente conclusión: la radiación de frecuencia v, siempre dentro del rango de validez de aquella ley, “se comporta termodinámicamente como si estuviera constituida por cuantos de energía, mutuamente independientes, de valor hv”, donde h representa la constante de Planck. Con tal supuesto Einstein logra una explicación teórica de tres fenómenos que se resistían a ello: la regla de Stokes –la frecuencia de la emisión por luminiscencia resulta inferior a la frecuencia incidente–, el efecto fotoeléctrico y la ionización de gases por luz ultravioleta. La anterior conclusión fue entendida por muchos –y lo sigue siendo– como la introducción de la naturaleza corpuscular de la radiación. Pero es obvio que, si Einstein así lo hubiera creído, no sólo lo habría destacado como se merecía, sino que el creador de la teoría de la relatividad habría tenido que asignar al cuanto un impulso de valor hv/c. Además, aunque el efecto fotoeléctrico se explicaba como un simple choque inelástico cuanto-electrón, Einstein tendría que haber considerado también el correspondiente choque-elástico, con lo que habría previsto la existencia del efecto Compton casi veinte años antes de su detección.
Rechazo generalizado
La tónica del impacto causado por la hipótesis cuántica de Einstein se manifiesta en el discurso que Planck pronuncia –¡en 1913!– ante la Academia Prusiana de Ciencias para presentar el nuevo académico: En suma, puede afirmarse que entre los problemas importantes, tan abundantes en la física moderna, difícilmente exista uno ante el que Einstein no adoptara una posición de forma notable. Que, a veces, errara el blanco en sus especulaciones, como por ejemplo en su hipótesis acerca del cuanto de la luz, no puede esgrimirse realmente demasiado en su contra. Porque sin correr un riesgo de vez en cuando es imposible, incluso en la ciencia natural de mayor exactitud, introducir verdaderas innovaciones. Cabe entender la prevención ante tal problemática hipótesis cuántica, en tanto los experimentos no se pronunciaran. Nada más lejos de la realidad. Milikan, que publicó en 1916 sendos artículos confirmando rigurosamente las previsiones teóricas einstenianas, remataba sus conclusiones así: “A pesar del éxito aparentemente completo de la ecuación de Einstein [para el efecto fotoeléctrico], la teoría física de la que estaba destinada a ser la expresión simbólica se ha encontrado tan insostenible que el mismo Einstein, creo, ya no la sostiene”. Hasta cierto punto, resulta comprensible el rotundo y prolongado rechazo de los cuantos de energía de Einstein; una osada hipótesis que parecía sugerir, cuando menos, la necesidad de una revisión profunda de la teoría del campo continuo de radiación. ¿A cambio de qué? De casi nada, dado que la carencia de resultados experimentales rigurosos en aquella época impedía la deseable comprobación de las predicciones einstenianas de 1905.
Un jugoso Gedankenexperiment
Mostrar la compatibilidad entre los cuantos y el electromagnetismo maxwelliano representa un primer objetivo ineludible. Además de la dificultad de la tarea en sí, Einstein cuenta con la patente hostilidad de la mayoría de los líderes de la física del momento, para los cuales el comportamiento discreto de la energía de la radiación se da de bruces con el carácter continuo del campo electromagnético, al concebirlas como dos formas de comportamiento incompatibles, mutuamente excluyentes. En la reunión de la Sociedad Alemana de Científicos Naturales y Médicos de 1909, Einstein presenta una comunicación que Pauli no dudaría luego en calificar como “uno de los hitos en el desarrollo de la física teórica”. Einstein introduce aquí un fructífero Gedankenexperiment, al que volverá en 1917: un espejo se mueve libremente en la dirección perpendicular a su propio plano, reflejando totalmente la radiación comprendida en el intervalo de frecuencias (v, v + dv) y siendo transparente para el resto. El espejo se mueve en una cavidad que contiene un gas ideal monoatómico y radiación electromagnética; todo ello en equilibrio térmico, a la temperatura absoluta T. Las fluctuaciones en los choques irregulares de las moléculas de gas con el espejo implican, dada la situación de equilibrio, la existencia de fluctuaciones en la presión de la radiación. Su análisis, más intuitivo que riguroso, permite a Einstein obtener la siguiente expresión para la fluctuación de energía de la radiación:
donde h es la constante de Planck, p la densidad de energía de la radiación, c la velocidad de la luz en el vacío y V el volumen de la cavidad.
Einstein afirma que el primer sumando “recuerda” el carácter cuántico (discreto) de la radiación –al incluir la constante de Planck– mientras que asocia el segundo con un proceso de interferencias, que no concreta, entre ondas electromagnéticas. Ello le lleva a intuir en 1909, cuatro años antes de aparecer el modelo de Bohr, la necesidad de tener que incorporar, en una misma teoría, algún tipo de dualismo: “Es mi opinión, entonces, que la próxima fase del desarrollo de la física teórica nos aportará una teoría de la luz que pueda ser interpretada como una fusión de las teorías ondulatorias y de emisión [corpuscular]”.
El nacimiento del fotón
Einstein firma, en 1917, la partida de nacimiento del fotón en un artículo que contiene dos resultados de gran calado: la deducción de la ley de Planck partiendo de hipótesis cuánticas y la inferencia de la direccionalidad de los procesos elementales de emisión y absorción. Enarbolado con decisión de la navaja de Ockham se libera de resonadores y espejos. Tras comprobar que, partiendo de dos procesos elementales –emisión espontánea (EE) y absorción (A) –como responsables de la interacción materia-radiación, se llega ineludiblemente a la ya muy obsoleta ley de Wien, Einstein se apercibe de que la introducción de un tercer proceso –emisión inducida es precisamente el principio teórico que habría de regir la construcción del láser.
Ahora parte de un gas material, en equilibrio térmico con la radiación, en el que cada molécula adopta estados de un conjunto discreto, Z1, Z2, …, Zn,…, con energías respectivas E1, E2,…, En,…Las transiciones pueden darse hacia estados de energía mayor, absorbiéndola de la radiación, o hacia estados de energía menor, emitiendo la diferencia como energía radiante. Al no conocerse las leyes exactas que gobiernan estos procesos, Einstein introduce las “probabilidades de transición”, en un intervalo de tiempo d t:
La tasa de procesos inducidos por la presencia de radiación es proporcional a su densidad de energía y los “coeficientes de Einstein” A y B son característicos del apr de estados involucrados. Tras imponer la condición de equilibrio al sistema materia-radiación, Einstein deduce la ley de Planck, así como que en cualquier proceso elemental la cantidad de energía intercambiada entre materia y radiación de frecuencia v, venía dada por el mismo valor: hv. En principio, objetivo cumplido.
La segunda parte del artículo, dedicada a un análisis crítico de sus premisas y conclusiones, es la importante para nuestra conmemoración. A tal fin Einstein vuelve a recurrir a las fluctuaciones, lo que no sorprende dada la alta estima en la que las tenía. Resultaría prolijo describir aquí el tratamiento, que esencialmente consiste en una rediscusión de su Gedankenexperiment de 1909, a la luz de los nuevos supuestos. Pero queremos destacar un resultado fundamental de su peculiar análisis, del que Einstein da cuenta a su amigo y confidente Michele Besso con estas palabras:
Esto [su nuevo tratamiento] conduce al resultado (que todavía no se encuentra en el trabajo que te he enviado) de que, cuando existe intercambio de energía elemental entre radiación y materia, se transfiere el impulso h v / c a la molécula. Se deduce que todo proceso elemental de esta naturaleza es un proceso enteramente orientado. Así, queda establecida la existencia de los cuantos de luz.
Si el intercambio de energía entre materia y radiación siempre va acompañado de una transferencia de impulso, cabe afirmar que en los procesos elementales se intercambian auténticas partículas y no meros cuantos de energía, como Einstein creía en 1905. En el caso de radiación monocromática de frecuencia v, estas partículas se mueven a la velocidad de la luz, tienen masa nula –de acuerdo a las prescripciones relativistas–, energía hv e impulso hv / c. En adelante escribiremos “fotones”, aunque el término tardaría diez años en acuñarse.
Una recepción hostil: la propuesta de BKS
A mediados de 1918 Einstein expresa a Besso estas cavilaciones:
He reflexionado durante un número incalculable de horas sobre la cuestión de los cuantos, naturalmente sin hacer verdaderos progresos. Pero ya no dudo en absoluto de la realidad de los cuantos de radiación, si bien aún soy casi el único con este convencimiento.
Surgen algunos interrogantes razonables. ¿Qué razones había para que los físicos no compartieran las convicciones de Einstein? ¿Por qué continuaba éste interesado en el problema de los fotones, si consideraba que ya había probado su existencia?
Carácter ondulatorio y corpuscular de la luz
Insistimos en que la razón de peso para el rechazo del fotón era la admitida incompatibilidad entre la teoría maxwelliana (ondulatoria) y la nueva teoría cuántica (corpuscular). Pero es que, además, para una gran mayoría de los físicos del momento, las fluctuaciones –centrales en la justificación einsteniana– no pasaban de ser puro academicismo. Para ellos, resultaba inconcebible pensar en un posible desmantelamiento de la teoría del campo electromagnético –por entonces contrastada y admitida–, apoyándose básicamente en un análisis de las fluctuaciones estadísticas.
Es frecuente ver escrito que el fotón se instaló en la física en 1923, tras la explicación teórica del “efecto Compton”. Dicha explicación parecía confirmar simultáneamente dos resultados, por entonces aún en entredicho: la realidad de los fotones y la validez de la relatividad especial, que se empleaba en el análisis del choque elástico fotón-electrón libre. Pero la historia no ocurrió exactamente así, como lo prueba la publicación de un renombrado artículo firmado en 1924 por Bohr, Kramers y Slater –posteriormente conocido por las siglas BKS–, en el que se rechaza sin ambigüedad el fotón de Einstein y los consiguientes supuestos. Los autores asumen que, según el dictamen experimental, las discontinuidades cuánticas resultan ya ineludibles, pero que ello no implica la necesidad de la explicación einsteniana. De otra forma: los experimentos no conducen inexorablemente al fotón.
Precisamente el objetivo de BKS es hacer compatibles los saltos cuánticos con la descripción maxwelliana. A tal fin, la interacción materia-radiación se describe en términos de interferencias entre campos electromagnéticos, ya sean éstos reales o virtuales. El que dichas interferencias den lugar a fenómenos de absorción o emisión de radiación sólo se puede describir en términos probabilísticos análogos –según los autores– a los empleados por Einstein.
Tras reconocer que la causalidad clásica estricta resulta incompatible con la propuesta BKS, sus autores llegan a una osada conclusión: en un proceso individual de emisión o absorción, descrito sobre la base de aquellos campos virtuales, los principios de conservación de la energía y del momento dejan de ser universalmente válidos. Sólo gozan de validez estadística: se cumplen para valores medios en un número de procesos muy elevado.
En 1925, Bothe y Geiger sometieron a test experimental una de las extrañas implicaciones de BKS: la violación del principio de causalidad. Comprobaron que el electrón secundario del efecto Compton se crea en el instante mismo del impacto fotón-electrón, como exige la causalidad clásica, y no tras el tiempo medible predicho por BKS, al requerir esta teoría unas supuestas interferencias entre campos. Casi simultáneamente, Compton y Simon diseñaron un experimento diferente –ahora empleando una cámara de niebla–, que confirmaba la conservación de energía en los procesos individuales.
Epílogo
Las aspiraciones de Einstein no se colman con la introducción del fotón, al no verse capaz de reconciliarlo con el continuo del campo electromagnético. Pero, en nuestra opinión, hay otra razón de peso para su insatisfacción: el papel que la probabilidad comienza a jugar a partir de sus propias investigaciones, y de otras posteriores, como la misma propuesta BKS. Parece vislumbrar que la probabilidad puede llegar a jugar en la física un papel esencial para entender el comportamiento del mundo físico, sin limitarse a ser un mero recurso matemático, como sucede en mecánica estadística.
Si la falta de información sobre el “cuándo” y el “cómo” –de la emisión espontanea, por ejemplo– se toma como un defecto de la teoría, lo procedente sería de esperar hasta que apareciese una explicación más completa. Pero si realmente se había llegado a la teoría más afinada posible sobre el comportamiento de la radiación, el papel que en ella desempeña la probabilidad lleva a la negación del determinismo clásico. El dilema es fuerte y Einstein opta desde un principio por la primera opción: piensa que su incipiente teoría cuántica, son teorías provisionalmente válidas, pero no definitivas, por incompletas.
Ante el protagonismo que la probabilidad podía adquirir en el futuro de la física, Einstein manifiesta así su inquietud a la esposa de Born:
La opinión de Bohr sobre la radiación es de gran interés. Pero no desearía verme forzado a renunciar a la causalidad estricta sin defenderla con la mayor intensidad que lo he hecho hasta ahora. Me resulta completamente intolerable la idea de que un electrón expuesto a radiación pueda escoger según su propio libre albedrío, no sólo el momento para saltar, sino también la dirección. Si este fuera el caso, preferiría haber sido zapatero remendón, o incluso empleado de un casino, antes que físico.
El desacuerdo con Bohr que Einstein apunta aquí se mantendría ya de por vida. Subsistiría incluso después de la formulación de la mecánica cuántica (la matricial por Heisenberg en 1925 y la ondulatoria por Schrödinger en 1926) y de la electrodinámica cuántica (por Dirac en 1927); las disciplinas que proporcionan la solución vigente a los problemas que venimos exponiendo. La discrepancia entre ambos acerca de la interpretación del formalismo cuántico nunca desapareció. Hay quien piensa que esta confrontación, aunque centrada en el nacimiento del fotón y la contrapuesta BKS, representa el auténtico punto de partida del renombrado y fructífero “debate Bohr-Einstein”. Pero eso es harina de otro costal…
Autor: Luis Navarro Veguillas
Revista de la Real Sociedad Española de Física
Volumen 31. Número 2. 2017
Ago
13
¡Fluctuaciones de vacío! ¿Que son?
por Emilio Silvera ~ Clasificado en Física Cuántica ~ Comments (0)
Un fuerte campo gravitatorio puede inducir un efecto desbocado en las fluctuaciones cuánticas que se producen en el espacio, aparentemente vacío, …
En física cuántica, la fluctuación cuántica es un cambio temporal en la cantidad de energía en un punto en el espacio como resultado del Principio de Incertidumbre que imaginó Werner Heisenberg. De acuerdo a una formulación de este principio energía y tiempo se relacionan de la siguiente forma:
Esto significa que la conservación de la energía puede parecer violada, pero sólo por breves lapsos. Esto permite la creación de pares partícula-anti-partícula de partículas virtuales. El efecto de esas partículas es medible, por ejemplo, en la carga efectiva del electrón, diferente de su carga “desnuda”. En una formulación actual, la energía siempre se conserva, pero los estados propios del Hamiltoniano no son los mismos que los del operador del número de partículas, esto es, si está bien definida la energía del sistema no está bien definido el número de partículas del mismo, y viceversa, ya que estos dos operadores no conmutan.
Las fluctuaciones del vacío entre una esfera y una superficie plana
En un estudio realizado por un equipo de físicos con avanzados aparatos, han hallado un resultado del que nos dicen:
La materia se construye sobre fundamentos frágiles. Los físicos acaban de confirmar que la materia, aparentemente sustancial, es en realidad nada más que fluctuaciones en el vació cuántico. Los investigadores simularon la frenética actividad que sucede en el interios de los protones y neutrones, que como sabéis son las partículas que aportan casi la totalidad de la masa a la materia común.
Cada protón (o neutrón) se compone de tres quarks – véase ilustración – pero las masas individuales de estos quarks apenas comprenden el 1% del total de la masa del protón¿Entonces de dónde sale el resto? La teoría sostiene que esta masa es creada por la fuerza que mantiene pegados a los quarks, y que se conoce como fuerza nuclear fuerte. En términos cuánticos, la fuerza fuerte es contenida por un campo de partículas virtuales llamadas gluones, las cuales irrumpen aleatoriamente en la existencia para desaparecer de nuevo. La energía de estas fluctuaciones del vacío debe sumarse a la masa total del neutróny del protón.
En nuestras mentes se acumulan signos y fórmulas que quieren ser los exponentes de la verdadera razón y origen de la materia pero… ¡Estaremos acertando!
Tiene y encierra tantos misterios la materia que estamos aún y años-luz de y conocer sobre su verdadera naturaleza. Es algo que vemos en sus distintas formas materiales que configuran y conforman todo lo material desde las partículas elementales hasta las montañas y los océanos. Unas veces está en estado “inerte” y otras, se eleva hasta la vida que incluso, en ocasiones, alcanza la consciencia de SER. Sin embargo, no acabamos de dilucidar de dónde viene su verdadero origen, su esencia, lo que era antes de “ser” materia. ¿Existe acaso una especie de sustancia cósmica anterior a la materia? Y, si realmente existe esa sustancia… ¿Dónde está?
No será fácil llegar a controlar el vacío cuántico y tratamos de medirlo
Claro que hemos llegado a saber que las llamadas fluctuaciones del vacío son oscilaciones aleatorias, impredecibles e ineliminables de un campo de fuerza (electromagnético o gravitatorio) que son debidas a un “tira y afloja” en el que pequeñas regiones del espacio toman prestada, momentáneamente, energía de regiones adyacentes y luego las devuelven. Pero…
– ¿Qué regiones adyacentes?
Acaso universos paralelos, acaso deformaciones del espacio-tiempo a escalas microscópicas, micros agujeros negros que pasan a ser agujeros blancos salidos de estas regiones o campos de fuerza que no podemos ver pero sí sentir, y, en última instancia, ¿por qué se forman esas partículas virtuales que de inmediato se aniquilan y desaparecen antes de que puedan ser capturadas? ¿Qué sentido tiene todo eso?
Las consecuencias de la existencia del cuanto mínimo de acción fueron revolucionarios para la comprensión del vacío. Mientras la continuidad de la acción clásica suponía un vacío plano, estable y “realmente” vacío, la discontinuidad que supone el cuanto nos dibuja un vacío inestable, en continuo cambio y muy lejos de poder ser considerado plano en las distancias atómicas y menores. El vacío cuántico es de todo menos vacío, en él la energía nunca puede quedar estabilizada en valor cero, está fluctuando sobre ese valor, continuamente se están creando y aniquilando todo tipo de partículas, llamadas por eso virtuales, en las que el producto de su energía por el tiempo de su existencia efímera es menor que el cuanto de acción. Se llaman fluctuaciones cuánticas del vacío y son las responsables de que exista un que lo inunda todo llamado campo de punto cero.
Pero volvamos de nuevo a las fluctuaciones de vacío, que al igual que las ondas “reales” de energía positiva, están sujetas a las leyes de la dualidad onda/partícula; es decir, tienen tanto aspectos de onda como aspectos de partícula.
Las ondas fluctúan de forma aleatoria e impredecible, con energía positiva momentáneamente aquí, energía negativa momentáneamente allí, y energía cero en promedio. El aspecto de partícula está incorporado en el concepto de partículas virtuales, es decir, partículas que pueden nacer en pares (dos partículas a un tiempo), viviendo temporalmente de la energía fluctuacional tomada prestada de regiones “vecinas” del , y que luego se aniquilan y desaparecen, devolviendo la energía a esas regiones “vecinas”. Si hablamos de fluctuaciones electromagnéticas del vacío, las partículas virtuales son fotones virtuales; en el caso de fluctuaciones de la gravedad en el vacío, son gravitones virtuales.
De las llamadas fluctuaciones de vacío pueden surgir, partículas virtuales y quién sabe que cosas más… Hasta un nuevo Universo.
Son muchas las preguntas que no tienen respuestas
Parece que las fluctiuaciones ocurren en cualquier lugar, pero que, son tan minúsculas que ningún observador o experimentador las ha detectado de una manera franca hasta la fecha y, se sabe que están ahí por experimentos que lo han confirmado. Estas fluctuaciones son más poderosas cuanto menos escala se considera en el espacio y, por debajo de la longitud de Planck-Wheeler las fluctuaciones de vacío son tan enormes que el espacio tal como lo conocemos “pareciera estar hirviendo” para convertirse en una especie de espuma cuántica que parece que en realidad, cubre todo el espacio “vacío cuántico” que sabemos que está ahí y es el campo del que surgen esas partículas virtuales que antes mencionaba.
¿Espuma cuántica? Si profundizamos mucho en la materia… Podríamos ver otro universo distinto al nuestro. Las cosas miles de millones de veces más pequeñas que en nuestro mundo cotidiano, no parecen las mismas cosas.
Hay magnitudes asociadas con las leyes de la gravedad cuántica. La longitud de Planck-Wheeler, es la escala de longitud por debajo de la cual el tal como lo conocemos deja de existir y se convierte en espuma cuántica. El tiempo de Planck-Wheeler (1/c veces la longitud de Planck-Wheeler o aproximadamente 10-43 segundos), es el intervalo de tiempo más corto que puede existir; si dos sucesos están separados por menos que esto, no se puede decir cuál sucede antes y cuál después. El área de Planck-Wheeler (el cuadrado de la longitud de Planck-Wheeler, es decir, 2,61×10-66cm2) juega un papel clave en la entropía de un agujero negro. ¡Qué locura!
En el complejo general, por ahí, en alguna parte, permanece oculta esa teoría cuántica de la gravedad que incansables (pero sin ningún éxito hasta el momento) buscamos. Cuando sepamos unir las dos teorías de lo pequeño y lo grande, lo tendremos todo.
Como tantas veces hemos comentado, los trabajos que se han realizado sobre poder construir una teoría cuántica de la gravedad nos llevan a un sorprendente de implicaciones. Por un lado, sólo se ha podido conceptuar a la gravedad cuántica, siempre y cuando, el universo tenga más de cuatro dimensiones. Además, se llega a considerar que en la era de Planck, tanto el universo como la gravedad pudieron ser una sola cosa compacta estructurada por objetos cuánticos infinitamente diminutos, como los que suponemos que conforman las supercuerdas. A esta escala, el mismísimo espaciotiempo estaría sometido a imprescindibles fluctuaciones muy semejantes a las que causan las partículas al nacer y desaparecer de la existencia en el espaciotiempo ordinario. Esta noción ha conducido a los teóricos a describir el universo de la era cuántica como una especie de extremadamente densa y agitada espuma que pudo haber contenido las vibrantes cuerdecillas que propugnan los cosmólogos cuerdistas.
Los físicos especulan que el cosmos ha crecido a desde una «nada» primigenia que al nacer comenzó el principio del tiempo y que, en ese parto, contenía toda la materia y toda la energía.
En física como en todas las demás disciplinas científicas, los conocimientos avanzan y las teorías que sostuvieron los cimientos de nuestros conocimientos se van haciendo viejas y van teniendo que ser reforzadas con las nuevas y más poderosas “vigas” de las nuevas ideas y los nuevos hallazgos científicos que hacen posible ir perfeccionando lo que ya teníamos.
Recientemente se han alzado algunas voces contra el Principio de Incertidumbre de Heisenberg. He podido leer en un artíoculo de la prestigiosa Revista Nature, un artículo del premio Nobel de Física Gerald ´t Hoofft, en el que propone que la naturaleza probabilistica de la mecánica cuántica, desaparecería a la escala de Planck, en la que el comportamiento de la materia sería determinista; a longitudes mayores, energías más pequeñas.
El mundo de lo muy pequeño (el micro espacio), a nivel atómico y subatómico, es el dominio de la física cuántica, así nunca podríamos saber, de acuerdo m con el principio de incertidumbre, y, en un momento determinado, la posición y el estado de una partícula. Este estado podría ser una función de la escala espacio-temporal. A esta escala tamaños todo sucede demasiado deprisa para nosotros.
El “universo cuántico” nada es lo que parece a primera vista, allí entramos en otro mundo que en nada, se parece al nuestro
Cuando hablamos de la mecánica cuántica, tenemos mirar un poco hacia atrás en el tiempo y podremos darnos del gran impacto que tuvo en el devenir del mundo desde que, en nuestras vidas, apareció el átomo y, más tarde, sus contenidos. Los nombres de Planck, Einstein, Bohr, Heisenberg, Schrödinger, Pauli, Bardeen, Roentgen, Dirac y muchos otros, se pudieron a la cabeza de la lista de las personas más famosas. Aquel primer premio Nobel de Física otorgado en 1900 a Roentgen por descubrir los rayos X, en el mismo año llegaría el ¡cuanto! De Planck que inspiró a Einstein para su trabajo sobre el Efecto fotoeléctrico que también, le valdría el Nobel, y, a partir de ese momento, se desencadenó una especie de alucinante por saber sobre el átomo, sus contenidos, y, de qué estaba hecha la materia.
La conocida como Paradoja EPR y los conceptos de Tiempo y, presente, pasado y futuro. La paradoja de Einstein-Podolsky-Rosen, denominada “Paradoja EPR”, trata de un experimento mental propuesto por Albert Einstein, Boris Podolsky y Nathan Rosen en 1935. Es relevante, pues pone de manifiesto un problema aparente de la mecánica cuántica, y en las décadas siguientes se dedicaron múltiples esfuerzos a desarrollarla y resolverla.
“Nadie ha resuelto la paradoja del gato de Schröedinger, ni la paradoja de Einstein-Podolsky-Rosen. El principio de incertidumbre no se ha explicado y se asume como un dogma, lo mismo pasa con el spin. El spin no es un giro pero es un giro. Aquí hay un desafío al pensamiento humano. ¡Aquí hay una aventura del pensamiento!”
Fueron muchas las polémicas desatadas a cuenta de las aparentes incongruencias de la moderna Mecánica Cuántica. La paradoja de Einstein-Podolsky-Rosen, denominada “Paradoja EPR”, trata de un experimento mental propuesto por Albert Einstein, Boris Podolsky y Nathan Rosen en 1935. Es relevante, pues pone de manifiesto un problema aparente de la mecánica cuántica, y en las décadas siguientes se dedicaron múltiples esfuerzos a desarrollarla y resolverla.
A Einstein (y a muchos otros científicos), la idea del entrelazamiento cuántico le resultaba extremadamente perturbadora. Esta particular característica de la mecánica cuántica permite preparar estados de dos o más partículas en los cuales es imposible obtener útil sobre el estado total del sistema haciendo sólo mediciones sobre una de las partículas.
Por otro lado, en un entrelazado, manipulando una de las partículas, se puede modificar el estado total. Es decir, operando sobre una de las partículas se puede modificar el estado de la otra a distancia de manera instantánea. Esto habla de una correlación entre las dos partículas que no tiene paralaje en el mundo de nuestras experiencias cotidianas. Cabe enfatizar pues que cuando se mide el estado de una partícula, enseguida sabemos el estado de la otra, lo cual aparentemente es instantáneo, es decir, sin importar las distancias a las que se encuentren las partículas, una de la otra, ambas saben instantáneamente el estado de la otra.
El experimento planteado por EPR consiste en dos partículas que interactuaron en el pasado y que quedan en un estado entrelazado. Dos observadores reciben cada una de las partículas. Si un observador mide el momento de una de ellas, sabe cuál es el momento de la otra. Si mide la posición, gracias al entrelazamiento cuántico y al principio de incertidumbre, puede la posición de la otra partícula de forma instantánea, lo que contradice el sentido común.
Animación que muestra dos átomos de oxígeno fusionándose para formar una molécula de O2 en su estado cuántico fundamental. Las nubes de color representan los orbitales atómicos. Los orbitales 2s y 2p de cada átomo se combinan para formar los orbitales σ y π de la molécula, que la mantienen unida. Los orbitales 1s, más interiores, no se combinan y permiten distinguir a cada núcleo. Lo que ocurre a escalas tan pequeñas es fascinante.
Si nos pudiéramos convertir en electrones, por ejemplo, sabríamos dónde y cómo estamos en cada momento y podríamos ver asombrados, todo lo que estaba ocurriendo a nuestro alrededor que, entonces sí, veríamos transcurrir a un ritmo más lento del que podemos detectar en los electrones desde nuestro macroestado espacio temporal. El electrón, bajo nuestro punto de vista se mueve alrededor del núcleo atómico a una velocidad de 7 millones de km/h.
A medida que se asciende en la escala de tamaños, hasta el tiempo se va ajustando a esta escala, los objetos, a medida que se hacen mayores se mueven más despacio y, además, tienen más duración que los pequeños objetos infinitesimales del micro mundo cuántico. La vida media de un neutron es de unos 15 minutos, por ejemplo, mientras que la vida media de una estrellas se puede contar en miles de millones de años.
En nuestra macroescala, los acontecimientos y ,los objetos se mueven a velocidades que a nosotros nos parecen normales. Si se mueven con demasiada lentitud nos parece que no se mueven. Así hablamos de escala de tiempo geológico, para referirnos al tiempo y velocidad de la mayor parte de los acontecimientos geológicos que afectan a la Tierra, el tiempo transcurre aquí en millones de años y nosotros ni lo apreciamos; nos parece que todo está inmóvil. Nosotros, los humanos, funcionamos en la escala de años (tiempo biológico).
El Tiempo Cosmológico es aún mucho más dilatado y los objetos cósmicos (mundos, estrellas y galaxias), tienen una mayor duración aunque su movimiento puede ser muy rápido debido a la inmensidad del espacio universal en el que se mueven. La Tierra, por ejemplo, orbita alrededor del Sol a una velocidad media de 30 Km/s., y, el Sol, se desplaza por la Galaxia a una velocidad de 270 km/s. Y, además, se puede incrementar el tiempo y el espacio en su andadura al estar inmersos y ligados en una misma maya elástica.
Así, el espacio dentro de un átomo, es muy pequeño; dentro de una célula, es algo mayor; dentro de un animal, mayor aún y así sucesivamente… hasta llegar a los enormes espaciosa que separan las estrellas y las galaxias en el Universo.
Distancias astronómicas separan a las estrellas entre sí, a las galaxias dentro del cúmulo, y a los cúmulos en los supercúmulos.
Las distancias que separan a los objetos del Cosmos se tienen que medir con unidades espaciales, tal es su inmensa magnitud que, nuestras mentes, aunque podamos hablar de ellas de manera cotidiana, en realidad, no han llegado a asimilarlas.Y, a todo ésto, los físicos han intentado con denuedo elaborar una teoría completa de la gravedad que incluya la mecánica cuántica. Los cálculos de la mayoría de las teorías propuesta de la «gravedad cuántica» arrojan numerosos infinitos. Los físicos no están seguros si el problema es técnico o conceptual. No obstante, incluso prescindiendo de una teoría completa de gravedad cuántica, se puede deducir que los efectos de la teoría cuántica, habrían sido cruciales durante los primeros 10-43 segundos del inicio del universo, cuando éste tenía una densidad de 1093 gramos por centímetro cúbico y mayor. (El plomo sólido tiene una densidad de aproximadamente diez gramos por centímetro cúbico.)
Este período, que es el que corresponde a la era de Planck, y a su estudio se le llama cosmología cuántica. Como el universo en su totalidad habría estado sujeto a grandes incertidumbres y fluctuaciones durante la era de Planck o era cuántica, con la materia y la energía apareciendo y desapareciendo de un vacío en grandes cantidades, el concepto de un principio del universo podría no tener un significado bien definido. En todo caso, la densidad del universo durante este período es de tal magnitud que escapa a nuestra comprensión. Para propósitos prácticos, la era cuántica podría considerarse el estado inicial, o principio, del universo. En consecuencia, los procesos cuánticos ocurridos durante este período, cualquiera sea su naturaleza, determinaron las iniciales del universo.
Una cosa nos ha podido quedar clara: Los científicos para lograr conocer la estructura del universo a su escala más grande, deben retroceder en el tiempo, centrando sus teorías en el momento en que todo comenzó. Para ello, como todos sabéis, se han formulado distintas teorías unificadoras de las cuatro fuerzas de la naturaleza, con las cuales se han modelado acontecimiento y en el universo primitivo casi a todo lo largo del camino hasta el principio. Pero cómo se supone que debió haber habido un «antes», aparece una barrera que impide ir más allá de una frontera que se halla fijada a los 10-43 [s] después del Big Bang, un instante conocido como «momento de Planck», en homenaje al físico alemán Max Planck.
Esta barrera existe debido a que antes del momento de Planck, durante el período llamado la «era de Planck o cuántica», se supone que las cuatro fuerza fundamentales conocidas de la naturaleza eran indistinguibles o se hallaban unificadas , que era una sola fuerza. Aunque los físicos han diseñado teorías cuánticas que unen tres de las fuerzas, una por una, a través de eras que se remontan al momento de Planck, hasta ahora les ha prácticamente imposible armonizar las leyes de la teoría cuántica con la gravedad de la relatividad de Einstein, en un sólo modelo teórico ampliamente convincente y con posibilidades claras de ser contrastado en experimentos de laboratorio y, mucho menos, con observaciones.
Y después de todo ésto, sólo una caso me queda clara: ¡Lo poco que sabemos! A pesar de la mucha imaginación que ponemos en las cosas que creemos conocer.
emilio silvera
Ago
6
Intrincada búsqueda: ¡La Gravedad cuántica!
por Emilio Silvera ~ Clasificado en Física Cuántica ~ Comments (0)
Nunca han importado muchos los peligros que tengamos que correr para buscar las respuestas de lo profundamente escondido en la Naturaleza, ni tampoco ha importado hasta donde ha tenido que viajar la imaginación para configurar modelos y teorías que, más tarde, queremos verificar.
También una teoría cuántica de la gravedad debería ampliar nuestro conocimiento de efectos cuánticos predichos por enfoques tentativos de otras teorías cuánticas, como la existencia de radiación de Hawking.”
¡Y mucho más sobre este mismo tema!
Entre los teóricos, el casamiento de la relatividad general y la teoría cuántica es el problema central de la física moderna. A los esfuerzos teóricos que se realizan con ese propósito se les llama “supergravedad”, “súpersimetría”, “supercuerdas” “teoría M” o, en último caso, “teoría de todo o gran teoría unificada”.
“El concepto de una “teoría del todo” está arraigado en el principio de causalidad y su descubrimiento es la empresa de acercarnos a ver a través de los ojos del demonio de Laplace. Aunque dicha posibilidad puede considerarse como determinista, en una “simple fórmula” puede todavía sobrevivir la física fundamentalmente probabilista, como proponen algunas posturas actuales de la mecánica cuántica. Esto se debe a que aun si los mecanismos que gobiernan las partículas son intrínsecamente azarosos, podemos conocer las reglas que gobiernan dicho azar y calcular las probabilidades de ocurrencia para cada evento posible. Sin embargo, otras interpretaciones de la ecuación de Schrödinger conceden poca importancia al azar: este solo se tendría importancia dentro del átomo y se diluiría en el mundo macroscópico. Otras no obstante la niegan completamente y la consideran una interpretación equivocada de las leyes cuánticas. En consecuencia, la mayor dificultad de descubrir una teoría unificada ha sido armonizar correctamente leyes que gobiernan solo un reducido ámbito de la naturaleza y transformarlas en una única teoría que la explique en su totalidad, tanto en su mundo micro como macroscópico y explique la existencia de todas las interacciones fundamentales: las fuerzas gravitatoria, electromagnética, nuclear fuerte y nuclear débil.”
Ahí tenemos unas matemáticas exóticas que ponen de punta hasta los pelos de las cejas de algunos de los mejores matemáticos del mundo (¿y Perelman? ¿Por qué nos se ha implicado?). Hablan de 10, 11 y 26 dimensiones, siempre, todas ellas espaciales menos una que es la temporal. Vivimos en cuatro: tres de espacio (este-oeste, norte-sur y arriba-abajo) y una temporal. No podemos, ni sabemos o no es posible instruir, en nuestro cerebro (también tridimensional), ver más dimensiones. Pero llegaron Kaluza y Klein y compactaron, en la longitud de Planck las dimensiones que no podíamos ver. ¡Problema solucionado!
¿Quién puede ir a la longitud de Planck para poder contemplar esas cuerdas vibrantes si es que están allí?
Ni vemos la longitud de Planck ni las dimensiones extra y, nos dicen que para poder profundizar hasta esa distancia, necesitamos disponer de la Energía de Planck, es decir 1019 GeV, una energía que ni en las próximas generaciones estará a nuestro alcance. Pero mientras tanto, hablamos de que, en 2.015, el LHC buscará las partículas de la “materia oscura”. ¡Qué gente!
La puerta de las dimensiones más altas quedó abierta y, a los teóricos, se les regaló una herramienta maravillosa. En el Hiperespacio, todo es posible. Hasta el matrimonio de la relatividad general y la mecánica cuántica, allí si es posible encontrar esa soñada teoría de la Gravedad cuántica.
Así que, los teóricos, se han embarcado a la búsqueda de un objetivo audaz: buscan una teoría que describa la simplicidad primigenia que reinaba en el intenso calor del universo en sus primeros tiempos, una teoría carente de parámetros, donde estén presentes todas las respuestas. Todo debe ser contestado a partir de una ecuación básica.
¿Dónde radica el problema?
Nuestro universo ¿es tridimensional y no podemos esas dimensiones extra de las que tanto hablan en las teorías más avanzadas pero, no verificadas?
El problema está en que la única teoría candidata no tiene conexión directa con el mundo de la observación, o no lo tiene todavía si queremos expresarnos con propiedad. La energía necesaria para ello, no la tiene ni el nuevo acelerador de partículas LHC que con sus 14 TeV no llegaría ni siquiera a vislumbrar esas cuerdas vibrantes de las que antes os hablaba.
La verdad es que, la teoría que ahora tenemos, el Modelo Estándar, concuerda de manera exacta con todos los datos a bajas energías y contesta cosas sin sentido a altas energías. Ya sabéis lo que pasa cuando queremos juntar la relatividad con la cuántica: ¡Aparecen los infinitos que no son renormalizables!
Con sus 20 parámetros aleatorios (parece que uno de ellos ha sido hallado -el bosón de Higgs-), el Modelo estándar de la física de partículas que incluye sólo tres de las interacicones fundamentales -las fuerzas nucleares débil y fuerte y el electromagnetismo-, ha dado un buen resultado y a permitido a los físicos trabajar ampliamente en el conocimiento del mundo, de la Naturaleza, del Universo. Sin embargo, deja muchas preguntas sin contestar y, lo cierto es que, se necesitan nuevas maneras, nuevas formas, nuevas teorías que nos lleven más allá.
¡Necesitamos algo más avanzado!
Se ha dicho que la función de la partícula de Higgs es la de dar masa a las partículas que conocemos y están incluidas en el Modelo estándar, se nos ha dicho que ha sido encontrada y el hallazgo ha merecido el Nobel de Física. Sin embargo… nada se ha dicho de cómo ésta partícula transmite la masa a las demás. Faltan algunas explicaciones.
El secreto de todo radica en conseguir la simplicidad: el átomo resulto ser complejo lleno de esas infinitesimales partículas electromagnéticas que bautizamos con el nombre de electrones, resultó que tenía un núcleo que contenía, a pesar de ser tan pequeño, casi toda la masa del átomo. El núcleo, tan pequeño, estaba compuesto de otros objetos más pequeños aún, los quarks que estaban instalados en nubes de otras partículas llamadas gluones y, ahora, queremos continuar profundizando, sospechamos, que después de los quarks puede haber algo más.
¿Es el efecto frenado que sufren las partículas que corren por el océano de Higgs, el que les da la masa?
Bueno, la idea nueva que surgió es que el espacio entero contiene un campo, el campo de Higgs, que impregna el vacío y es el mismo en todas partes. Es decir, que si miramos a las estrellas en una noche clara estamos mirando el campo de Higgs. Las partículas influidas por este campo, toman masa. Esto no es por sí mismo destacable, pues las partículas pueden tomar energía de los campos (gauge) de los que hemos comentado, del campo gravitatorio o del electromagnético. Si llevamos un bloque de plomo a lo alto de la Torre Eiffel, el bloque adquiriría energía potencial a causa de la alteración de su posición en el campo gravitatorio de la Tierra.
Como E=mc2, ese aumento de la energía potencial equivale a un aumento de la masa, en este caso la masa del Sistema Tierra-bloque de plomo. Aquí hemos de añadirle amablemente un poco de complejidad a la venerable ecuación de Einstein. La masa, m, tiene en realidad dos partes. Una es la masa en reposo, m0, la que se mide en el laboratorio cuando la partícula está en reposo. La partícula adquiere la otra parte de la masa en virtud de su movimiento (como los protones en el acelerador de partículas, o los muones, que aumentan varias veces su masa cuando son lanzados a velocidades cercanas a c) o en virtud de su energía potencial de campo. Vemos una dinámica similar en los núcleos atómicos. Por ejemplo, si separamos el protón y el neutrón que componen un núcleo de deuterio, la suma de las masas aumenta.
Peor la energía potencial tomada del campo de Higgs difiere en varios aspectos de la acción de los campos familiares. La masa tomada de Higgs es en realidad masa en reposo. De hecho, en la que quizá sea la versión más
apasionante de la teoría del campo de Higgs, éste genera toda la masa en reposo. Otra diferencia es que la cantidad de masa que se traga del campo es distinta para las distintas partículas.
Los teóricos dicen que las masas de las partículas de nuestro modelo estándar miden con qué intensidad se acoplan éstas al campo de Higgs.
La influencia de Higgs en las masas de los quarks y de los leptones, nos recuerda el descubrimiento por Pieter Zeeman, en 1.896, de la división de los niveles de energía de un electrón cuando se aplica un campo magnético al átomo. El campo (que representa metafóricamente el papel de Higgs) rompe la simetría del espacio de la que el electrón disfrutaba.
Hasta ahora no tenemos ni idea de que reglas controlan los incrementos de masa generados por el Higgs(de ahí la expectación creada por el acelerador de partículas LHC). Pero el problema es irritante: ¿por qué sólo esas masas –Las masas de los W+, W–, y Zº, y el up, el down, el encanto, el extraño, el top y el bottom, así como los leptones – que no forman ningún patrón obvio?
No dejamos de experimentar para saber cómo es nuestro mundo, la Naturaleza, el Universo que nos acoge
Las masas van de la del electrón 0’0005 GeV, a la del top, que tiene que ser mayor que 91 GeV. Deberíamos recordar que esta extraña idea (el Higgs) se empleó con mucho éxito para formular la teoría electrodébil (Weinberg-Salam). Allí se propuso el campo de Higgs como una forma de ocultar la unidad de las fuerzas electromagnéticas y débiles. En la unidad hay cuatro partículas mensajeras sin masa –los W+, W–, Zº y fotón que llevan la fuerza electrodébil. Además está el campo de Higgs, y, rápidamente, los W y Z chupan la esencia de Higgs y se hacen pesados; el fotón permanece intacto. La fuerza electrodébilse fragmenta en la débil (débil porque los mensajeros son muy gordos) y la electromagnética, cuyas propiedades determina el fotón, carente de masa. La simetría se rompe espontáneamente, dicen los teóricos. Hay otra descripción según la cual el Higgs oculta la simetría con su poder dador de masa.
Las masas de los W y el Z se predijeron con éxito a partir de los parámetros de la teoría electrodébil. Y las relajadas sonrisas de los físicos teóricos nos recuerdan que Gerard ^t Hooft y Veltman dejaron sentado que la teoría entera esta libre de infinitos.
La teoría de supercuerdas tiene tantas sorpresas fantásticas que cualquiera que investigue en el tema reconoce que está llena de magia. Es algo que funciona con tanta belleza… Cuando cosas que no encajan juntas e incluso se repelen, si se acerca la una a la otra alguien es capaz de formular un camino mediante el cual, no sólo no se rechazan, sino que encajan a la perfección dentro de ese sistema, como ocurre ahora con la teoría M que acoge con naturalidad la teoría de la relatividad general y la teoría mecánico-cuántica; ahí, cuando eso se produce, está presente la belleza.
Desde Kaluza-Klein, la primera teoría de más dimensiones, estamos tratando de buscar como representar un espacio con dimensiones extra, y, a pesar de los muchos intentos, lo cierto es que, nuestro mundo sólo tiene tres de espacio y una de tiempo… ¿Dónde estarán esas otras hasta llegar a 11?
Lo que hace que la teoría de supercuerdas sea tan interesante es que el marco estándar mediante el cual conocemos la mayor parte de la física es la teoría cuántica y resulta que ella hace imposible la gravedad. La relatividad general de Einstein, que es el modelo de la gravedad, no funciona con la teoría cuántica. Sin embargo, las supercuerdas modifican la teoría cuántica estándar de tal manera que la gravedad no sólo se convierte en posible, sino que forma parte natural del sistema; es inevitable para que éste sea completo.
¿Por qué es tan importante encajar la gravedad y la teoría cuántica? Porque no podemos admitir una teoría que explique las fuerzas de la naturaleza y deje fuera a una de esas fuerzas. Así ocurre con el Modelo Estándar que deja aparte y no incluye a la fuerza gravitatoria que está ahí, en la Naturaleza.
La teoría de supercuerdas se perfila como la teoría que tiene implicaciones si tratamos con las cosas muy pequeñas, en el microcosmos; toda la teoría de partículas elementales cambia con las supercuerdas que penetra mucho más; llega mucho más allá de lo que ahora es posible.
La topología es, el estudio de aquellas propiedades de los cuerpos geométricos que permanecen inalteradas por transformaciones continuas. La topología es probablemente la más joven de las ramas clásicas de las matemáticas. En contraste con el álgebra, la geometría y la teoría de los números, cuyas genealogías datan de tiempos antiguos, la topología aparece en el siglo diecisiete, con el nombre de analysis situs, ésto es, análisis de la posición.
De manera informal, la topología se ocupa de aquellas propiedades de las figuras que permanecen invariantes, cuando dichas figuras son plegadas, dilatadas, contraídas o deformadas, de modo que no aparezcan nuevos puntos, o se hagan coincidir puntos diferentes. La transformación permitida presupone, en otras palabras, que hay una correspondencia biunívoca entre los puntos de la figura original y los de la transformada, y que la deformación hace corresponder puntos próximos a puntos próximos. Esta última propiedad se llama continuidad, y lo que se requiere es que la transformación y su inversa sean ambas continuas: así, trabajarnos con homeomorfismos.
En cuanto a nuestra comprensión del universo a gran escala (galaxias, el Big Bang…), creo que afectará a nuestra idea presente, al esquema que hoy rige y, como la nueva teoría, el horizonte se ampliará enormemente; el cosmos se presentará ante nosotros como un todo, con un comienzo muy bien definido y un final muy bien determinado.
Para cuando eso llegue, sabremos lo que es, como se genera y dónde están situados los orígenes de esa “fuerza”, “materia”, o, “energía” que ahora no sabemos ver para explicar el anómalo movimiento de las galaxias o la expansión del espacio que corre sin freno hacia… ¿Otro universo que tira del nuestro, como ocurren con las galaxias que terminan por fusionarse?
emilio silvera
Ago
2
¡La Física Cuántica! Una maravilla
por Emilio Silvera ~ Clasificado en Física Cuántica ~ Comments (1)
¡La Física! Esa maravilla que está presente en todo lo que podemos ver y en aquello donde la vista no llega. La infinitud de las partículas elementales que forman todo cuanto existe en la Naturaleza, no siempre se dejan ver ni hacen posible que podamos observar las maravillas que pueden llevar a cabo,
Las sustancias formadas por una sola clase de átomos se llaman elementos químicos, y, si está conformada por distintos átomos, son compuestos. La palabra “átomo” procede del griego ατομος, que significa “indivisible” y el uso de la palabra “elemento” sugiere que se ha llegado a los ladrillos básicos con los que está formada la materia. De hecho, esta es la imagen que se tenía a mediados del siglo XIX cuando se acuñaron estos términos. Sin embargo, hoy sabemos que todo esto es falso, que los átomos se pueden dividir y que, de esta manera, los elementos han dejado de ser verdaderamente elementales. Los físicos continúan con esta nomenclatura aunque sea formalmente incorrecta, ya que, la costumbre, como dicen los juristas, no pocas veces rigen la jerga de las leyes.
A todo esto y hablando de los átomos, por fuerza, nos tenemos que acordar del electrón que da al átomo su forma esférica. Son partículas cargadas eléctricamente que se mueven alegremente alrededor del núcleo. El electrón es muy ligero: su masa es solamente 1/1.8836 de la del núcleo más ligero (el hidrógeno). La carga eléctrica del electrón es de signo opuesto a la del núcleo, de manera que los electrones están fuertemente atraídos hacia el núcleo y se repelen mutuamente. Si la carga eléctrica total de los electrones en un átomo iguala a la del núcleo, para lo que generalmente se necesitan varios electrones, se dice que el átomo está en equilibrio o que es eléctricamente neutro.
Claro que, no debemos olvidarnos de que… ¡Todo lo grande está hecho de cosas pequeñas! Una inmensa galaxia se conforma de un conjunto inmenso de átomos inifinitesimales que juntos, hacen ese gran todo.
La fuerza a la que obedecen los electrones, la denominada fuerza electrostática o de Coulomb, es matemáticamente bastante sencilla y, sin embargo, los electrones son los responsables de las importantes propiedades de los “enlaces químicos”. Esto se debe a que las leyes de movimiento de los electrones están regidas completamente por la “mecánica cuántica”, teoría que se completó a principios del siglo XX. Es una teoría paradójica y difícil de entender y explicar, pero al mismo tiempo es muy interesante, fantástica y revolucionaria. Cuando uno se introduce en las maravillas de la mecánica cuántica es como si hiciera un viaje a un universo que está situado fuera de este mundo nuestro, ya que, las cosas que allí se ven, desdicen todo lo que dicta nuestro sentido común de cómo tiene que ser el mundo que nos rodea.
La perfecta sincronía Está en la Naturaleza
No solamente los electrones, sino también los núcleos atómicos y los átomos en su conjunto obedecen y se rigen por la mecánica cuántica. La Física del siglo XX empezó exactamente en el año 1900, cuando el físico alemán Max Planck, escribió un artículo de ocho páginas y allí propuso una posible solución a un problema que había estado intrigando a los físicos durante años. Es el problema de la luz que emiten los cuerpos calentados a una cierta temperatura, y también la radiación infrarroja emitida, con menos intensidad, por los objetos más fríos.
Estaban bien aceptados entonces que esta radiación tenía un origen electromagnético y que se conocían las leyes de la naturaleza que regían estas ondas electromagnéticas. También se conocían las leyes para el frío y el calor, la así llamada “termodinámica”, o al menos eso parecía. Pero si usamos las leyes de la termodinámica para calcular la intensidad de la radiación, el resultado no tiene ningún sentido. Los cálculos nos dicen que se emitiría una cantidad infinita de radiación en el ultravioleta más lejano, y, desde luego, esto no es lo que sucede. Lo que se observa es que la intensidad de la radiación muestra un pico a una cierta longitud de onda característica, y que la intensidad disminuye tanto para las longitudes mayores como para las longitudes menores. Esta longitud característica es inversamente proporcional a la temperatura absoluta del objeto radiante (la temperatura absoluta se define por una escala de temperatura que empieza a 273 ºC bajo cero). Cuando a 1.000 ºC un objeto se pone al “rojo vivo”, el objeto está radiando en la zona de luz visible.
Lo que Planck propuso fue simplemente que la radiación sólo podía ser emitida en paquetes de un tamaño dado. La cantidad de energía de uno de esos paquetes, o cuantos, es inversamente proporcional a la longitud de la onda y, por lo tanto, proporcional a la frecuencia de la radiación emitida. La sencilla fórmula es:
E = h x v
Donde E es la energía del paquete, v la frecuencia y h es una nueva constante fundamental de la naturaleza, la constante de Planck. Cuando Planck calculó la intensidad de la radiación térmica imponiendo esta nueva condición, el resultado coincidió perfectamente con las observaciones.
Poco tiempo después, en 1905, Einstein formuló esta teoría de una forma mucho más tajante: el sugirió que los objetos calientes no son los únicos que emiten radiación en paquetes de energía, sino que toda la radiación consiste en múltiplos de los paquetes de energía de Planck. El príncipe francés Louis-Victor de Broglie, dándole otra vuelta a la teoría, propuso que no sólo cualquier cosa que oscila tiene una energía, sino que cualquier cosa con energía se debe comportar como una “onda” que se extiende en una cierta región del espacio, y que la frecuencia, v, de la oscilación verifica la ecuación de Planck. Por lo tanto, los cuantos asociados con los rayos de luz deberían verse como una clase de partículas elementales: el fotón. Todas las demás clases de partículas llevan asociadas diferentes ondas oscilatorias de campos de fuerza.
El curioso comportamiento de los electrones en el interior del átomo, descubierto y explicado por el famoso físico danés Niels Bohr, se pudo atribuir a las ondas de De Broglie. Poco después, en 1926, Erwin Schrödinger descubrió como escribir la teoría ondulatoria de Debroglie con ecuaciones matemáticas exactas. La precisión con la cual se podían realizar cálculos era asombrosa, y pronto quedó claro que el comportamiento de todos los objetos pequeños estaban exactamente determinados por la recién descubiertas “ecuaciones de onda cuánticas”.
Pocas dudas nos pueden caber a estas alturas de que la mecánica cuántica (de Planck) y, la Relatividad –tanto especial como general- (de Einstein), además de ser las dos teorías más importantes de la Física de nuestro tiempo, funcionan de tal forma que uno, cuando profundiza en sus predicciones y las compara con lo que ocurre en el Universo, no puede por menos que, asombrarse, al comprobar como unas mentes humanas han sido capaces de llegar a estos profundos pensamientos que nos acerca a la realidad de la Naturaleza.
emilio silvera
Jul
25
¿Pueden llegarnos mensajes del futuro?
por Emilio Silvera ~ Clasificado en Física Cuántica ~ Comments (5)
Investigadores proponen una solución a algunos problemas de la Física Cuántica, y se refieren a los viajes en el tiempo o la paradoja del abuelo.
Las curvas temporales abiertas podrían resolver muchos problemas de la Física – NPJ QUANTUM INFORMATION
Un grupo internacional de investigadores, liderados por la Universidad de Singapur, acaba de demostrar que numerosos problemas de la Física Cuántica, hoy por hoy irresolubles, podrían solucionarse fácilmente con un ordenador cuántico que viajara a través de “curvas temporales abiertas”. El trabajo, que ha levantado gran expectación en la comunidad científica, se publica en la revista Nature Quantum Information.
IBM prepara el primer ordenador cuántico. La máquina podría resolver problemas que las computadoras actuales ni se pueden plantear. Cuando esté completada su configuración podrá dar millones de respuestas a un problema planteado en fracciones de segundo.
Hace ya una década que el físico Dave Bacon, que en la actualidad trabaja para Google, demostró que la mejor forma de resolver rápidamente todo un grupo de problemas de la Física (llamados NP-completo) y que traían de cabeza a los matemáticos, era utilizando un ordenador cuántico que se desplazara a través del tiempo. ¿La razón? El hipotético ordenador de Bacon podría moverse con libertad a través de una serie de “curvas cerradas de tiempo”, atajos en el tejido espaciotemporal que se curvan sobre sí mismos. La relatividad general en efecto, permite que dichos caminos puedan existir a través de las contorsiones en el espacio-tiempo que conocemos como agujeros de gusano.
¿Pero para qué enviar un mensaje en el tiempo y bloquearlo después para que nadie pueda leer su contenido? Sencillamente porque el procedimiento podría ser la clave que se necesitaba para resolver problemas que, actualmente, no tienen solución alguna. Y es que incluso un mensaje “sin abrir” puede resultar tremendamente útil, especialmente si los científicos “entrelazan” el mensaje con algún otro sistema antes de enviarlo.
Confirman el entrelazamiento cuántico gracias a la luz de una estrella
Como se sabe, el entrelazamiento cuántico es un efecto extraño que es posible solo en el mundo de la Física subatómica, y consiste en una suerte de “comunicación instantánea” entre partículas que, como si fueran hermanos gemelos diminutos, “saben” al instante lo que le ha sucedido a las demás partículas entrelazadas y reaccionan al instante, sin importar la distancia que las separe. Y lo que proponen los investigadores es precisamente eso, crear un entrelazamiento entre el mensaje enviado a través del tiempo y el sistema del laboratorio. Una correlación que podría alimentar y potenciar la computación cuántica.
Sin embargo, las curvas temporales cerradas conllevan no pocos problemas. En general, los físicos creen que, aunque son teóricamente posibles, algo debe de estar evitando que ese tipo de desplazamientos temporales se produzcan en la Naturaleza. De otra forma, argumentan, podrían darse todo tipo de paradojas, entre ellas la clásica de que alguien podría viajar al pasado y matar a su abuelo, impidiendo así su propia existencia.
Y no solo es la familia la que estaría amenazada por unos viajes así. En efecto, romper el flujo temporal, dejando a un lado el principio de causalidad (un acontecimiento causa otro, que causa otro, y otro…) también puede tener consecuencias para la propia Física cuántica. A lo largo de las dos décadas pasadas los investigadores han mostrado hasta la saciedad que los principios mismos sobre los que se basa la Física Cuántica se quiebran en pedazos ante la presencia de curvas temporales cerradas. Por ejemplo, se puede quebrar el principio de incertidumbre, que establece la imposibilidad de conocer al mismo tiempo determinados pares de magnitudes físicas de una partícula (como la velocidad y el momento). O incluso dejar a un lado el Teorema de no Clonación, que dice que los estados cuánticos no se pueden copiar y que constituye uno de los pilares más sólidos de la Mecánica Cuántica.
Evitar las paradojas
De Historias referidas a Viajes en el Tiempo hemos podido ver muchas en películas fantásticas
Sin embargo, el nuevo trabajo muestra que un ordenador cuántico sería capaz de resolver problemas hasta ahora irresolubles si en vez de por curvas cerradas, se desplazara a través de “curvas temporales abiertas”, que no crean los problemas de causalidad anteriormente descritos. Esto se debe a que dichas curvas no permiten la interacción directa con cualquier cosa en el propio pasado del objeto: las partículas viajeras del tiempo (o, para ser más exactos, los datos que contienen) nunca interaccionarían con sí mismas.
En la Teoría de la Relatividad se admite un espacio tetradimensional, con tres coordenadas espaciales y una temporal. Como no es posible representar en nuestra realidad semejante espacio de cuatro dimensiones, realizaremos una aproximación representando por un plano el espacio tridimensional, más una coordenada temporal. Las soluciones temporales abiertas para expresar la evolución de un punto sería una gráfica del tipo:
Para Mila Gu, de la Universidad de Singapur y director de la investigación, de esta forma “evitamos las paradojas clásicas, como la de los abuelos, aunque seguimos consiguiendo todos esos resultados extraños”.
“Cada vez que presentamos la idea -afirma por su parte Jayne Thompson, coautor de la investigación- todo el mundo dice que no hay forma de que esto pueda tener un efecto”. Pero sí que la hay. Las partículas enviadas de esta forma a través de un bucle temporal pueden, de hecho, ganar un enorme poder de “super computación”, incluso si jamás interactúan con nada del pasado. “La razón se debe a que algunos datos se almacenan en las correlaciones de entrelazado: y esto es precisamente lo que estamos aprovechando”, asegura Thompson.
Sin embargo, no todos los físicos piensan que estas líneas de tiempo abiertas tengan más posibilidades de manifestarse en el Universo físico que las líneas cerradas. Y pueden que tengan razón. Uno de los principales argumentos en contra de la existencia de curvas temporales cerradas es que nadie, que sepamos, nos ha visitado nunca desde el futuro. Un argumento que, por lo menos, no es válido con las curvas temporales abiertas, ya que en ellas cualquier mensaje procedente del futuro resultaría bloqueado.
emilio silvera