Ene
5
De como llegamos hasta los Quarks
por Emilio Silvera ~ Clasificado en Física Cuántica ~ Comments (0)
Ahora todos hablamos del LHC. Sin embargo, la historia de los aceleradores no comenzó con éste moderno y complejo conglomerado de sofisticadas estructuras que hacen posible que visitemos lugares muy lejanos en el corazón de la materia. Tendríamos que recordar al acelerador lineal también llamado LINAC (linear accelerator) es un tipo de acelerador que le proporciona a la partícula subatómica cargada pequeños incrementos de energía cuando pasa a través de una secuencia de campos eléctricos alternos.
Generador de Van de Graaff. El rodillo y peine superior.
Mientras que el generador de Van de Graaff proporciona energía a la partícula en una sola etapa, el acelerador lineal y el ciclotrón proporcionan energía a la partícula en pequeñas cantidades que se van sumando. El acelerador lineal, fue propuesto en 1924 por el físico sueco Gustaf Ising. El ingeniero noruego Rolf Wideröe construyó la primera máquina de esta clase, que aceleraba iones de potasio hasta una energía de 50.000 eV.
Durante la Segunda Guerra Mundial se construyeron potentes osciladores de radio frecuencia, necesarios para los radares de la época. Después se usaron para crear aceleradores lineales para protones que trabajaban a una frecuencia de 200 MHz, mientras que los aceleradores de electrones trabajan a una frecuencia de 3000 MHz.
El acelerador lineal de protones diseñado por el físico Luis Alvarez en 1946, tenía 875 m de largo y aceleraba protones hasta alcanzar una energía de 800 MeV (800 millones). El acelerador lineal de la universidad de Stanford es el más largo entre los aceleradores de electrones, mide 3.2 km de longitud y proporciona una energía de 50 GeV. En la industria y en la medicina se usan pequeños aceleradores lineales, bien sea de protones o de electrones.
El SLAC, ubicado al sur de San Francisco, acelera electrones y positrones a lo largo de algo más de tres kilómetros hacia varios blancos, anillos y detectores ubicados en su finalización. Este acelerador hace colisionar electrones y positrones, estudiando las partículas resultantes de estas colisiones. Construido originalmente en 1962, se ha ido ampliando y mejorando para seguir siendo uno de los centros de investigación de física de partículas mas avanzados del mundo. El centro ha ganado el premio nobel en tres ocasiones. Y, una vez recordada de manera breve la historia, pasaremos directamente al tema que en realidad nos ha tríado aquí: ¡El descubrimiento de los Quarks!
Ahora los medios con los que cuentan los físicos del LHC son inmensamente más eficaces y están más adelantados que aquellos viejos aceleradores que, sin embargo, fueron los pioneros y los que hicieron posible adquirir conocimientos que nos han traído hasta el moderno LHC.
En 1967 se emprendió una serie de experimentos de dispersión mediante los nuevos haces de electrones del SLAC. El objetivo era estudiar más incisivamente la estructura del protón. Entra el electrón de gran energía, golpea un protón en un blanco de hidrógeno y sale un electrón de energía mucho menor, pero en una dirección que forma un ángulo grande con respecto a su camino original. La estructura puntual dentro del protón actúa, en cierto sentido, como el núcleo con las partículas alfa de Rutherford. Pero el problema era aquí más sutíl.
Richard Edward Taylor
Richard Edward Taylor fue uno de los veintidós científicos que trabajó intensamente en el acelerador lineal de Stanford (SLAC), en una serie de pruebas experimentales que vinieron a demostrar que los protones y los neutrones son poseedores de una estructura interna, lo que a su vez confirma las predicciones teóricas del neoyorquino Murray Gell-Mann (1929- ), acerca de la existencia de los denominados quarks.
Junto con sus colegas de Stanford junto con Jerome I. Friedman y Henry W. Kendall -con los que luego habría de compartir el Nobel-, Taylor investigó sobre la estructura interna de la materia, en su mínima expresión, para lo que partió del modelo teórico de los quarks, postulado por Gell-Mann y -de forma independiente- G. Zweig. Tras sus descubrimientos experimentales en el acelerado lineal de Stanford, Taylor perfeccionó dicho modelo añadiéndole la existencia de unas subpartículas desconocidas hasta entonces, que luego fueron denominadas leptones; además, introdujo en el modelo teórico de Gell-Mann otras partículas no estructurales, sino de intercambio de fuerza, a las que en Stanford comenzaron a llamar bosones.
James Bjorken.
Richard Feynman
Los dos últimos párrafos los he tomado prestados de www.mcnbiografias.com., que es lo que se explica de este tema en casi todas partes. Sin embargo, pocos cuentan que, el equipo de Stanford, dirigido por el físico del SLAC por Richard Taylor y los otros dos físicos del MIT, Jerome Friedman y Henry Kendall, tuvieron la gran suerte de que, Richard Feynman y James Bjorken, metieran sus narices en el proyecto llevados por la curiosidad y como habían prestado su energía y su imaginación a las interacciones fuertes y se preguntaban: ¿que habrá dentro del protón?
Amnos, Feynman y Bjorken visitaban con frecuencia Stanford desde su base en el Cal Tech, en Pasadena. Bjorken, teórico de Stanford, estaba muy interesado en el proyecto experimental y en las reglas que regían unos datos aparentemente incompletos. Estas reglas, razonaba Bjorken, serían indicadoras de las leyes básicas (dentro de la “caja negra”) que controlaba la estructura de los hadrones.
No estaría mal echar una mirada hacia atrás en el tiempo y recordar, en este momento, a Demócrito que, con sus postulados, de alguna manera venía a echar un poco de luz sobre el asunto, dado que él decía que para determinar si algo era un á-tomo habría que ver si era indivisible. En el modelo de los quarks, el protón, en realidad, un conglomerado pegajoso de tres quarks que se mueven rápidamente. Pero como esos quarks están siempre ineludiblemente encadenados los unos a los otros, experimentalmente el protón aparece indivisible.
Acordémonos aquí de que Boscovich decía que, una partícula elemental, o un “á-tomo”, tiene que ser puntual. Y, desde luego, esa prueba, no la pasaba el protón. El equipo del MIT y el SLAC, con la asesoría de Feynman y Bjorken, cayó en la cuenta de que en este caso el criterio operativo era el de los “puntos” y no el de la indivisibilidad. La traducción de sus datos a un modelo de constituyentes puntuales requería una sutileza mucho mayor que el experimento de Rutherford.
Precisamente por eso era tan conveniente fue tan conveniente para Richard Edward Taylor y su equipo, tener a dos de los mejores teóricos del mundo en el equipo aportando su ingenio, agudeza e intuición en todas las fases del proceso experimental. El resultado fue que los datos indicaron, efectivamente, la presencia de objetos puntuales en movimiento dentro del protón.
En 1990 Taylor, Friedman y Kendall recogieron su premio Nobel por haber establecido la realidad de los quarks. Sin embargo, a mí lo que siempre me ha llamado más la atención es el hecho cierto de que, este descubrimiento como otros muchos (el caso del positrón de Dirac, por ejemplo), han sido posible gracias al ingenio de los teóricos que han sabido vislumbrar cómo era en realidad la Naturaleza.
A todo esto, una buena pregunta sería: ¿cómo pudieron ver este tipo de partículas de tamaño infinitesimal, si los quarks no están libres y están confinados -en este caso- dentro del protón? Hoy, la respuesta tiene poco misterio sabiendo lo que sabemos y hasta donde hemos llegado con el LHC que, con sus inmensas energías “desmenuza” un protón hasta dejar desnudos sus más íntimos secretos.
Este es, el resultado ahora de la colisión de protones en el LHC
Lo cierto es que, en su momento, la teoría de los Quarks hizo muchos conversos, especialmente a medida que los teóricos que escrutaban los datos fueron imbuyendo a los quarks una realidad creciente, conociendo mejor sus propiedades y convirtiendo la incapacidad de ver quarks libres en una virtud. La palabra de moda en aquellos momentos era “confinamiento”. Los Quarks están confinados permanentemente porque la energía requerida para separarlos aumenta a medida que la distancia entre ellos crece. Esa es, la fuerza nuclear fuerte que está presente dentro del átomo y que se encarga de transmitir los ocho Gluones que mantienen confinados a los Quarks.
Así, cuando el intento de separar a los Quarks es demasiado intenso, la energía se vuelve lo bastante grande para crear un par de quark-anti-quark, y ya tenemos cuatro quarks, o dos mesones. Es como intentar conseguir un cabo de cuerda. Se corta y… ¡ya tenemos dos!
¿Cuerdas? Me parece que estoy confundiendo el principal objetivo de este trabajo y, me quiero situar en el tiempo futuro que va, desde los quarks de Gell-Mann hasta las cuerdas de Veneziano y John Schwarz y más tarde Witten. Esto de la Física, a veces te juega malas pasadas y sus complejos caminos te llevan a confundir conceptos y momentos que, en realidad, y de manera individualizada, todos han tenido su propio tiempo y lugar.
¿Cuántas veces no habré pensado, en la posibilidad de tomar el elixir de la sabiduría para poder comprenderlo todo? Sin embargo, esa pósima mágica no existe y, si queremos saber, el único camino que tenemos a nuestro alcance es la observación, el estudio, el experimento… ¡La Ciencia!, que en definitiva, es la única que nos dirá como es, y como se comporta la Naturaleza y, si de camino podemos llegar a saber, por qué lo hace así…¡mucho mejor!
emilio silvera
Dic
21
¡La Mecánica cuántica! ¿Quién la entiende?
por Emilio Silvera ~ Clasificado en Física Cuántica ~ Comments (1)
Werner Hesinberg
Sí, el principio cuántico es muy extraño. Cuando en 1927, el joven físico alemán Werner Heisenberg llegó al Principo de Indeterminación, la física moderno rompió de manera decisiva con la física clásica, una nueva Era comenzaba con otra manera de mirar el mundo que nos rodea a través de la Física. Heisenberg descubrió que se puede conocer, o bien la posición exacta de una partícula determinada, o bien su trayectoria exacta, pero no ambas.
¡¡La mecánica cuántica!!, o, la perplejidad de nuestros sentidos ante lo que ese “universo cuántico” nos ofrece que, generalmente, se sale de lo que entendemos por sentido común. Ahí, en el “mundo” de los objetos infinitesimales, suceden cosas que, no siempre podemos comprender. Y, como todo tiene una razón, no dejamos de buscarla en cada uno de aquellos sorprendentes sucesos que en ese lugar tienen lugar. Podríamos llegar a la conclusión de que, la razón está en todo y solo la encontramos una vez que llegamos a comprender, mientras tanto, todo nos resulta extraño, irrazonable, extramundano y, algunas veces…imposible. Sin embargo, ahí está. Dos elementos actúan de común acuerdo para garantizar que no podamos descorrer el velo del futuro, de lo que será después (podemos predecir aproximaciones, nunca certezas), el principal de esos elementos es la ignorancia nunca podremos saber el resulktado final de éste o aquél suceso sin tener la certeza de las condiciones iniciales. En la mayoría de los sistemas físicos son, en mayor o menor medida dada su complejidad, del tipo caótico es tal que, el resultado de las interacciones entre elementos eson sumamente sensibles a pequeñísimas variaciones de los estados iniciales que, al ser perturbados mínimamente, hacen que el suceso final sea y esté muy alejado del que se creía al comienzo.
Desde las certezas que parecía darnos la mecánica clásica de Newton sobre la posición, trayectoria y velocidad de cualquier partícula microscópica o cuerpo celeste se nos echaba en brazos de la indeterminación cuántica. Ya no podía conocerse simultáneamente la posición y la velocidad de una partícula con la infinita exactitud que se suponía, y el principio de indeterminación de Heisenberg parecía habernos desterrado del paraíso de las certidumbres clásicas. Pero ese paraíso nunca existió en realidad, desde un punto de vista puramente clásico se puede demostrar que la predictibilidad que se suponía a los sistemas clásicos nunca fue esencialmente cierta. Independientemente de la precisión con que conozcamos el estado inicial de un sistema clásico (no cuántico) las imprecisiones tienden a crecer, de forma natural, con el tiempo y nuestra información inicial puede llegar a ser inútil para predecir su evolución futura.
Ahora bien, esto se trata de ignorancia pura. Si fuésemos capaces de contralar las condiciones iniciales, y además pudiésemos considerar el estado de cada una de los cientos o miles de variables que influyen sobre el sistema, podríamos predecir con exactitud la velocidad y la trayectoria de unas bolas de billar, por ejemplo, en cualquier tiempo futuro. De hecho, la Ciencia se está volviendo extremadamente buena en controlar y calcular las condiciones de un sistema. Somos capaces de enviar naves espaciales a sitios muy distantes con una exactitud enorme (la Cassini es un buen ejemplo y, ayer mismo, teníamos aquí la partida de la Curiosity hacia el planeta Marte). Si sabemos contralar las condiciones iniciales (y no ocurren accidentes por el camino) podemos predecir, con ciertas garantías que, la nave llegará a su destino como se había calculado. Es decir, de alguna manera, estamos impidiendo ese principio de incertidumbre que está presente en todo lo que acontece en nuestras vidas, en el mundo y, en el Universo.
Nunca podremos estar seguros del resultado en una tirada de dados. En verdad, son pocas las cosas en las que podemos tener una completa certeza, y, aunque no lo sepamos, la razón está en la ignorancia de las condiciones iniciales y, en el caso de los dados en los factores que intervienen en el movimiento. Decimos entonces que la Naturaleza es aleatoria. Claro que, si yo tuviera que apostar con esos dados, sin dudarlo, escogería el 7. Esto es porque hay más maneras de formar 7 que cualquier otro número. Para más precisión, hay seis combinaciones de dados que darán un 8 o un 6. Claro que la certeza no existe y, entonces, recurrimos a las probabilidades. (Schrödinger creó su ecuación de la función de onda (Ψ) precisamente para contraponerla al principio de incertidumbre de Heisenberg, él nos situó en el campo de las probabilidades para “saber” dónde podría estar uan partícula.
Si observamos un protón que atraviesa una cámara de niebla (ahora cámara de chispas, más moderna y efectiva), registrando su trayectoria podemos conocer la dirección en la que se mueve, pero en el proceso de abrirse camino a través del vapor de agua de la cámara el protón disminuirá su velocidad, restándonos información de dónde estaba en un momento determinado.
Alternativamente, podemos irradiar el fotón -tomar una instantánea de él, por decirlo así- y de este modo determinar su situación exacta en un instante determinado, pero la luz o cualquier otra radiación que usemos para tomar la fotografía apartará al fotón de su recorrido fijado, impidiéndonos el conocimiento de dónde habría estado si no hubiésemos actuado sobre él. Así que, el resultado es que estamos limitados en nuestro conocimiento del mundo subatómico. Sólo podemos obtener respuestas parciales, cuya naturaleza está determinada en cierta medida por las cuestiones que optamos por indagar.
Cuando Heisenberg calculó la cantidad mínima ineludible de incertidumbre que limita nuestra comprensión de los sucesos de pequeña escala, halló que está definida nada menos que por h, el cuanto de acción de Planck.
Esquema de la formación de una traza en la cámara de niebla
Los físicos de partículas suelen encontrarse en sus vidas profesionales con el inconveniente de que aquello con lo que trabajan es tan sumamente pequeño que se vuelve indetectable tanto para el ojo humano como para los más avanzados sistemas de microscopía. Es cierto que en la actualidad se pueden conseguir imágenes en las que se distinguen átomos individuales cuando estos son lo suficientemente grandes, pero de ahí a poder visualizar un sólo protón, o un aún más pequeño electrón, hay un escalón insalvable para la técnica actual. Se han tomado espectros del electrón y, cada día, se avanza en esa direccción.
¿Cómo pueden, pues, los físicos saber que aquello con lo que trabajan no es un mero ente creado por su mente? ¿Cómo se pueden asegurar de que las partículas subatómicas existen en realidad?La respuesta es obvia: a través de su interacción con otras partículas o con otro sistema físico; y un ejemplo extraordinario de ello es, por ejemplo, en una cámara de niebla.
Claro que, la Indeterminación cuántica no depende del aparato experimental empleado para investigar el mundo subatómico. Se trata, en la medida de nuestro conocimiento, de una limitación absoluta, que los más destacados sabios de una civilización extraterrestre avanzada compartirían con los más humildes físicos de la Tierra. En la Física atómica clásica se creía que se podía, en principio, medir las situaciones y trayectorias precisas de miles de millones de partículas -digamos protones– y a partir de los datos resultantes formular predicciones exactas de donde estarían los protones en determinado tiempo futuro. Heisenberg vino a demostrarnos que tal supuesto era falso, que nunca podremos saberlo todo sobre la conducta de siquiera una sola partícula.
Cualquier detector debe contener un medio sensible que quede perturbado al paso de la partícula a registrar (lo que “vemos” es la huella que deja la partícula al atravesar el medio) Esa perturbación debe poderse traducir a imágenes y datos numéricos que permitan reconstruir la trayectoria y calcular sus características.
Las imágenes de las partículas proceden de dos tipos de detectores: las cámaras de burbujas y los detectores electrónicos. En el primero, las partículas cargadas dejan a lo largo de su trayectoria una traza de burbujas de vapor que se puede ver y fotografiar. Es un proceso en cierto modo inverso al de la formación de una estela de vapor de agua al paso de los aviones a reacción.
Así que, el nuevo marco expuesto por el Principio de Indeterminación de Hesinberg cambió fundamentalmente nuestra visión del mundo de la física. Nos dio un nuevo conocimiento: A partir de aquel momento sabíamos que, no sólo la materia y la energía estaban cuantizadas sino que, también nuestro conocimiento del Universo lo estaba.
NO, esto no es el salto cuántico que, según explicamos más abono es otra cosa diferente
Cuanto más minuciosamente se examina el mundo subatómico, mayor parece la Indeterminación. Cuando un fotón choca con un átomo, haciendo saltar un electrón a una órbita más elevada, el electrón se mueve de la órbita inferior a la superior instantáneamente, sin tener que atravesar el espacio intermedio. Los mismos radios orbitales están cuantízados, y el electrón simplemente deja de existir en un punto para aparecer simultáneamente en otro. Es el famoso “salto cuántico” que tanto desconcierta. Eso nos viene a demostrar que predecir exactamente la conducta de los átomos.
De modo similar, a como vimos antes, es en virtud de la indeterminación cuántica como los protonespueden saltar la barrera de Coulomb, permitiendo que la fusión nuclear se produzca a una tasa suficiente para que las estrellas sigan brillando.
Imagen ilustrativa de la dualidad onda partícula, en el cual se puede ver cómo un mismo fenómeno puede tener dos percepciones distintas, verdaderamente la mecánica cuántica puede resultar extraña debido a su complejidad, en su “universo” los comportamientos difieren de lo que nos dicta el sentido común en nuestras vidas cotidianas del mundo macroscópico.
Sin embargo, como todo lo grande está hecho de cosas pequeñas, necesitamos conocer lo pequeño para comprender lo grande. Hasta la estrella más grande y la galaxia más brillante del Cosmos, están conformadas de partículas subatómicas unas más elementales que otras.
En fin amigo, que tenemos en nuestras manos todos los interrogantes que debemos desvelar y, otros muchos, que ni conocemos, y, por delante una tarea de tal complejidad que, posiblemente, nunca podremos acabar. Un sin fin de misterios que desvelar, problemas que resolver y, preguntas que contestar y, siendo conscientes de que, sin descorrer el velo que esconde los secretos del Universo…poco podríamos avanzar, nos sumergimos en la difícil tarea de conquistar ese conocer de las cosas ignoradas para que, algún día en el futuro, podamos saber, al menos hacia dónde vamos.
Sabemos que el presente está cargado de pasado y que, el futuro, lo estará de presente. Si eso es así (que lo es), tratemos de mejorar este presente para que, el futuro, sea algo mejor de lo que hoy tenemos. Y, amigos, si queremos, podremos lograrlo.
Muchos de los pasajes aquí volcados han sido extraídos de la obra “La Aventura del Universo” de Timoty Ferris, profesor emérito de la Universidad de California que es un maestro indiscutible de la divulgación cientific, otros tienen otras fuentes y, alguna fracción del contenido puede ser de propia cosecha que, alguna cosa se va aprendiendo con el tiempo.
emilio silvera
Dic
8
Los “cuantos” ¡esa maravilla de la naturaleza!
por Emilio Silvera ~ Clasificado en Física Cuántica ~ Comments (0)
Estructuras fundamentales del Universo
LA MARAVILLA DE LOS CUANTOS
Emisión y absorción de energía en forma de cuantos al pasar de una órbita a otra.
La Física del siglo XX empezó exactamente en el año 1900, cuando el físico alemán Max Planck propuso una posible solución a un problema que había estado intrigando a los físicos durante años. Es el problema de la luz que emiten los cuerpos calentados a una cierta temperatura, y también la radiación infrarroja emitida, con menos intensidad, por los objetos más fríos. Planck escribió un artículo de ocho páginas y el resultado fue que cambió el mundo de la física y aquella páginas fueron la semilla de la futura ¡mecánica cuántica! que, algunos años más tardes, desarrollarían físicos como Einstein (Efecto fotoeléctrico), Heisenberg (Principio de Incertidumbre), Feynman, Bhor, Schrödinger, Dirac…
Figura animada que representa un rayo de luz incidiendo sobre un cuerpo negro hasta su total absorción. l nombre cuerpo negro fue introducido por Gustav Kirchhoff en 1862 y su idea deriva de la siguiente observación: toda la materia emite radiación electromagnética cuando se encuentra a una temperatura por encima del cero absoluto. La radiación electromagnética emitida por un cuerpo a una temperatura dada es un proceso espontáneo y procede de una conversión de su energía térmica en energía electromagnética. También sucede a la inversa, toda la materia absorbe radiación electromagnética de su entorno en función de su temperatura.
La expresión radiación se refiere a la emisión continua de energía de la superficie de todos los cuerpos. Los portadores de esta energía son las ondas electromagnéticas producidas por las vibraciones de las partículas cargadas que forman parte de los átomos y moléculas de la materia. La radiación electromagnética que se produce a causa del movimiento térmico de los átomos y moléculas de la sustancia se denomina radiación térmica o de temperatura.
Ley de Planck para cuerpos a diferentes temperaturas.
Estaba bien aceptado entonces que esta radiación tenía un origen electromagnético y que se conocían las leyes de la naturaleza que regían estas ondas electromagnéticas. También se conocían las leyes para el frío y el calor, la así llamada “termodinámica”, o al menos eso parecía.
Pero si usamos las leyes de la termodinámica para calcular la intensidad de la radiación, el resultado no tiene ningún sentido. Los cálculos nos dicen que se emitiría una cantidad infinita de radiación en el ultravioleta más lejano, y, desde luego, esto no es lo que sucede. Lo que se observa es que la intensidad de la radiación muestra un pico o una cierta longitud de onda característica, y que la intensidad disminuye tanto para longitudes mayores como para longitudes menores. Esta longitud característica es inversamente proporcional a la temperatura absoluta del objeto radiante (la temperatura absoluta se define por una escala de temperatura que empieza a 273 ºC bajo cero). Cuando a 1.000 ºC un objeto se pone al “rojo vivo”, el objeto está radiando en la zona de la luz visible.
Acero al “rojo vivo”, el objeto está radiando en la zona de la luz visible.
Lo que Planck propuso fue simplemente que la radiación sólo podía ser emitida en paquetes de un tamaño dado. La cantidad de energía de uno de esos paquetes, o cuantos, es inversamente proporcional a la longitud de onda y, por lo tanto, proporcional a la frecuencia de la radiación emitida. La sencilla fórmula es:
E = hv
Donde E es la energía del paquete, v es la frecuencia y h es una nueva constante fundamental de la naturaleza, la constante de Planck. Cuando Planck calculó la intensidad de la radiación térmica imponiendo esta nueva condición, el resultado coincidió perfectamente con las observaciones.
Ni que decir tiene que, desde entonces, la fórmula ha sido mejorada y, como siempre pasa, los avances que son imparables van modificando las teorías originales para perfeccionarlas y que se ajusten mucho más a la realidad que la Naturaleza nos muestra cuando somos capaces de descubrir sus secretos.
Poco tiempo después, en 1905, Einstein formuló esta teoría de una manera mucho más tajante: el sugirió que los objetos calientes no son los únicos que emiten radiación en paquetes de energía, sino que toda la radiación consiste en múltiplos del paquete de energía de Planck.
El príncipe francés Louis Victor de Broglie, dándole otra vuelta a la teoría, que no sólo cualquier cosa que oscila tiene una energía, sino que cualquier cosa con energía se debe comportar como una “onda” que se extiende en una cierta dirección del espacio, y que la frecuencia, v, de la oscilación verifica la ecuación de Planck. Por lo tanto, los cuantos asociados con los rayos de luz deberían verse como una clase de partículas elementales: el fotón. Todas las demás clases de partículas llevan asociadas diferentes ondas oscilatorias de campos de fuerza.
En mecánica cuántica, el comportamiento de un electrón en un átomo se describe por un orbital, que es una distribución de probabilidad más que una órbita. El electrón (e−), es una partícula subatómica con una carga eléctrica elemental negativa.Un electrón no tiene componentes o subestructura conocidos, en otras palabras, generalmente se define como una partícula elemetal.
En la Teoría de cuerdas se dice que un electrón se encuentra formado por una subestructura (cuerdas). Tiene una masa que es aproximadamente 1836 veces menor con respecto a la del protón. El miomento angular (espín) intrínseco del electrón es un valor semientero en unidades de ħ, lo que significa que es un fermión. Su antipartícula es denominada positrón: es idéntica excepto por el hecho de que tiene cargas —entre ellas, la eléctrica— de signo opuesto. Cuando un electrón colisiona con un positrón, las dos partículas pueden resultar totalmente aniquiladas y producir fotones y rayos gamma.
Los leptones
Los electrones, que pertenecen a la primera generación de la familia de partículas de los leptones y participan en las interacciones fundamentales, tales como la Gravedad, el electromagnetismo y la fuerza nuclear débil. Como toda la materia, posee propiedades mecánico cuánticas tanto de partículas como de onmdas, de tal manera que pueden colisionar con otras partículas y pueden ser difractadas como la luz. Esta dualidad se demuestra de una mejor manera en experimentos con electrones a causa de su ínfima masa. Como los electrones son fermiones, dos de ellos no pueden ocupar el mismo estado cuántico, según el Principio de exclusión de Pauli. Por este motivo se forman las estrellas enanas blancas y de neutrones al final de la vida de las estrellas de poca masa.
Es curioso el comportamiento de los electrones en el interior del átomo, descubierto y explicado por el famoso físico danés Niels Bohr, se pudo atribuir a las ondas de De Broglie. Poco después, en 1926, Edwin Schrödinger descubrió como escribir la teoría ondulatoria de De Broglie con ecuaciones matemáticas exactas. La precisión con la cual se podían realizar los cálculos era asombrosa, y pronto quedó claro que el comportamiento de todos los objetos pequeños quedaba exactamente determinado por las recién descubiertas “ecuaciones de onda cuántica”.
No hay duda de que la Mecánica Cuántica funciona maravillosamente bien. Sin embargo, surge una pregunta muy formal: ¿qué significan realmente esas ecuaciones?, ¿qué es lo que están describiendo? Cuando Isaac Newton, allá por el año 1687, formuló cómo debían moverse los planetas alrededor del Sol, estaba claro para todo el mundo lo que significaban sus ecuaciones: que los planetas están siempre en una posición bien definida en el espacio y que sus posiciones y sus velocidades en un momento concreto determinan inequívocamente cómo evolucionarán las posiciones y las velocidades con el tiempo.
Pero para los electrones todo esto es muy diferente. Su comportamiento parece estar envuelto en la bruma. Es como si pudieran “existir” en diferentes lugares simultáneamente, como si fueran una nube o una onda, y esto no es un efecto pequeño. Si se realizan experimentos con suficiente precisión, se puede determinar que el electrón parece capaz de moverse simultáneamente a lo largo de trayectorias muy separadas unas de otras. ¿Qué puede significar todo esto?
Niels Bohr consiguió responder a esta pregunta de forma tal que con su explicación se pudo seguir trabajando y muchos físicos siguen considerando su respuesta satisfactoria. Se conoce como la “interpretación de Copenhague” de la Mecánica Cuántica. En vez de decir que el electrón se encuentra en el punto x o en el punto y, nosotros hablamos del estado del electrón. Ahora no tenemos el estado “x” o el estado “y”, sino estados “parcialmente x” o “parcialmente y. Un único electrón puede encontrarse, por lo tanto, en varios lugares simultáneamente. Precisamente lo que nos dice la Mecánica Cuántica es como cambia el estado del electrón según transcurre el tiempo.
Un “detector” es un aparato con el cual se puede determinar si una partícula está o no presente en algún lugar pero, si una partícula se encuentra con el detector su estado se verá perturbado, de manera que sólo podemos utilizarlo si no queremos estudiar la evolución posterior del estado de la partícula. Si conocemos cuál es el estado, podemos calcular la probabilidad de que el detector registre la partícula en el punto x.
Las leyes de la Mecánica Cuántica se han formulado con mucha precisión. Sabemos exactamente como calcular cualquier cosa que queramos saber. Pero si queremos “interpretar” el resultado, nos encontramos con una curiosa incertidumbre fundamental: que varias propiedades de las partículas pequeñas no pueden estar bien definidas simultáneamente. Por ejemplo, podemos determinar la velocidad de una partícula con mucha exactitud, pero entonces no sabremos exactamente dónde se encuentra; o, a la inversa. Si una partícula tiene “espín” (rotación alrededor de su eje), la dirección alrededor de la cual está rotando (la orientación del eje) no puede ser definida con gran precisión.
No es fácil explicar con sencillez de dónde viene esta incertidumbre, pero hay ejemplos en la vida cotidiana que tienen algo parecido. La altura de un tono y la duración en el tiempo durante el cual oímos el tono tienen una incertidumbre mutua similar.
¿Onda o partícula? ¡Ambas a la vez! ¿Cómo es eso?
Para que las reglas de la Mecánica Cuántica funcionen, es necesario que todos los fenómenos naturales en el mundo de las cosas pequeñas estén regidos por las mismas reglas. Esto incluye a los virus, bacterias e incluso a las personas. Sin embargo, cuanto más grande y más pesado es un objeto más difícil es observar las desviaciones de las leyes del movimiento “clásicas” debidas a la mecánica cuántica.
Me gustaría referirme a esta exigencia tan importante y tan peculiar de la teoría con la palabra “holismo”. Esto no es exactamente lo mismo que entienden algunos filósofos por “holismo”, y que se podría definir como “el todo es más que la suma de las partes”.
Bien, si la Física nos ha enseñado algo, es justamente lo contrario: un objeto compuesto de un gran número de partículas puede ser entendido exactamente si se conocen las propiedades de sus partes (las partículas): basta que uno sepa sumar correctamente (¡y esto no es nada fácil en mecánica cuántica!). Lo que yo entiendo por holismo es que, efectivamente, el todo es la suma de las partes, pero sólo se puede hacer la suma si todas las partes obedecen a las mismas leyes.
Por ejemplo, la constante de Planck, h = 6,626075…x 10 exp. -34 julios segundo, debe ser exactamente la misma para cualquier objeto en cualquier sitio, es decir, debe ser una constante universal. Así, los extraterrestres del cuarto planeta a partir de la estrella SIL, cuando descubran esa constante, el resultado sería exactamente el mismo que le dio a Plancl, es decir, el Universo, funciona igual en todas partes.
Las reglas de la mecánica cuántica funcionan tan bien que refutarlas resulta realmente difícil. Los trucos ingeniosos descubiertos por Werner Heisenberg, Paul Dirac y muchos otros mejoraron y completaron las reglas generales. Pero Einstein y otros pioneros tales como Edwin Schrödinger, siempre presentaron serias objeciones a esta interpretación.
Quizá funcione bien, pero ¿dónde está exactamente el electrón, en el punto x o en el punto y? Em pocas palabras, ¿dónde está en realidad?, ¿cuál es la realidad que hay detrás de nuestras fórmulas? Si tenemos que creer a Bohr, no tiene sentido buscar tal realidad. Las reglas de la mecánica cuántica, por sí mismas, y las observaciones realizadas con detectores son las únicas realidades de las que podemos hablar.
Hasta hoy, muchos investigadores coinciden con la actitud pragmática de Bohr. Los libros de historia dicen que Bohr demostró que Einstein estaba equivocado. Pero no son pocos, incluyéndome a mí, los que sospechamos que a largo plazo el punto de vista de Einstein volverá: que falta algo en la interpretación de Copenhague. Las objeciones originales de Einstein pueden superarse, pero aún surgen problemas cuando uno trata de formular la mecánica cuántica para todo el Universo (donde las medidas no se pueden repetir) y cuando se trata de reconciliar las leyes de la mecánica cuántica con las de la Gravitación… ¡Infinitos!
La mecánica cuántica y sus secretos han dado lugar a grandes controversias, y la cantidad de disparates que ha sugerido es tan grande que los físicos serios ni siquiera sabrían por donde empezar a refutarlos. Algunos dicen que “la vida sobre la Tierra comenzó con un salto cuántico”, que el “libre albedrío” y la “conciencia” se deben a la mecánica cuántica: incluso fenómenos paranormales han sido descritos como efectos mecanocuánticos.
Yo sospecho que todo esto es un intento de atribuir fenómenos “ininteligibles” a causas también “ininteligibles” (como la mecánica cuántica) dónde el resultado de cualquier cálculo es siempre una probabilidad, nunca una certeza.
Claro que, ahí están esas teorías más avanzadas y modernas que vienen abriendo los nuevos caminos de la Física y que, a mi no me cabe la menor duda, más tarde o más temprano, podrá explicar con claridad esas zonas de oscuridad que ahora tienen algunas teorías y que Einstein señalaba con acierto.
¿No es curioso que, cuando se formula la moderna Teoría M, surjan, como por encanto, las ecuaciones de Einstein de la Relatividad General? ¿Por qué están ahí? ¿Quiere eso decir que la Teoría de Einstein y la Mecánica Cuántica podrán al fin unirse en pacifico matrimonio sin que aparezcan los dichosos infinitos?
Bueno, eso será el origen de otro comentario que también, cualquier día de estos, dejaré aquí para todos ustedes.
emilio silvera
Dic
4
¡La Física! Una Historia Interminable
por Emilio Silvera ~ Clasificado en Física Cuántica ~ Comments (1)
El universo de lo muy pequeño y de lo muy grande
Muy lejos quedan ya aquellas célebres palabras que pronunciara Enrico Fermi (el gran físico italiano): “Si yo pudiese recordar los nombres de todas estas partículas, habría sido un botánico”, y el físico Martinus Veltman más tarde reflexionó que “a medida que aumenta el número de partículas, lo único que logramos es aumentar nuestra ignorancia”.
Todo está hecho de Quarks y Leptones
Por aquellos tiempos (algunas décadas), hubo también demasiadas teorías, muchas incompatibles entre ellas. No pocos físicos se vieron frustrados hasta el punto de abandonar la física para siempre. Sin embargo, el torbellino y la confusión, no la tranquila seguridad, lo que hace crecer la mente, y, cuando aquel endiablado barullo empezó a calmarse y el polvo se disipó, la Física Cuántica emergió, no sólo como un campo vital y en rápido desarrollo de la ciencia, sino como uno de los mayores logros intelectuales de la historia del pensamiento humano. Aunque en modo alguno completa, entonces pudo hacer predicciones exactas sobre un imponente conjunto de fenómenos, desde la óptica y el diseño de ordenadores hasta el brillo de las estrellas, y hacerlo en términos de estructuras teóricas que, como ya podía verse, poseen una belleza y una amplitud dignas del universo que trataban de describir.
Las variadas teorías que llegaron a constituir la física cuántica a finales del primer cuarto del siglo pasado eran conocidas colectivamente como el Modelo Estándar.
Considerado desde su punto de vista, el mundo está compuesto de dos categorías generales de partículas: las de espín fraccionario (½), llamadas fermiones, en homenaje a Enrico Fermi, y las de espín entero (0, 1 o 2), llamadas Bosones, en homenaje a Satyendra Nath Bose, quien junto con Einstein, desarrolló las leyes estadísticas que gobiernan su conducta.
(El “espín” al que se alude aquí es el espín común, mecánico, aunque cuantizados, y se mide en términos de h, el cuanto de acción de Planck.)
Los Fermiones comprenden la materia. Obedecen a lo que se llama el Principio de exclusión de Pauli, formulado por este en 1925, según el cual dos fermiones no pueden ocupar al mismo tiempo un determinado estado cuántico. Debido a esta característica de los fermiones, sólo un número limitado de electrones pueden ocupar cada capa de un átomo, y hay un número superior para el número de protones y neutrones que pueden unirse para formar un núcleo atómico estable. Los protones, neutrones y electrones son todos fermiones.
Los Bosones transmiten fuerza. Para aventurar una imagen hiperbólica, podríamos concebir los fermiones como similares a patinadores sobre hielo que se arrojan balones los unos a los otros y, los balones son los bosones y el cambio de trayectoria de cada patinador que se produce cuando arrojan o atrapan los balones revela, en lenguaje newtoniano, la presencia de una fuerza.
Los Bosones no obedecen el principio de exclusión, y por consiguiente varias fuerzas diferentes pueden actuar en el mismo lugar al mismo tiempo. Los átomos de cualquier objeto, por ejemplo, están sujetos simultáneamente a la atracción eléctrica entre sus protones y electrones, y a la fuerza gravitacional de la Tierra.
Todos conocemos de las cuatro fuerzas fundamentales de la Naturaleza. Cada una tiene un papel distinto. La Gravitación, la atracción universal de todas las partículas materiales entre sí, mantiene unidos a cada estrella y planeta, y mantiene los planetas en sus órbitas dentro de la galaxia. El electromagnetismo, la atracción entre las partículas con carga eléctrica o magnéticas opuestas, produce luz y todas las otras formas de radiación electromagnética, incluyendo la radiación de onda larga llamada ondas radio y la radiación de onda corta llamada rayos X y rayos gamma. El electromagnetismo también une grupo de átomos para formar moléculas, y es la causa de la estructura de la materia tal como la conocemos. La Fuerza nuclear fuerte une protones y neutrones (llamados nucleones) en los núcleos de los átomos, y une las partículas elementales llamadas quarks para formar cada nucleón. La fuerza nuclear débil es la mediadora del proceso de desintegración radiactiva, la fuente de la energía emitida por los trozos de radio que estudiaron Rutherford y los Curie.
La conducta diferente de las fuerzas se refleja en la naturaleza de los bosones que transportan. La Gravitación y el electromagnetismo tienen un alcance infinito, que es por lo cual nuestra Galaxia “siente” la atracción gravitacional del cúmulo de Virgo de galaxias, y por lo que podemos ver luz estelar proveniente de miles de millones de años-luz de distancia, pues los bosones que transporta estas dos fuerzas llamados respectivamente gravitones y fotones, tienen masa cero. La fuerza nuclear débil tiene un alcance muy corto porque las partículas que la transportan, llamadas bosones débiles, son masivas. La fuerza o interacción fuerte es llevada por las partículas llamadas gluones; son masivas pero tienen la curiosa y bella de que su fuerza aumenta, no disminuye, cuando los fermiones entre los que son intercambiadas (los quarks) se alejan. Un quark que empieza a apartarse de sus dos compañeros pronto se encuentra arrastrado por una red de gluones (confinamiento de los quarks), y, si se juntan, pueden moverse libremente (libertad asintótica). Por ello, los quarks en el universo contemporáneo permanecen ligados dentro de los protones y neutrones; aún no ha sido posible observar quarks libres, aunque han sido buscados en todas partes, desde las colisiones de aceleradores de partículas hasta el polvo de la Luna y en otros lugares más extraños.
Los fermiones que constituyen la materia, aunque muy variados y numerosos, pueden ser clasificados como quarks, que responden a la interacción fuerte, o leptones, que no lo hacen. Los leptones son partículas ligeras; entre ellos se encuentran los electrones que giran alrededor de los núcleos atómicos. Los quarks son los ladrillos que componen los protones y neutrones. Tres quarks forman un nucleón. Se piensa que hay seis variedades de leptones y otras tantas de quarks. Ni los unos ni los otros muestran signo alguno de tener una estructura interna, aunque su anatomía ha sido sondeada hasta escalas de 10 ̄¹⁸ metros. Esto equivale a decir que si un átomo fuese ampliado hasta las dimensiones de la Tierra, todo subcomponente de quark y leptones tendría que ser más pequeño que una naranja para escapar a su detección. De modo que los quarks y los leptones son las partículas básicas de la materia, hasta donde llega nuestro conocimiento actual.
Todo suceso fundamental –lo cual significa simple- del Universo, en principio, puede ser interpretado mediante el modelo estándar. Cuando un niño mira una estrella, fotones de luz estelar chocan con electrones de los átomos exteriores de los receptores que hay en la retina del niño, poniendo en marcha otras interacciones de electrones que transportan la imagen al cerebro; todo esto es obra del electromagnetismo. Los procesos nucleares que producen la Luz estelar son generados por las fuerzas nucleares fuerte y débil que operan dentro de la estrella. Y la gravitación es la fuerza que mantiene unida la estrella y aferra los pies del niño (aunque sólo sea intermitentemente) al suelo.
Las explicaciones científicas de cómo las diversas partículas de la materia se comportan bajo la influencia de tres de las cuatro fuerzas reciben el nombre de teorías cuánticas de campos relativistas. Son llamadas así porque utilizan tanto las reglas cuánticas como la teoría especial de la relatividad, a fin de tomar en cuenta los efectos que aumentan la masa de las partículas que se desplazan a una velocidad cercana a la de la luz.
El electromagnetismo se describe con exquisita exactitud por la teoría de electro cuántica, o EDC. La interacción fuerte es descrita por la Cromodinámica Cuántica, CDC. (“Cromo” proviene de un número cuántico caprichosamente llamado “color”, que desempeña una función para los Quarks comparable a la carga eléctrica en las cuestiones relacionadas con los electrones.) La fuerza débil ha pasado a pertenecer al dominio de la teoría electrodébil.
La Gravitación sigue siendo la excepción. Sus acciones siguen siendo descritas por la teoría general de la relatividad de Einstein, que es una teoría clásica, lo cual significa que no incluye los principios cuánticos. Esto no origina problemas en la mayoría de las situaciones, pero la relatividad pierde su validez cuando se llega a campos gravitatorios sumamente intensos, como los que aparecen en el interior de los agujeros negros o en el Universo al comienzo de su expansión. Allí, la curvatura del espacio llega a infinito, punto en el cual la teoría saluda y hace mutis grácilmente.
La teoría de la Gravedad cuántica subyace en la Teoría de Cuerdas que no podemos verificar
No tenemos ninguna teoría cuántica de la gravitación con la cual completar la relatividad general y, de paso, el Modelo Estándar de la Física. Una razón de esto es que la Gravedad es débil. Normalmente, las partículas subatómicas individualmente son tan poco afectadas por la fuerza gravitatoria que ejercen sus colegas que se puede ignorar la gravedad. Otra razón es que las interacciones gravitacionales son interpretadas, mediante la teoría general de la relatividad de Einstein, como resultado de la geometría del espacio-tiempo. Los “gravitones” que, se piensa, transmiten la gravitación deben, por tanto, determinar la forma misma del espacio, y no es asunto simple para una teoría dilucidar como logran hacerlo.
La actual física de partículas es una casa dividida, y aunque el modelo estándar da un buen resultado, pocos creemos que sea la última palabra en este tema que, si aparece el Bosón de Higgs y algún que otro parámetro ahora perdido, todo podría cambiar.
Sin embargo, la Física actual está a la espera de una próxima revolución que, sólo podría venir de la mano de una nueva y avanzada teoría de la gravitación cuántica que, de una vez por todas incluyera a la Gravedad, en el Modelo estándar de la Física que, de esa manera sí que sería un modelo completo y sin fisuras.
Un Modelo Estándar sin parámetros aleatorios, firme y seguro que, sin dificultad y sin generar infinitos a las preguntas planteadas, nos pueda dar una respuesta convincente de lo que el Universo es.
Esperemos que venga pronto.
emilio silvera
Nov
11
¿La Física? ¡Una maravilla! Nos dice cómo funciona la Naturaleza
por Emilio Silvera ~ Clasificado en Física Cuántica ~ Comments (7)
“En el mundo de los seres vivos, la escala o tamaño crea importantes diferencias. En muchos aspectos, la anatomía de un ratón es una copia de la de un elefante, pero mientras que un ratón trepar por una pared prácticamente vertical sin mucha dificultad (y se puede caer desde una altura varias veces mayor que su propio tamaño sin hacerse daño), un elefante no sería capaz de realizar tal hazaña. Con bastante generalidad se puede afirmar que los efectos de la gravedad son menos importantes cuanto menores sean los objetos que consideremos (sean vivos o inanimados).”
Cuando llegamos a los seres unicelulares, se ve que ellos no hay distinción entre arriba y abajo. Para ellos, la tensión superficial del agua es mucho más importante que la fuerza de la gravedad a esa escala. Tranquilamente se pueden mover y desplazar por encima de una superficie acuática. Los pluricelulares no pueden hacer tal cosa.
La tensión superficial es una consecuencia de que todas las moléculas y los átomos se atraen unos a otros con una fuerza que nosotros llamamos de Van der Waals. fuerza tiene un alcance muy corto; para ser precisos, diremos que la intensidad de esta fuerza a una distancia r es aproximadamente 1/r7. Esto significa que si se reduce la distancia dos átomos a la mitad de la fuerza de Van der Waals con la que se atraen uno a otro se hace 2 × 2 × 2 × 2 × 2 × 2 × 2 = 128 veces más intensa. Cuando los átomos y las moléculas se acercan mucho unos a otros quedan unidos muy fuertemente a través de esta fuerza. El conocimiento de esta fuerza se debe a Johannes Diderik Van der Waals (1837 – 1923) con su tesis sobre la continuidad del líquido y gaseoso que le haría famoso, ya que en esa época (1873), la existencia de las moléculas y los átomos no estaba completamente aceptado.
La tensión superficial del agua, es el efecto físico (energía de atracción entre las moléculas) que “endurece” la capa superficial del agua en reposo y permite a algunos insectos, como el mosquito y otros desplazarse por la superficie del agua sin hundirse.
El famoso físico inglés James Clerk Maxwell, que formuló la teoría del electromagnetismo de Faraday, quedó muy impresionado por este de Van der Waals.
Los tamaños de los seres uniceculares, animales y vegetales, se miden en micrómetros o “micras”, donde 1 micra es 1/1.000 de milímetro, aproximadamente el tamaño de los detalles más pequeños que se pueden observar con un microscopio ordinario. El mundo de los microbios es fascinante, pero no es el objeto de este trabajo, y continuaremos el viaje emprendido las partículas elementales que forman núcleos, átomos, células y materia, así como las fuerzas que intervienen en las interacciones fundamentales del universo y que afecta a todo lo que existe.
Hemos hablado del electrón que rodea el núcleo, de su carga eléctrica negativa que complementa la positiva de los protones y hace estable al átomo; una masa de solamente 1/1.836 de la del núcleo más ligero (el del hidrógeno). La importancia del electrón es vital en el universo.
Pero busquemos los “cuantos”. La física del siglo XX empezó exactamente en el año 1900, cuando el físico alemán Max Planck propuso una posible solución a un problema que había intrigando a los físicos durante años. Es el problema de la luz que emiten los cuerpos calentados a una cierta temperatura, y también la radiación infrarroja emitida, con menor intensidad, por los objetos más fríos (radiación de cuerpo negro).
Estaba bien aceptado entonces que esta radiación tenía un origen electromagnético y que se conocían las leyes de la naturaleza que regían estas ondas electromagnéticas. También se conocían las leyes para el frío y el calor, la así llamada “termodinámica”, o al menos eso parecía. Pero si utilizamos las leyes de la termodinámica para calcular la intensidad de una radiación, el resultado no tiene ningún sentido. Los cálculos nos dicen que se emitiría una cantidad infinita de radiación en el ultravioleta más lejano y, luego, esto no es lo que sucede. Lo que se observa es que la intensidad de la radiación muestra un pico a una cierta longitud de onda característica, y que la intensidad disminuye tanto para longitudes mayores como para menores. Esta longitud de onda característica es inversamente proporcional a la temperatura absoluta de objeto radiante (la temperatura absoluta se define por una escala de temperatura que empieza a 273º bajo cero). Cuando a 1.000º C un objeto se pone al “rojo vivo”, el objeto está radiando en la zona de luz visible.
Radiación de Cuerpo Negro
Un cuerpo negro es un objeto teórico o ideal que absorbe toda la luz y toda la energía radiante que incide sobre él. Nada de la radiación incidente se refleja o pasa a través del cuerpo negro. A pesar de su , el cuerpo negro emite luz y constituye un modelo ideal físico para el estudio de la emisión de radiación electromagnética. El nombre Cuerpo negro fue introducido por Gustav Kirchhoff en 1862.
La luz emitida por un cuerpo negro se denomina radiación de cuerpo negro. Todo cuerpo emite energía en de ondas electromagnéticas, siendo esta radiación, que se emite incluso en el vacío, tanto más intensa cuando más elevada es la temperatura del emisor. La energía radiante emitida por un cuerpo a temperatura ambiente es escasa y corresponde a longitudes de onda superiores a las de la luz visible (es decir, de menor frecuencia). Al elevar la temperatura no sólo aumenta la energía emitida sino que lo hace a longitudes de onda más cortas; a esto se debe el cambio de color de un cuerpo cuando se calienta. Los cuerpos no emiten con igual intensidad a todas las frecuencias o longitudes de onda, sino que siguen la ley de Planck.
Lo que Planck propuso fue simplemente que la radiación sólo podía ser emitida en paquetes de un tamaño dado. La cantidad de energía de uno de esos paquetes, o cuantos, es inversamente proporcional a la longitud de onda, y por tanto, proporcional a la frecuencia de radiación emitida. La fórmula es E = hν, donde E es la energía del paquete, ν es la frecuencia y h es una nueva constante fundamental de la naturaleza, la constante de Planck. Cuando Planck calculó la intensidad de la radiación térmica imponiendo nueva condición, el resultado coincidió perfectamente con las observaciones.
Poco tiempo después, en 1905, Einstein formuló esta teoría de una manera mucho más tajante: él sugirió que los objetos calientes no son los únicos que emiten radiación en paquetes de energía, sino que toda la radiación consiste en múltiplos del paquete de energía de Planck. El príncipe francés Louis-Victor de Broglie, dándole otra vuelta a la teoría, propuso que no sólo cualquier cosa que oscila tiene energía, sino que cualquier cosa con energía se debe comportar una “onda” que se extiende en una cierta región del espacio, y que la frecuencia ν de la oscilación verifica la ecuación de Planck. Por lo tanto, los cuantos asociados con los rayos de luz deberían verse una clase de partículas elementales: el fotón. Todas las demás clases de partículas llevan asociadas diferentes ondas oscilantes de campos de fuerza, esto lo veremos más adelante.
El curioso comportamiento de los electrones en el interior del átomo, descubierto y explicado por el famoso físico danés Niels Bohr, se pudo atribuir a las ondas de de Broglie. Poco después, en 1926, Edwin Schrödinger descubrió cómo escribir la teoría ondulatoria de de Broglie con ecuaciones matemáticas exactas. La precisión con la cual se podían realizar cálculos era asombrosa, y pronto quedó claro que el comportamiento de todos los objetos pequeños quedaba exactamente determinado por las recién descubiertas “ecuaciones de ondas cuánticas”.
Está bien comprobado que la mecánica cuántica funciona de maravilla…, pero, sin embargo, surge una pregunta muy formal: ¿qué significan realmente estas ecuaciones?, ¿qué es lo que están describiendo? Isaac Newton, allá en 1867 formuló cómo debían moverse los planetas alrededor del Sol, estaba claro todo el mundo qué significaban sus ecuaciones: que los planetas estaban siempre en una posición bien definida des espacio y que sus posiciones y sus velocidades en un momento concreto determinan inequívocamente cómo evolucionarán las posiciones y las velocidades en el tiempo.
Pero los electrones todo es diferente. Su comportamiento parece estar envuelto en misterio. Es como si pudieran “existir” en diferentes lugares simultáneamente, como si fueran una nube o una onda, y esto no es un efecto pequeño. Si se realizan experimentos con suficiente precisión, se puede determinar que el electrón parece capaz de moverse simultáneamente a lo largo de trayectorias muy separadas unas de otras. ¿Qué puede significar todo esto?
Niels Bohr consiguió responder a esta pregunta de tal que con su explicación se pudo seguir trabajando, y muchos físicos siguen considerando su respuesta satisfactoria. Se conoce como la interpretación de Copenhague de la mecánica cuántica.
Si la mecánica cuántica tiene cosas extrañas y el espín es una de ellas. Y si uno piensa que la intuición le ayudará a comprender todo esto, pues no lo hará, o es poco probable que lo haga. Las partículas tienen un espín fundamental. Al igual que la carga eléctrica o la masa, el espín ayuda a definir que de partícula es cada una.
Las leyes de la mecánica cuántica han sido establecidas con mucha precisión; permite cómo calcular cualquier cosa que queramos saber. Pero si queremos “interpretar” el resultado, nos encontramos con una curiosa incertidumbre fundamental: que varias propiedades de las partículas pequeñas no pueden estar bien definidas de manera simultánea. Por ejemplo, podemos determinar la velocidad de una partícula con mucha precisión, pero entonces no sabremos exactamente dónde se encuentra; o a la inversa, podemos determinar la posición con precisión, pero entonces su velocidad queda mal definida. Si una partícula tiene espín (rotación alrededor de su eje), la dirección alrededor de la cual está rotando (la orientación del eje) no puede ser definida con gran precisión.
La posición y el momento de una partícula nunca lo podremos saber con precisión ilimitada.
No es fácil explicar de forma sencilla de dónde viene esta incertidumbre, pero existen ejemplos en la vida cotidiana que tienen algo parecido. La altura de un tono y la duración en el tiempo durante el cual oímos el tono tienen una incertidumbre mutua similar. Para afinar un instrumento se debe escuchar una nota durante un cierto intervalo de tiempo y compararla, por ejemplo, con un diapasón que debe vibrar también durante un tiempo. Notas muy breves no tienen bien definido el tono.
Para que las reglas de la mecánica cuántica funcionen, es necesario que todos los fenómenos naturales en el mundo de las cosas pequeñas estén regidos por las mismas reglas. Esto incluye a los virus, bacterias e incluso a las personas. Sin embargo, cuando más grande y más pesado es un objeto, más difícil es observar las desviaciones de las leyes del movimiento “clásicas” debidas a la mecánica cuántica. Me gustaría referirme a exigencia tan importante y tan peculiar de la teoría con la palabra “holismo”. Esto no es exactamente lo mismo que entienden algunos filósofos por holismo, y que podría definir como “el todo es más que la suma de sus partes”. Si la física nos ha enseñado algo es justo lo contrario. Un objeto compuesto de un gran de partículas puede ser entendido exactamente si se conocen las propiedades de sus partes (partículas); basta que sepamos sumar correctamente (¡y esto no es nada fácil en mecánica cuántica!). Lo que entiendo por holismo es que, efectivamente, el todo es la suma de las partes, pero sólo se puede hacer la suma si todas las partes obedecen a las mismas leyes. Por ejemplo, la constante de Planck, h, que es igual a 6’626075… × 10-34 Julios segundo, debe ser exactamente la misma para cualquier objeto en cualquier sitio, es decir, debe ser una constante universal.
La mecánica cuántica es muy extraña a nuestro “sentido común”, sabemos que se desenvuelve en ese “universo” de lo muy pequeño, alejado de nuestra vida cotidiana en el macrocosmos tetradimensional que, no siempre coincide con lo que, en aquel otro infinitesimal acontece.
Las reglas de la mecánica cuántica funcionan tan bien que refutarlas resulta realmente difícil. Los trucos ingeniosos descubiertos por Werner Heisemberg, Paul Dirac y muchos otros mejoraron y completaron las reglas generales. Pero Einstein y otros pioneros como Erwin Schrödinger siempre presentaron serias objeciones a interpretación. Quizá funcione bien, pero ¿dónde está exactamente el electrón?, ¿en el punto x o en el punto y? En pocas palabras, ¿dónde está en realidad?, y ¿cuál es la realidad que hay detrás de nuestras fórmulas? Si tenemos que creer a Bohr, no tiene sentido buscar tal realidad. Las reglas de la mecánica cuántica, por sí mismas, y las observaciones realizadas con detectores son las únicas realidades de las que podemos hablar.
Es cierto que, existe otro universo dentro de nuestro del que, aún, nos queda mucho por aprender.
La mecánica cuántica puede ser definida o resumida así: en principio, con las leyes de la naturaleza que conocemos se puede predecir el resultado de cualquier experimento, en el sentido que la predicción consiste en dos factores: el primer factor es un cálculo definido con exactitud del efecto de las fuerzas y estructuras, tan riguroso como las leyes de Isaac Newton para el movimiento de los planetas en el Sistema Solar; el segundo factor es una arbitrariedad estadística e incontrolable definida matemáticamente de estricta. Las partículas seguirán una distribución de probabilidades dadas, primero de una forma y luego de otra. Las probabilidades se pueden calcular utilizando la ecuación de Schrödinger de función de onda (Ψ) que, con muchas probabilidades nos indicará el lugar probable donde se encuentra una partícula en un dado.
Muchos estiman que esta teoría de las probabilidades desaparecerá cuando se consiga la teoría que explique, de forma completa, todas las fuerzas; la buscada teoría del todo, lo que implica que nuestra descripción actual incluye variables y fuerzas que (aún) no conocemos o no entendemos. Esta interpretación se conoce como hipótesis de las variables ocultas.”
También Gerard ‘t Hooft es el autor de lo que han dado en llamar l principio holográfico es una conjetura especulativa acerca de las teorías de la Gravedad Cuántica propuesta en 1993 por este autor, y mejorada y promovida por Leonard Susskin en 1995. Postula que toda la información contenida en cierto volumen de un espacio concreto se puede conocer a partir de la información codificable sobre la frontera de dicha región. Una importante consecuencia es que la cantidad máxima de información que puede contener una determinada región de espacio rodeada por una superficie diferenciable está limitada por el área total de dicha superficie.
Por ejemplo, se pueden modelar todos los eventos que ocurran en un cuarto o una habitación creando una teoría en la que sólo tome en cuenta lo que suceda en sus paredes. En el principio holográfico también se afirma que por cada cuatro Unidades de Planck existe al menos un grado de libertad (o una unidad constante de Bolttzmann k de máxima entropía). Esto se conoce como frontera de Bekenstein:
donde S es la entropía y A es la unidad de mensura considerada. En unidades convencionales la fórmula anterior se escribe:
donde:
- , es la constante de Boltzmann.
- , es la vecolcidad de la luz.
- , es la constante gravitacional universal.
- , es la constante de Planck racionalizada.
- , es la longitud de Planck.
Claro que esta… ¡Es otra Historia!
emilio silvera