Lo único que no resulta ser lo mismo cuando se mira a través a través del microscopio (o, en la jerca de la física teórica, cuando se realiza una transformación de escala) es la masa de la partícula. Esto se debe a que el alcance de la fuerza parece mayor a través del microscopìo y, por lo tanto, la masa de la partícula parece ser menor. Nótese que esta situación es la opuesta a la que se presenta en vida corriente donde un grano de arena parece mayor -¿más pesado, por lo tanto?- cuando se observa con un microscopio.
Granos de arena vistos al microscopio
Una consecuencia de todo esto es que en una teoría de Yang-Mills el termino de masa parece desaparecer cuando se realiza una transformación de escala, lo que implica que a través del microscopio se recupera la invariancia gauge. Esto es lo que causa la dificultad con la que se enfrentó Veltman. ¿Se puede observar directamente el potencial vector de Yang-Mills? Parece que puede observarse en el mundo de las cosas grandes, pero no en el mundo de lo pequeño. Esto es una contradicción y es una razón por la que ese esquema nunca ha podido funcionar adecuadamente.
En 2009, la empresa canadiense D-Wave Systems, conjuntamente con la NASA, desarrolló un ordenador cuántico de 128 cubits. Rainer contiene 128 dispositivos físicos (pequeños aros de metal niobidio) que a muy baja temperatura actúan como sistemas cuánticos con dos niveles (es decir, cubits) como consecuencia de la superconductividad.
¡Había una salida! Pero ésta procede de una rama muy diferente de la física teórica, la física de los metales a muy bajas temperaturas. A esas temperaturas, los “fenómenos cuánticos” dan lugar a efectos muy sorprendentes, que se describen con teorías cuánticas de campos, exactamente iguales a las que se utilizan en la física de partículas elementales. La física de partículas elementales no tienen nada que ver con la física de bajas temperaturas, pero las matemáticas son muy parecidas.
En algunos materiales, el “campo” que se hace importante a temperaturas muy bajas podría ser el que describe cómo los átomos oscilan alrededor de sus posiciones de equilibrio, o el que describe a los electrones en este tipo de material. A temperaturas muy baja nos encontramos con los “cuantos” de esos campos. Por ejemplo, el “fonón” es el cuanto del sonido. Su comportamiento recuerda al fotón, el cuanto de la luz, salvo que los números son muy diferentes: los fonones se propagan con la velocidad del sonido, a cientos o quizá miles de metros por segundo, y los fotones lo hacen a la velocidad de la luz que es de 300.000 km/s, ¡aproximadamente un millón de veces más deprisa! Las partículas elementales en las que estamos interesados generalmente tienen velocidades cercanas a las de la luz.
El fonon es la partícula elemental del sonido, como el fotón lo es en la luz..
Uno de los “fenómenos cuánticos” más espectaculares que tienen lugar en los materiales muy fríos es la llamada superconductividad, fenómeno consistente en el hecho de que la resistencia que presenta ese material al paso de la corriente eléctrica se hace cero. Una de las consecuencias de ese estado es que el material no admite la más mínima diferencia de potencial eléctrico, porque ésta sería inmediatamente neutralizada por una corriente eléctrica “ideal”. El material tampoco admite la presencia de campos magnéticos porque, de acuerdo con las ecuaciones de Maxwell, la creación del campo magnético está asociada con una corriente eléctrica inducida, que al no encontrar resistencia neutralizaría completamente el campo magnético. Por lo tanto, en el interior de un superconductor no se puede crear ni un campo electrónico ni magnético. Esta situación sólo cambia si las corrientes inducidas son muy elevadas, como ocurre cuando se somete el superconductor a los campos de imanes muy potentes y que perturban el material. No siendo capaz de resistir una fuerza tan brutal, pierde la superconductividad y se rinde permitiendo la existencia de un campo magnético en su interior.
El imán de neodimio flota gracias a su superconductividad.
¿Pero, qué tiene que ver un superconductor con las partículas elementales? Bien, un material superconductor se puede entender como un sistema en el cual el campo electromagnético es un campo de muy corto alcance. Está siendo apantallado y, sin embargo, es un campo de Maxwell, un campo gauge. ¡Esto es lo que hace interesante un superconductor para alguien que quiera describir la interacción débil entre partículas como una teoría gauge! ¡Qué característica tan bella de la física teórica! Se pueden comparar dos mundos completamente diferentes simplemente porque obedecen a las mismas ecuaciones matemáticas.
¿Cómo funciona un superconductor? La verdadera causa de este fenómeno peculiar la descubrieron John Bardeen, Leon N. Cooper y John R. Schrieffer por lo que recibieron el premio Nobel en 1972). Los electrones de un trozo sólido de material tienen que reunir al mismo tiempo dos condiciones especiales para dar lugar a la superconductividad: la primera es apareamiento y la segunda condensación de Bose.
“Apareamiento” significa que los electrones forman pares y actúan en pares, y los que producen la fuerza que mantiene los pares unidos son los fonones. En cada par, los electrones rotan alrededor de su propio eje, pero en direcciones opuestas, de manera que el par (llamado “par de Cooper”), en su conjunto, se comporta como si no tuviera rotación (“momento angular”). Así, un par de Cooper se comporta como una “partícula” con espín 0 y carga eléctrica -2.
La “condensación de Bose” es un fenómeno típicamente mecánico-cuántico. Sólo se aplica a partículas con espín entero (bosones). Al igual que los lemmings, los bosones se agrupan juntos en el estado de menor energía posible, Recuérdese que a los bosones les gusta hacer a todos la misma cosa. En este estado todavía se puede mover, pero no pueden perder más energía y, en consecuencia, no sufren ninguna resistencia a su movimiento. Los pares de Cooper se mueven libremente, de manera que pueden crear corrientes eléctricas que no encuentran ninguna resistencia. Un fenómeno parecido tiene lugar en el helio líquido a muy bajas temperaturas. Aquí los átomos de helio forman una condensación de Bose y el líquido que forman puede fluir a través de los agujeros más pequeños sin la más mínima resistencia.
Condensado de Bose
Como los electrones por separado tienen espín ⅟₂ no pueden sufrir una condensación de Bose. Las partículas cuyo espín es igual a un entero más un medio (fermiones) tienen que estar en estados cuánticos diferentes debido al principio de exclusión de Pauli. Esta es la razón por la que la superconductividad sólo se puede producir cuando se forman pares. Sí, comprendo que estas afirmaciones le sugerirán varias preguntas y me disculpo por adelantado, pero de nuevo he traducido fórmulas a palabras, lo que implica que el razonamiento pueda parecer poco satisfactorio. ¡Simplemente tome esto como una cierta “lógica cuántica” difícil de manejar! Fueron el belga François Englert, el americano Robert Brout y el inglés Peter Higgs los que descubrieron que la superconductividad podría ser importante para las partículas elementales. Propusieron un modelo de partículas elementales en el cual partículas eléctricamente cargadas, sin espín, sufrían una condensación de Bose. Esta vez, sin embargo, la condensación no tenía lugar en el interior de la materia sino el vacío. Las fuerzas entre las partículas tenían que ser elegidas de tal manera que se ahorrara más energía llenando el vacío de estas partículas que dejándolo vacío. Estas partículas no son directamente observables, pero podríamos sentir el estado, en cuyo espacio y tiempo están moviéndose las partículas de Higgs (como se las conoce ahora) con la mínima energía posible, como si el espacio tiempo estuviera completamente vacío.
Imagen: emiliosilveravazquez.com y su holograma, ¡siempre pensando!
Haber encontrado el bosón de Higgs puede resolver el misterio de la composición de masa de todos los objetos. Esta masa está presente en las partículas subatómicas y sin ellas la materia sólida no podría existir. El bosón de Higgs está relacionado a un campo energético, que se llama el campo de Higgs, el mismo que está presente en todo el universo de igual forma como el agua inunda una piscina. Es formando parte de ese campo, que las diversas partículas, como los protones, neutrones, electrones y otras, adquieren su masa. Las partículas más pequeñas encuentran menos dificultades para desplazarse, y las más grandes lo hacen con mayor dificultad. De todas las maneras, quedan muchas por explicar. Fandila nos preguntaba que, ¿de dónde adquiere su masa el mismo Bosón de Higgs?
Las partículas de Higgs son los cuantos del “campo de Higgs”. Una característica de este campo es que su energía es mínima cuando el campo tiene una cierta intensidad, y no cuando es nulo. Lo que observamos como espacio vacío no es más que la configuración de campo con la menor energía posible. Si pasamos de la jerga de campos a la de partículas, esto significa que el espacio vacío está realmente lleno de partículas de Higgs que han sufrido una condensación Bose”.
Este espacio vacío tiene muchas propiedades en común con el interior de un superconductor. El campo electromagnético aquí también es de corto alcance. Esto está directamente relacionado con el hecho de que, en tal mundo, el fotón tiene una cierta masa en reposo.
Y aún tenemos una simetría gauge completa, es decir, la invariancia gauge no se viola en ningún sitio. Y así, sabemos cómo transformar un fotón en una partícula “con masa” sin violar la invariancia gauge. Todo lo que tenemos que hacer es añadir estas partículas de Higgs a nuestras ecuaciones.
La razón por la que el efecto de invariancia gauge en las propiedades del fotón es tan diferente ahora es que las ecuaciones están completamente alteradas por la presencia del campo de Higgs en nuestro estado vacío. A veces se dice que “el estado vacío rompe la simetría espontáneamente”. Esto no es realmente correcto, pero el fenómeno está muy relacionado con otras situaciones en las que se produce espontáneamente una rotura de simetría.
Higgs sólo consideró campos electromagnéticos “ordinarios”, pero, desde luego, sabemos que el fotón ordinario en un vacío auténtico no tiene masa en reposo. Fue Thomas Kibble el que propuso hacer una teoría de Yang-Mills superconductora de esta forma, simplemente añadiendo partículas sin espín, con carga de Yang-Mills en vez de carga ordinaria, y suponer que estas partículas podían experimentar una condensación de Bose. Entonces el alcance de las interacciones de Yang-Mills se reduce y los fotones de Yang-Mills se convierten en partículas con espín igual a 1 y masa distinta de cero.
La discontinuidad manifiesta junto con la invariancia de escala (auto-semejanza), que presenta la energía de las fluctuaciones del vacío cuántico. Las consecuencias de la existencia del cuanto mínimo de acción fueron revolucionarios para la comprensión del vacío. Mientras la continuidad de la acción clásica suponía un vacío plano, estable y “realmente” vacío, la discontinuidad que supone el cuanto nos dibuja un vacío inestable, en continuo cambio y muy lejos de poder ser considerado plano en las distancias atómicas y menores. El vacío cuántico es de todo menos vacío, en él la energía nunca puede quedar estabilizada en valor cero, está fluctuando sobre ese valor, continuamente se están creando y aniquilando todo tipo de partículas, llamadas por eso virtuales, en las que el producto de su energía por el tiempo de su existencia efímera es menor que el cuanto de acción. Se llaman fluctuaciones cuánticas del vacío y son las responsables de que exista un campo que lo inunda todo llamado campo de punto cero.
Algunos físicos proponen una controvertida teoría en la que un extraño tipo de materia, el Singlet de Higgs, se movería hacia el pasado o el futuro en el LHC. ¡Qué imaginación! Claro que, puestos a imaginar…
Bien sabido es que mientras más profundizamos en el conocimiento de los secretos del mundo que nos rodea, más interrogantes y misterios sin resolver se nos muestran. Cada vez que abrimos una puerta, llegamos a una habitación que tiene otras muchas por abrir. Es la búsqueda incesante del hombre, su insoslayable afán por saber el por qué, el cómo y el cuándo de todas las cosas.
¿Estaremos entrando en una especie de locura?
Bueno…
Por su parte, el científico británico Peter Higgs, de 80 años, que dio su nombre a la llamada “partícula divina” en 1964, afirmó que cree que su Bosón sería hallado gracias al Gran Colisionador. “Creo que es bastante probable” dijo pocas horas después de que entrara en funcionamiento el gigantesco acelerador. Y, según parece, se está saliendo con la suya.
De todas las maneras, estaría bien saber, a ciencia cierta, cómo es el campo de Higgs del que toman la masa todas las partículas, y conocer, mediante que sistema se transfieren la masa, o, si cuando las partículas entran en el campo de Higgs e inter-relacionan con él, es el efecto frenado el que les otorga la masa.
Ayer finalizábamos así la primera parte de este trabajo:
Por su parte, el científico británico Peter Higgs, de 80 años, que dio su nombre a la llamada “partícula divina” en 1964, afirmó que cree que su Bosón sería hallado gracias al Gran Colisionador. “Creo que es bastante probable” dijo pocas horas después de que entrara en funcionamiento el gigantesco acelerador. Y, según parece, se está saliendo con la suya.
De todas las maneras, estaría bien saber, a ciencia cierta, cómo es el campo de Higgs del que toman la masa todas las partículas, y conocer, mediante que sistema se transfieren la masa, o, si cuando las partículas entran en el campo de Higgs e interaccionan con él, es el efecto frenado el que les otorga la masa.
Claro que, esa, como otras conjeturas sobre los Océanos de Higgs y su dichosa Partícula “repartidora de masa”, no son más que conjeturas que, más adelante, debemos ir comprobando para poder escribirlas con letras de oro en el Libro de la Física, o, por el contrario, desecharlas como se ha hecho con tantas otras ideas y teorías frustradas que nunca llegaron a ninguna parte.
¡Los fotones de Yang-Mills adquieren su masa y el principio gauge se sigue cumpliendo! Al principio esta visión no mereció la atención que merecía. Por una parte, la gente pensó que el modelo era feo. El principio gauge estaba ahí, pero ya no era el tema central. El “Campo de Higgs” había sido puesto ahí “a propósito” y la “partícula de Higgs”, en sí misma, no era una “partícula gauge”. Si se admitía esto, ¿por qué no introducir más partículas y campos arbitrarios? Estas ideas se consideraron como simples modelos con los que jugart, sin mucho significado fundamental al que ahora se quiere llegar con el LHC pretendiendo hacer bueno todo aquello y, al menos los físicos, insisten en que, el campo y la partícula están ahí…¡ya veremos en qué queda todo esto! Son muchos los cabos sueltos y las cosas sin explicar.
En segundo lugar estaba lo que se llamó “teorema de Goldstone”. Ya se habían priducido antes modelos de partículas con “rotura espontánea de simetría”, pero para la mayoría de esos modelos, Jeoffrey Goldstone habia probado que siempre contenían partículas sin masa y sin espín. Muchos investigadores, por lo tanto, pensaron que la teoría de Higgs también debía contener esa partícula de Goldstone, sin masa y que esto era un inconveniente porque entre las partículas conocidas no había ninguna partícula de Goldstone. Incluso el propio Goldstone había advertido que el Modelo de Higgs no satisfaccía las condiciones para su demostración, así que no tenía que ser válido para este caso, pero todo el mundo estaba tan impresionado con las matemáticas del teorema que el Modelo de Huggs-Kibble no tuvo éxito durante mucho tiempo.
El bosón de Higgs pretende ser una parte integral de nuestra comprensión de la Naturaleza. Se trata de una partícula que es una excitación de lo que se llama el campo de Higgs. El campo de Higgs impregna todo el espacio y cuando algunas de las partículas fundamentales que viajan a través de este campo adquieren masa (al interaccionar con el Campo dónde, probablemente, ve frenada su marcha y su desplazamiento es más lento debido al medio por el que discurre su viaje). La cantidad de masa que adquieren depende de la fuerza en que interactúan con el campo de Higgs. Algunas partículas, como el electrón adquieren una pequeña masa, mientras que otras adquieren una masa mucho mayor.
Y así, el teorema de Goldstone se utilizó como un “teorema de imposibilidad”: si el espacio vacío no es simétrico, entonces no se puede evitar la presencia de partículas sin masa y sin espín. Ahora sabemos que, en nuestro caso, la letra pequeña invalida el teorema; las partículas de Goldstone se hacen invisibles debido a la invariancia gauge y no son más que las “partículas fantasmas” que encontró Feynman en sus cáculos. Además, debemos recordar que el Mecanismo Higgs no es una auténtica rotura de simetría.
Ingenios que quieren entrar en los campos de Higgs
Un aspecto peculiar de esto es que este campo de Higgs que impregna en todo el espacio es parte de lo que llamamos espacio vacío o el vacío. Es sólo su impacto sobre las partículas que viajan a través de él y el bosón de Higgs que podemos observar en el laboratorio. El bosón de Higgs vive por un lapso muy corto de tiempo, así que no lo observan directamente, sino que más bien se observa que las partículas se descompone en y tienen que inferir su existencia a partir de eso. En la teoría actual que tenemos para comprender la naturaleza podemos hacer afirmaciones precisas acerca de qué fracción del tiempo que se desintegra en dos fotones en comparación con dos quarks abajo.
Claro que, algunos, me piden más profundidad en las explicaciones y, no se conforman con pasar por encima de las cuestiones, hay que entrar más en materia y dejar sentados algunos de los parámetros matemáticos que en todo esto están presente, y, para ellos…
Los físicos han buscado al bosón de Higgs por cerca de 50 años porque su descubrimiento completaría el Modelo Estándar de la física de partículas. El bosón de Higgs y su campo asociado explican cómo la simetría electrodébil se rompió justo después del Big Bang, lo que le dio a ciertas partículas elementales la propiedad de la masa. Sin embargo del Modelo Estándar no predice la masa de Higgs, y varios programas experimentales en el LEP del CERN, en el Tevatron de Fermilab y ahora el LHC del CERN habían intentado medir la masa de la partícula.
En el seminario llevado a cabo hoy en CERN como preludio a la mayor conferencia de física de partículas de este año, el ICHEP2012 en Melbourne, los experimentos ATLAS y CMS presentaron sus resultados preliminares en la búsqueda del Bosón de Higgs. Ambos experimentos observaron una nueva partícula en la región de masa entre 125-126 GeV.
“Observamos en nuestros datos claras señales de una nueva partícula, al nivel de 5 sigma, en la región de masa alrededor de 126 GeV. El impresionante rendimiento del LHC y ATLAS y el gran esfuerzo de mucha gente nos trajo a esta excitante etapa”, dijo la presentadora del experimento ATLAS Fabiola Gianotti, “pero se necesita más tiempo para preparar estos resultados para su publicación”
“Los resultados son preliminares pero la señal 5 sigma alrededor de 125 Gev que estamos viendo es dramática. Ésta es de hecho una nueva partícula. Sabemos que tiene que ser un bosón y es el bosón más pesado que hemos encontrado hasta ahora,” dijo el presentador del experimento CMS Joe Incandela. “Las implicaciones son muy significantes y es precisamente por esta razón que debemos ser extremadamente diligentes en todos nuestros estudios.”
Pues pasemos a hablar de teoría cuántica de campos, en ese tendremos unas densidades lagrangianas que dependerán del campo de cada partícula, dependiendo de su spin será un lagrangiano o otro, por ejemplo para N (a = 1,….N) campos escalares(omito fórmula).
.Al buscar el mínimo del potencial resulta que hay varios posibles (con el mismo valor) pero para que la energía se minimice hace falta fijar un vacío (debido a que el Hamiltoniano depende del potencial y de unos términos positivos que van con las derivadas del campo). Ahora bien, inicialmente nuestra acción podría tener una simetría gauge global, es decir que al efectuar una transformación de un grupo sobre los campos la acción no cambia, al fijar el vacío la simetría se reduce a un subgrupo y algunos campos obtienen masa (originalmente ninguno tiene masa), pues bien el teorema de Goldstone lo que dice es que campos se quedan sin masa, estos son los bosones de Goldstone.
¿Y el higgs? ¬¬
Ya llegamos, en el apartado anterior hemos considerado transformaciones globales, pero por ejemplo en electromagnetismo tenemos transformaciones locales, así que hay que mirar lo que pasa en las transformaciones locales. Lo primero que pasa es que la derivada parcial no preserva los vectores (lo que hemos llamado antes ) igual que pasa en relatividad general, al hacer una transformación que depende de las coordenadas la derivada ya no es covariante, así que hay que buscar una covariante para seguir con lo que sabemos (en este caso la transformación se debe a un grupo gauge arbitrario, que no tiene porque ser el de difeomorfismos como en relatividad general. En este contexto aparecen los campos gauge que jugaran un papel similar al de la conexión en relatividad general y en el caso del electromagnetismo el campo gauge es el potencial electromagnético). Ahora al ser transformaciones locales, aparecen campos gauge que por similitud con el electromagnetismo escribiremos el lagrangiano de Yang-Mills igual que en el electromagnetismo F depende de los campos gauge, pero debido a que no es abeliano hay un termino extra que tiene que ver con las constantes de estructura del álgebra de Lie, . Ahora ya viene lo bueno, aparte del lagrangiano de la partícula también tenemos el de Yang-Mills, resulta que debido a la simetría local:
Los bosones de Goldstone desaparecen, es decir no son partículas físicas.
Pues eso es el efecto Higgs. Ahora para llegar ya al famoso bosón, en el modelo estándar no se pueden construir terminos de masa para las partículas debido a que no se pueden acoplar adecuadamente para ese propósito los campos de Yang-Mills y las partículas, debido a las simetrías que deben satisfacer (en general el famoso aunque cada campo tendrá una simetría concreta) y ahí es donde entra el bosón de Higgs, ya que el modelo más sencillo para añadir masa es justamente ese, añadir un doblete de campos escalares complejos y al romper la simetría ……..Higgs !!!!
Dos prestigiosos investigadores habían sugerido de forma independiente que se podían construir modelos realistas dde partículas en los cuales, el sistema de Yang-Mills fuera responsable de la interacción débil y el mecanismo de Higgs-Kibble la causa de su corto alcance. Uno de ellos era el paquistaní Abdus Salam que estaba buscando modelos estéticos de partículas y pensó que la belleza de la idea de Yan-Mills era razón suficiente para intentar construir con ella un modelo de interacción débil. La partícula mediadora de la interacción débil tenía que ser un fotón de Yang-Mills y el mecanismo de Higgs-Kibble la única explicación aceptable para que esta partícula tuviera una cierta cantidad de masa en reposo.
Una simetría puede ser perfecta en el plano de las ecuaciones y resultar rota en el plano de las soluciones. Como decía Weinberg: «Aunque una teoría postule un alto grado de simetría, no es necesario que los estados de las partículas muestren la simetría. Nada me parece tan halagüeño en física como la idea de que una teoría puede tener un alto grado de simetría que se nos oculta en la vida ordinaria».
La teoría que unifica las interacciones electromagnéticas y débil se debe a Glashow, Salam y Weinberg que obtuvieron por ella el Premio Nobel de física de 1979. La dificultad esencial de esta teoría es que los bosones del estado inicial simétrico debían ser de masa nula (masa nula de los bosones de interacción origina una fuerza a gran distancia), mientras que se necesitan bosones intermedios (partículas que originan la fuerza) muy masivos para justificar la interacción débil (corto alcance) . El mecanismo de Higgs, permite resolver esa dificultad, mediante la ruptura espontánea de simetría hace masivos los bosones W y Z (interacción débil) y mantiene nula la masa del fotón (interacción electromagnética).
Los famosos diagramas de Feynman, nos explican algunos mecanismos de los que se pueden producir (de hecho se producen) en ese misterioso campo de las partículas elementales cuando están presentes en ciertos lugares y se juntas con otros individuos de la especie.
Salam que estaba muy cerca de poder alcanzar la gloria…no llegaba a poder explicar y aplicar las reglas de Feynman y tuvo que admitir que la teoría parecía estar llena de partículas fantasmas que estaban a punto de estropearlo todo. En estas, llegó el otro investigador, Steven Weinberg, que supo dar un paso más al formular con mucho más detalle un modelo sencillo en el cual indicaba con precisión los campos que existían y cómo podían interactuar. Pero se limitó a los leptones. Weinberg comprendió que, junto al fotón ordinario tenía que haber tres fotones de Yang-Mills pesados::
– Uno cargado positivamente.
– Otro cargado negativamente.
– Otro Neutro.
El panorama completo
En lo que se refiere a los fotones cargados, todo el mundo estaba de acuerdo en que estos se necesitarían para describir la interacción débil: serían los famoso bosones vectoriales intermediarios, W+ y W–. De acuierdo con Weinberg, sus masas tenían que ser mayores de 60.000 MeV. Pero solos, estos bosones, vectoriales cargados eran suficientes para explicar todos los procesos de interacción débil que conocían en aquella época. Que aparte de ellos y del fotón ordinario, y, también se necesita otro componente neutro (Weinberg le llamó Zº) no era evidente en absoluto. Se encontró que la masa del Zº tenía que ser un poco mayor que la de los bosones cargados.
De todo aquello surgió una tería para las interacciones débiles en las cuales jugaban un papel dominante distintos diagramas de Feynman, de los que se podían plasmar un número infinito para mostrar, de manera gráfica, los sucesos que acontecían en aquellos fenómenos de la radiación producida en la interacción débil. Pasado el tiempo y mirado con una mejor perspectiva, es fácil comprender todo aquello pero, en aquellos momentos en que se estaba gestando, las cosas no resultaban tan fáciles.
Después de todo aquello, se prestó más atención al mecanismo Higgs-Kibble y, algunos, como Veltman fueron muy escépticos con aquellas ideas, y, desde luego, no fue fácil convencerlo de que pudiéramos llamar vacío a algo lleno de partículas invisibles. ¿No delatarían dijo, su presencia por sus campos gravitatorios? La teoría puede ser formulada de tal manera que esos campos gravitatorios se compensen exactamente con otras partículas invibles o por una contribución misteriosa del propio espacio vacío.
Cómo consigue la Naturaleza enmascarar tan exacta y eficientemente esos factores de la gravedad que no podemos notar nada, es un misterio que continua siendo muy debatido hoy en día. Claro que, todo esto dejará de ser un misterio cuando un día (lejos aún en el futuro), podamos comprender la Gravedad Cuántica.
Mientras todo esto sucede… ¡Dejemos volar nuestra imaginación! con ideas y teorías como la de los ¡Campos de Higgs! ¡Bosones que, generosos ellos, regalan masas a otras partículas! ¡Materia que no podemos ver pero que, dem manera acérrima, nos empeñamos en que sí está! ¡Fluctuaciones de vacío que rasgan el espacio-tiempo, y, que de vez en cuando, hace surgir nuevos universos! ¡Universos paralelos que nacieron sin vida! ¡Ciclos eternos en el que las cosas se repetir una y otra vez hasta el infinito! ¡Nuevos Big Bangs después del nuestro! ¡Agujeros negros en nuestro universo y, blancos al otro lado, en otro universo. Aquí recoge materia y, allí, la expulsa por el contrario, un Agujero Blanco! ¡Agujeros de Gusano que nos podrían llevar a otras galaxias! ¡El sueño de vencer (mejor burlar) a la velocidad de la luz, ese muro que nos tiene confinados en nuestro pequeño mundo, el Sistema Solar!
Después de leer todo esto, ¿por qué no dedicáis aunque sólo sea una hora para pensar sobre ello?
Los hologramas o proyecciones de imágenes en tres dimensiones mediante un láser, ya no son sólo cosa de las películas de ciencia ficción. La empresa LM3Lab ha desarrollado bajo el nombre de Air Strike, una nueva tecnología de hologramas en tres dimensiones, interactivo y controlado por gestos.
El Universo Holográfico nos lleva a la más reciente “hipótesis” de esta teoría o principio avanzada por los físicos de partículas, y que dejan atónitas a las mentes de todos aquellos que se paran a leer en qué consiste tal “universo” que, según esa teoría, todo el Universo es un holograma o, por lo menos, que debe ser tratado como tal.
Como arriba, en la imagen podemos ver, los hologramas son representaciones tridimensionales de objetos, gravadas con una técnica especial. Una grabación holográfica consiste en una figura de interferencias creadas por los haces de luz (con láseres monocromáticos y espejos semi-transparentes).
Parte de la luz láser pasa a través del espejo y otra parte es reflejada y rebota hacia el objeto que quiere grabar. Se expone una placa fotográfica a la figura de interferencia creada por los haces de luz. La figura no tiene significado en sí, se trata simplemente de un revoltijo de líneas. Sin embargo, contiene información de los contornos del objeto. Estos contornos pueden recrearse iluminando la placa con luz láser.
Holograma aereo 3D. Foto: NIAIST.
Un equipo de tecnólogos japoneses y norteamericanos ha conseguido crear figuras holográficas tridimensionales en el aire.
Por primera vez este resultado recuerda a los hologramas que aparecen en películas de ciencia-ficción del tipo “La guerra de las galaxias”.
Los sistemas 3D tradicionales se aprovechan de la posibilidad de visión estereoscópica de la visión humana para recrear una profundidad en la imagen. Normalmente se usan dos imágenes del motivo filmadas con dos cámaras diferentes que están separadas una determinada distancia. Para poder ser vistos con sensación 3D se proyecta cada imagen a un ojo en específico a través de un truco basado en la polarización o similar. En todo caso no se puede “rodear” la imagen obtenida de este modo.
Claro que, de todas estas ideas y proyectos exploratorios que la especie humana está realizando sin cesar, husmeando en mundos imposibles donde aparecen planteamientos mágicos que parecen sacados de la mente de Julio Verne, quién puede negar que podamos obtener, algún día, maneras y formas nuevas que vayan más allá de lo que hoy consideramos normal y que se encuentre en ese mundo que, considerado ahora fantástico, pudiera ser lo cotidiano mañana.
Se están probando hogramas que salen fuera de la Pantalla del móvil y que son impresionantes. ¿Hasta donde podremos llegar? No puedo saber si la noticia es cierta o sólo una fantasía pero, una cosa es segura, nada de lo que podamos oír y ver en los años venideros tiene que sorprendernos…las maravillas futuras están en la puerta.
Físicos estadounidenses acaban de crear un display holográfico capaz de mostrar imágenes tridimensionales cambiantes con el tiempo. El nuevo dispositivo, el primero basado en un material conocido como polímero foto-refractivo, abre las puertas al desarrollo de pantallas dinámicas 3D de gran tamaño.
Holografía: para formar el holograma de una figura sólida necesitamos, en primer lugar, dividir un haz de láser en dos; el llamado haz “objeto” y el denominado “referente”. El haz objeto se dirige, obviamente, al objeto a renderizar, el cual dispersará la luz incidente que será recogida sobre una placa fotosensible situada a continuación. En esta placa, la luz difractada se combina con la del haz referente produciendo un patrón de interferencia que contiene toda la información 3D – esto es, fase y amplitud- del objeto. A continuación el patrón de interferencia deberá ser almacenado en un material adecuado.
Actualmente se dispone de una amplia variedad de materiales con los que formar hologramas estáticos, es decir, con la capacidad de almacenar toda la información necesaria -de hecho, podemos encontrar hologramas de casi cualquier tamaño, a todo color y con una alta resolución. Sin embargo, hasta la fecha no se había encontrado un material capaz de mostrar imágenes holográficas cambiantes.
Y es que Nasser Peyghambarian y sus colegas de la Universidad de Arizona, en colaboración con la Nitto Denko Technical Corporation de California, han creado una pantalla holográfica actualizable de 10 cm cuadrados y con una resolución cercana a la que ofrece un televisor estándar. Esta pantalla está compuesta de un polímero fotorrefractivo con el que se consigue que los portadores de carga móviles se acumulen sobre las franjas de luz y oscuridad del patrón de interferencia, creando un campo eléctrico que varía en el espacio. Este campo eléctrico obliga al índice refractario del polímero a ajustarse al patrón de interferencia, que puede permanecer grabado durante unas tres horas (o hasta que los portadores de carga son dispersados por un haz uniforme que funciona como borrador).
Imagen de un Molécula en 3D reproducida por el diplay holográfico
El siguiente paso, para el equipo de investigación norteamericano, es el desarrollo de displays mayores y la reducción del tiempo de escritura para conseguir la reproducción de video en 3D. En este campo del holograma se están haciendo grandes avances y, posiblemente, llegarán hasta el final consiguiendo reproducir, holográficamente, imágenes de increíble precisión y belleza que, en ciertas circunstancias, vendrán a suplantar a los originales por razones de seguridad, etc.
Esta Imagen de una señorita (holográfica) que nos habla en grandes Almacenes, Seminarios, Conferencias, y otros grandes eventos, será lo cotidiano en un tiempo breve. Incluso por las calles, nos toparemos con estas imágenes que, representando a todo tipo de objetos y personas, tratarán de vendernos un producto, comunicarnos una noticias, o, incluso, tratar de convencernos para que votemos a este o aquel político.
Se trata de un sistema compuesto por elementos interrelacionados mediante el cual se proyectan imágenes audiovisuales sobre una superficie, generando un efecto 3D que sugiere al espectador una proyección holográfica “sobre el aire”.
El bueno de Yoda en holograma
¿Quién no ha visto alguna vez una película en la que se trabaje con hologramas? Ya saben a qué me refiero, a construcciones de luz de gran tamaño construidas a partir de un especial.
Hasta el momento, la ciencia alcanza a crear hologramas estáticos, una figura en tercera dimensión que puede ser vita desde cualquier lado. Sin embargo, un nuevo descubrimiento rompe una barrera que hasta el momento se creía imposible de romper.
Un grupo de expertos de la Universidad de Arizona, financiados por la Aérea estadounidense, ha logrado elaborar un dispositivo capaz de generar hologramas dinámicos, capaces de ser actualizados desde la fuente de la imagen.
Miles de puertas se abren a la ciencia gracias a esta investigación. Sus aplicaciones pueden ser millones, desde la mejora en cuanto al cálculo de distancia en un dispositivo hasta la creación de proyectos y el estudio médico, podemos encontrar incontables aplicaciones para esta nueva tecnología.
La industria del entretenimiento sabrá sacarle su jugo a esta nueva tecnología, pudiendo recrear mundos de fantasía de los que el usuario forme parte. El futuro está a la vuelta de la esquina.
En las Vegas se ha abierto un nuevo club nocturno llamado Lolita’s Bar & Tequila Bar, lo interesante del caso es que es el primer centro nocturno en el que usan hologramas para entretener a sus clientes.
Esto se logro al trabajo conjunto de Digital Illusions y el director de cine y diseñador de espacio Rick Haynes, Digital Illusions que se encargo de aplicar la tecnología holográfica usa polímeros transparentes avanzados y video en alta definición para mostrar los hologramas.
Llegaron los Hologramas en 3D al estilo de Star Wars?
Hace poco más de un mes publicaron en En cabezada un artículo sobre un nuevo desarrollo para obtener imágenes tridimensionales de objetos en movimiento en tiempo real. Muy similar a los hologramas de la película “La Guerra de las Galaxias” de George Lucas. Este desarrollo fue realizado por científicos estadounidenses, y para observarlo no es necesario utilizar ningún tipo de lentes.
Este trabajo se presentó en la portada del diario Nature en el artículo: Star Wars-style holograms: a new hope? y en un comunicado de prensa que se hizo en la Universidad de Arizona en EEUU.
Cada día nos asombramos menos de ver ciertas imágenes que, poco a poco, nos van siendo más familiares, a pesar de su extraña y singular composición. Las Técnicas avanzan más rápidamente de lo que la gente de la calle puede imaginar y, cuando nos menos lo esperemos, o, mejor, sin que nos demos cuenta, estamos entrando en el futuro. ¿O, quizá esté ya aquí?
¿Qué es nuestra Mente? ¿Qué mecanismos la rigen? ¿Cómo de fuerte es nuestro cuerpo? ¿Qué son las enfermedades que nos acechan?. ¡Son tantas preguntas! y, tan pocos los conocimientos que tenemos para contestarlas que nos limitaremos aquí a comentar sobre la debilidad de nuestros cuerpos y del entorno que nos rodea.
“La esquizofrenia es un trastorno mental grave por el cual las personas interpretan la realidad de manera anormal. La esquizofrenia puede provocar una combinación de alucinaciones, delirios y trastornos graves en el pensamiento y el comportamiento, que afecta el funcionamiento diario y puede ser incapacitante.”
Lo cierto es que somos más frágiles de lo que creemos ser
Somos frágiles, estamos marcados por genes que nos pueden traer enfermedades complejas de todo tipo que ponen en peligro nuestras vidas. Cierto que el ser humano puede nacer con genes mutados, y de hecho es el caso, que predisponen a padecer enfermedades. Pero esto no es suficiente, en absoluto, para que haya aparición clínica de estas enfermedades que llamamos complejas y que son las más como las poligénicas como la esquizofrenia, el Alzheimer o el Parkinson, una arteriosclerosis, hipertensión, algún tipo de diabetes o de cáncer y junto a todas estas, una larga lista de enfermedades.
Sin embargo, podemos tener el gen y éste quedar dormido para siempre, si no lo despertamos. Para que tal cosa ocurra es necesario que esos genes mutados, en su acción e interacción entre ellos y con otros genes, interaccionen a su vez con el medio ambiente que rodea al individuo y sus estilos de vida y haga que la enfermedad se exprese. De ello, y como corolario, se deduce una idea realmente revolucionaria. Y esta es que el ser humano podría vivir sin enfermedades, al menos sin las más importantes que nos acechan si conociésemos esos determinantes ambientales, decisorios y, al que se ha puesto el nombre de “AMBIOMA”.
Francisco Mora es Doctor en Neurociencia y Catedrático de Fisiología Humana
Él nos cuenta:
“Hace muchos años que dentro de la Educación Ambiental me especialicé en la Interpretación del Paisaje. Una disciplina que me ha ido ayudando a entender mejor la relación del ser humano con la Naturaleza de la que formamos parte. Los resultados me han servido para después trabajar en cuestiones referentes a la Gestión del Medio Ambiente. Incluso para ir desgranando un mundo complejo de las vinculaciones emocionales del ser humano con los paisajes y ambientes culturales donde se mueve, han sido necesarios muchos años de paciente observación de los mecanismos de funcionamiento del cerebro ante diversos estímulos externos. Con ello descubrí para mí la Neurobiología y gracias a la ayuda de Javier de Felipe, del Instituto Ramón Y Cajal de Madrid y otras personas he podido comprender mejor todo ese mundo neurocientífico realmente apasionante. Desde hace años me he ido topando con personas con psicopatologías que mi intuición me decía que no se debían a problemas únicamente neurológicos, de defectos en los neurotransmisores. Ahí estaban también los genes.”
¿Por qué cuando me cruzo con amigos de la niñez, me parecen unos viejos (los que siguen aquí), mientras que yo me siento más joven y fuerte. Será mi estilo de vida. El exceso más grande que hice siempre fue el trabajar muchas horas, nunca he bebido alcohol, y, el tabaco lo dejé pronto, siempre comí alimentos naturales y en pequeña cantidad.
El concepto de AMBIOMA (Dr. López Rejas) se ha definido como “el conjunto de elementos no genéticos, cambiantes, que rodean el individuo y que junto con el genoma y proteoma conforman el desarrollo y construcción del ser humano o puede determinar la aparición de enfermedad”.
¡ Es el gran desconocido de la ciencia de hoy !
Por si acaso, alejémonos del tendido de alta tensión y grandes antenas de teléfonos
Pero sí, sin duda alguna, el AMBIOMA, es el elemento determinante, como ya sospechamos, de que aparezcan enfermedades como la Leucemia y otras. Se han realizado muchos estudios y aunque no tenemos los conocimientos para asegurarlo, todos apuntan en la misma dirección: El medio ambiente que nos rodea (AMBIOMA), es determinante en la aparición de ciertos trastornos.
Las pruebas más frecuentes están relacionadas con Urbanizaciones y centros escolares situados en zonas de tendidos eléctricos de potente voltaje. Otras, como la emanación de gases de centros industriales, también están entre las causas más frecuentes de trastornos físicos. Claro que, las grandes empresas, niegan cualquier incidencia.
No podemos cerrar los ojos a esta realidad, esta nueva área de conocimientos, el AMBIOMA, nos llevará a darnos cuenta que tiene ingredientes que influyen, y a veces poderosamente, en el individuo y en su desarrollo a lo largo de su vida, hasta tal punto que, se cree pueda ser el factor determinante para acortarla en el tiempo.
La acción poderosa y nociva que una radiación continuada puede inferir en nuestros frágiles organismos, son incalculables y, no siempre, dichas radiaciones, pueden ser medidas con claridad, no todas las radiaciones gritan su presencia como en el caso de la fisión nuclear:
“Cuando se enciende un reactor nuclear y el combustible comienza a fisionar (a romperse) se liberan multitud de partículas cargadas con una enorme cantidad de energía. Cuando estas partículas viajan más rápido que la luz en ese medio, se produce un efecto luminoso bastante llamativo conocido como radiación de Cherenkov.”
Vivir cerca de aquí…no es nada bueno al estar acompañados de la radiación azul maligna
Es posible comenzar un trabajo con una idea preconcebida y, que dicho trabajo, tome sus propios caminos que, en realidad, vienen a converger siempre en ese punto central que era la idea original, ya que, todo esta conexionado de alguna manera misteriosa.
Los físicos se vieron durante mucho tiempo turbados por el hecho de que a menudo, la partícula beta emitida en una desintegración del núcleo no alberga energía suficiente para compensar la masa perdida por el núcleo. En realidad, los electrones no eran igualmente deficitarios. Emergían con un amplio espectro de energías, y el máximo (conseguido por muy pocos electrones), era casi correcto, pero todos los demás no llegaban a alcanzarlo en mayor o menor grado. Las partículas alfa emitidas por un nucleido particular poseían iguales energías en cantidades inesperadas. En ese caso, ¿qué era errónea en la emisión de partículas beta? ¿Qué había sucedido con la energía perdida?
“Las partículas alfa (α) son núcleos completamente ionizados, es decir, sin su envoltura de electrones correspondiente, de helio-4 (4He). Se generan habitualmente en reacciones nucleares o desintegración radiactiva de otros nucleidos que se transmutan en elementos más ligeros mediante la emisión de dichas partículas.”
En 1922, Lise Maitner se hizo por primera vez esta pregunta, y, hacia 1.930, Niels Bohr estaba dispuesto a abandonar el gran principio de conservación de la energía, al menos en lo concerniente a partículas subatómicas. En 1931, Wolfgang Pauli sugirió una solución para el enigma de la energía desaparecida.
Tal solución era muy simple: junto con la partícula beta del núcleo se desprendía otra, que se llevaba la energía desaparecida. Esa misteriosa segunda partícula tenía propiedades bastante extrañas. No poseía carga ni masa. Lo único que llevaba mientras se movía a la velocidad de la luz era cierta cantidad de energía. A decir verdad, aquello parecía un cuerpo ficticio creado exclusivamente para equilibrar el contraste de energías.
Sin embargo, tan pronto como se propuso la posibilidad de su existencia, los físicos creyeron en ella ciegamente. Y esta certeza se incrementó al descubrirse el neutrón y al saberse que se desintegraba en un protón y se liberaba un electrón, que, como en la decadencia beta, portaba insuficientes cantidades de energía. Enrico Fermi dio a esta partícula putativa el nombre de “neutrino”, palabra italiana que significa “pequeño neutro”.
La desintegración del neutrón dejó al descubierto al neutrino
El neutrón dio a los físicos otra prueba palpable de la existencia del neutrino. Como ya he comentado en otra página de este trabajo, casi todas las partículas describen un movimiento rotatorio. Esta rotación se expresa, más o menos, en múltiples de una mitad según la dirección del giro. Ahora bien, el protón, el neutrón y el electrón tienen rotación de una mitad. Por tanto, si el neutrón con rotación de una mitad origina un protón y un electrón, cada uno con rotación de una mitad, ¿Qué sucede con la ley sobre conservación del momento angular? Aquí hay algún error. El protón y el electrón totalizan una mitad con sus rotaciones (si ambas rotaciones siguen la misma dirección) o cero (si sus rotaciones son opuestas); pero sus rotaciones no pueden sumar jamás una mitad. Sin embargo, por otra parte, el neutrino viene a solventar la cuestión.
Supongamos que la rotación del neutrón sea +½. Y admitamos también que la rotación del protón sea +½ y la del electrón -½, para dar un resultado neto de o. Demos ahora al neutrino una rotación de +½, y la balanza quedará equilibrada.
+½(n)=+½(p)-½(e)+½(neutrino)
Pero aun queda algo por equilibrar. Una sola partícula (el neutrón) ha formado dos partículas (el protón y el electrón), y, si incluimos el neutrino, tres partículas. Parece más razonable suponer que el neutrón se convierte en dos partículas y una antipartícula. En otras palabras: lo que realmente necesitamos equilibrar no es un neutrino, sino un antineutrino.
El propio neutrino surgiría de la conversación de un protón en un neutrón. Así, pues, los productos serían un neutrón (partícula), un positrón (antipartícula) y un neutrino (partícula). Esto también equilibra la balanza.
En otras palabras, la existencia de neutrinos y antineutrinos debería salvar no una, sino tres, importantes leyes de conservación: la conservación de la energía, la de conservación del espín y la de conservación de partícula/antipartícula.
Es importante conservar esas leyes puesto que parece estar presentes en toda clase de reacciones nucleares que no impliquen electrones o positrones, y sería muy útil si también se hallasen presentes en reacciones que incluyesen esas partículas.
Las más importantes conversiones protón-neutrón son las relaciones con las reacciones nucleares que se desarrollan en el Sol y en los astros. Por consiguiente, las estrellas emiten radiaciones rápidas de neutrinos, y se calcula que tal vez pierdan a causa de esto el 6 u 8 % de su energía. Pero eso, sería meternos en otra historia y, por mi parte, con la anterior explicación solo trataba de dar una muestra del ingenio del hombre que, como habréis visto, no es poco.
Desde que puedo recordar, he sido un amante de la Física. Me asombran cuestiones como la luz, su naturaleza de un conglomerado de colores, ondas y partículas, su velocidad que nos marca el límite del máximo que podemos correr en nuestro Universo, y en fin, muchos otros misterios que encierra esa cosa tan cotidiana que nos rodea y lo inunda todo haciendo posible que podamos ver por donde vamos, que las plantas vivan y emitan oxígeno o que nos calentemos. Realmente, sin luz, nuestra vida no sería posible.
Entonces, ¿Qué es realmente la luz? Forma de energía que ilumina las cosas, las hace visibles y se propaga mediante partículas llamadas fotones.
“La luz en realidad era una onda de energía. Esta onda, al viajar en diferentes frecuencias y rebotar en diferentes direcciones, genera la percepción de sombras y colores. Sin embargo, la luz también transfiere energía a otras partículas en forma de «quanta» (por ejemplo, el metal se calienta con la incidencia de la luz), comportamiento típico de una partícula.
Con tantas incógnitas por resolver, aparece la teoría de cuerdas con una nueva propuesta que abarca no sólo la luz, sino todo fenómeno en el universo: Ésta plantea que todas las partículas elementales son en realidad «cuerdas» que oscilan en diferentes frecuencias y de diferente manera. Un tipo de oscilación provocará que la cuerda sea apreciada como, por ejemplo, un protón; mientras que otro inducirá la generación de un fotón. La velocidad y amplitud de las frecuencias darán lugar a conceptos como peso o espacio.
De acuerdo a la teoría de cuerdas, todo el universo está generado por un solo elemento: cuerdas que oscilan en diferente manera. La aspiración principal de esta teoría es poder llegar a explicar el funcionamiento del universo en su totalidad.”
Muchos (casi todos) opinan que es algo inmaterial. Los objetos materiales, grandes o muy pequeños como las galaxias o los electrones, son materia. La luz, sin embargo, se cree que es inmaterial, dos rayos de luz se cruzan sin afectarse el uno al otro.
Sin embargo, yo que, desde luego, no soy un experto, opino en cambio que la luz, es simplemente una forma de energía lumínica, otra forma en la que se puede presentar la materia. Nosotros mismos, en última instancia, somos luz.
Está claro que, los estudiosos de la época antigua y medieval estaban por completo a oscuras acerca de la naturaleza de la luz. Especulaban sobre que consistía en partículas emitidas por objetos relucientes o tal vez por el mismo ojo. Establecieron el hecho de que la luz viajaba en línea recta, que se reflejaba en un espejo con un ángulo igual a aquel con el que el rayo choca con el espejo, y que un rayo de luz se inclina (se refracta) cuando pasa del aire al cristal, al agua o a cualquier otra sustancia transparente.
Cuando la luz entra en un cristal, o en alguna sustancia transparente, de una forma oblicua (es decir, en un ángulo respecto de la vertical), siempre se refracta en una dirección que forma un ángulo menor respecto de la vertical. La exacta relación entre el ángulo original y el ángulo reflejado fue elaborada por primera vez en 1.621 por el físico neerlandés Willerbrord Snell. No publicó sus hallazgos y el filósofo francés René Descartes descubrió la ley, independientemente, en 1637.
Los primeros experimentos importantes acerca de la naturaleza de la luz fueron llevados a cabo por Isaac Newton en 1666, al permitir que un rayo de luz entrase en una habitación oscura a través de una grieta e las persianas, cayendo oblicuamente sobre una cara de un prisma de cristal triangular. El rayo se refracta cuando entra en el cristal y se refracta aún más en la misma dirección cuando sale por una segunda cara del prisma. (Las dos refracciones en la misma dirección se originan por que los dos lados del prisma de se encuentran en ángulo en vez de en forma paralela, como sería el caso en una lámina ordinaria de cristal.)
Newton atrapó el rayo emergente sobre una pantalla blanca para ver el efecto de la refracción reforzada. Descubrió que, en vez de formar una mancha de luz blanca, el rayo se extendía en una gama de colores: rojo, anaranjado, amarillo, verde, azul, y violeta, en este orden.
Newton dedujo de ello que la luz blanca corriente era una mezcla de varias luces que excitaban por separado nuestros ojos para producir las diversas sensaciones de colores. La amplia banda de sus componentes se denominó spectrum (palabra latina que significa “espectro” fantasma).
Newton llegó a la conclusión de que la luz se componía de diminutas partículas (“corpúsculos”), que viajaban a enormes velocidades.
Le surgieron y se planteó algunas inquietudes cuestiones. ¿Por qué se refractaban las partículas de luz verde más que los de luz amarilla? ¿Cómo se explicaba que dos rayos de luz se cruzaran sin perturbase mutuamente, es decir, sin que se produjeran colisiones entre partículas?
En 1678, el físico neerlandés Christian Huyghens (un científico polifacético que había construido el primer reloj de péndulo y realizado importantes trabajos astronómicos) propuso una teoría opuesta: la de que la luz se componía de minúsculas ondas. Y si sus componentes fueran ondas, no sería difícil explicar los diversos difracciones de los diferentes tipos de luz a través de un medio refractante, siempre y cuando se aceptara que la luz se movía más despacio en ese medio refractante que en el aire. La cantidad de refracción variaría con la longitud de las ondas: cuanto más corta fuese tal longitud, tanto mayor sería la refracción. Ello significaba que la luz violeta (la más sensible a este fenómeno) debía de tener una longitud de onda mas corta que la luz azul, ésta, más corta que la verde, y así sucesivamente.
Lo que permitía al ojo distinguir los colores eran esas diferencias entre longitudes de onda. Y, como es natural, si la luz estaba integrada por ondas, dos rayos podrían cruzarse sin dificultad alguna. (Las ondas sonoras y las del agua se cruzan continuamente sin perder sus respectivas identidades.)
Pero la teoría de Huyqhens sobre las ondas tampoco fue muy satisfactoria. No explicaba por qué se movían en línea recta los rayos luminosos; ni por qué proyectaban sobras recortadas; ni aclaraba por qué las ondas luminosas no podían rodear los obstáculos, del mismo modo que pueden hacerlo las ondas sonoras y de agua. Por añadidura, se objetaba que si la luz consistía en ondas, ¿Cómo podía viajar por el vacío, ya que cruzaba el espacio desde el Sol y las Estrellas? ¿Cuál era esa mecánica ondulatoria?