martes, 24 de diciembre del 2024 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




¡La Física! ¿Hasta dónde nos llevará?

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (1)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Es curiosa la similitud que se da entre la teoría del electromagnetismo y la relatividad general, mientras que Faraday experimentó y sabía los resultados, no sabía expresarlos mediante las matemáticas y, apareció Maxwell que, finalmente formuló la teoría.

Einstein, al igual que Faraday, había descubierto los principios físicos correctos, pero carecía de un formulismo matemático riguroso suficientemente potente para expresarlo (claro que Faraday no era matemático y Einstein si lo era).  Carecía de una versión de los campos de Faraday para la Gravedad.  Irónicamente, Riemann tenía el aparato matemático, pero no el principio físico guía, al contrario que Einstein.  Así que, finalmente, fue Einstein el que pudo formular la teoría con las matemáticas de Riemann.

El Físico que ganó el Nóbel por la teoría electrodébil dijo:

  “¡Qué extraño sería que la teoría final se descubriera durante nuestra vida!  El descubrimiento de las leyes finales de la Naturaleza marcará una discontinuidad en la Historia del intelecto humano, la más abrupta que haya ocurrido desde el comienzo de la ciencia moderna del siglo XVII.  ¿Podemos imaginar ahora como sería?”

                                                                           STEVEN WEINBERG

 ¿Es la belleza un principio Físico?

La teoría de supercuerdas nos da una formulación convincente de la teoría del Universo, sin embargo, el problema fundamental radica en que una comprobación de dicha teoría, está más allá de nuestras posibilidades actuales.  De hecho, la misma teoría predice que la unificación de todas las fuerzas ocurre a la energía de Planck, o 1019 miles de millones de electronvoltios, que como sabéis, es alrededor de mil billones de veces mayor que las energías actualmente disponibles en nuestros aceleradores de partículas.

Ya he comentado otras veces que el físico David Gross (el de más edad de los miembros conocidos como el “cuarteto de cuerdas” y autores de la teoría llamada la cuerda heterótica) dijo en una ocasión: “El coste de generar esta fantástica energía, necesitaría el dinero de las tesorerías de todos los países del mundo juntos, y quizá, no llegara.  Es verdaderamente astronómico.”

Siendo así, de momento estamos condenados a no poder verificar experimentalmente este motor (parado) que haría marchar el vehículo de la Física.  La teoría decadimensional está paralizada en dos sentidos: el económico y el técnico – matemático.  El primero por falta de dinero que  nos pudiera construir aceleradores tan potentes como para descubrir la partícula de Higgs, los quarks e incluso las cuerdas vibrantes, esos previsibles y minúsculos objetos primordiales que conforman la materia.  En segundo lugar, las formulaciones matemáticas complejas que, según parece, aún no se han inventado.  Parece que hoy, ni siquiera Witten o Perelman, conocen el secreto de los números mágicos que nos puedan llevar hasta el final del camino iniciado con Einstein y Kaluza-Klein.

Particularmente opino que la teoría de cuerdas nos dará muchas alegrías y que en ella están las respuestas a muchas preguntas que no sabemos contestar.

Dentro del mundo de la Física, los hay de todas las opiniones: en contra y a favor.  Es famosa la postura detractora del Nóbel Sheldoy Glasgow de Harvard, no quiere ni oír hablar de la teoría de supercuerdas a la que califica de Física de Teatro.

Otros muchos, la mayoría, como Murray Gell-Marn, Steven Weinberg (ambos Premios Nóbel) o el mismo.  E. Witten (Medalla Field), opinan lo contrario y ven en esta teoría de dimensiones más altas el futuro de la Física.

Ya sabemos que en física toda teoría debe ser verificada, una y otra vez, en uno y en otro lugar, experimentalmente, obteniendo siempre el mismo resultado, es la única manera de que sea aceptada por la comunidad científica, mientras tanto, la teoría no es fiable y queda a la espera de ser comprobada, verificada sin ningún lugar para la duda.

Pero, ¿Se puede recrear la creación?

La teoría de supercuerdas trata de eso.  Quiere explicarnos todos los misterios del Universo a partir de ese primer momento, ¡la creación!

¿Cuántas y cuántas páginas no habré leído y escrito sobre estos temas fascinantes de los secretos del Universo, las fuerzas que lo rigen, la materia de las Galaxias y de los objetos que lo pueblan?

No podría decirlo.  Sin embargo, hay una cosa que sí puede decir: ¡Cuánto más profundizo en estas cuestiones, cuánto más conocimientos adquiero, más fascinación siento y desde luego, mi capacidad de asombro, más crece!

¡Qué lastima que no se construyera el súper colisionador superconductor! (SSC), que encontrara los vestigios subatómicos que mostrara una señal característica de la supercuerda, tal como la súpersimetría.  Aunque ni con este monstruoso SSC se hubiera podido sondear la distante energía de Planck, si podría habernos ofrecido una evidencia muy fuerte (aunque indirecta) de la corrección de la teoría de supercuerdas.

Este súper colisionador que se hubiese completado en las afueras de Dallas, Texas, hubiera contado con un tubo gigantesco de 85 km. De circunferencia rodeado de enormes bobinas magnéticas.  Lanzaría protones a velocidades muy cercanas a la de la luz que, viajarían en el sentido de las aguas del reloj y el sentido contrario, para en un momento dado, hacerlos colisionar a una energía de 40 billones de electronvoltios (TeV), generando una intensa ráfaga de residuos subatómicos analizados por detectores que, en contrarían partículas exóticas que hubieran arrojado luz sobre la forma esencial de la materia.  Los campos magnéticos para guiar los protones y los antiprotones dentro del tubo son tan excepcionalmente grandes (del orden de 100.000 veces el campo magnético de la Tierra) que, hubieran sido necesarios procedimientos extraordinarios para generarlos y mantenerlos.

Además del enfriamiento de las bobinas hasta casi el cero absoluto (-273°) y otros problemas que hubieran obligado a enormes avances tecnológicos.  Sin embargo, la política, se cargó el proyecto y nos quedamos sin la esperada partícula de Higgs que es la que genera la ruptura de simetría y es por tanto el origen de la masa de los quarks, así que, habríamos podido descubrir el origen de la masa. Sin embargo, no podemos perder la esperanza, el LHC ha venido a suplirlo y pronto, nos dará muchas alegrías, seguramente antes de que finalice el 2.010.

Me viene a la memoria que en el siglo XIX, algunos científicos declararon que la composición de las estrellas estaría siempre fuera del alcance del experimento.  En 1.825, el filósofo y crítico social francés Auguste Comte, al escribir el Curso de Filosofía, declaraba que nunca conoceríamos las estrellas de otra forma que como inalcanzables puntos de luz en el cielo debido a su enorme distancia de nosotros.  Las máquinas del siglo XIX, o de cualquier siglo, argumentaba, no eran suficientemente potentes para escapar de la Tierra y alcanzar las estrellas.

Así que parecía que el determinar la composición de las estrellas era imposible, y, lo curioso es que, casi al mismo tiempo, el físico alemán Joseph Von Fraunhofer estuviera haciendo precisamente eso.  Utilizando un prisma y un espectroscópio, pudo descomponer la luz blanca emitida desde las estrellas lejanas y determinar la composición química de dichas estrellas.

De la misma manera, pudiera, en este mismo instante, estar trabajando un físico-matemático en profundizar en la teoría de supercuerdas y estar formulando otro respetable avance hacia nuestro futuro.

¿Qué sería de nosotros sin la Física?

Tampoco los átomos eran verificables hace dos siglos, y llegaron Mach, Planck, Einstein, Heisemberg, Schrödinger, R.Feynman y tantos otros que, dejaron todo el misterio al descubierto con la Mecánica Cuántica que nos puede facilitar datos con una precisión asombrosa.

Por eso, no puedo dejar de tener esperanzas sobre esperar la confirmación experimental de la física de la décima dimensión por métodos indirectos. 

La llave: ¡nuestra imaginación!

emilio silvera

¿Sabremos alguna vez quienes somos?

Autor por Emilio Silvera    ~    Archivo Clasificado en La Mente - Filosofía    ~    Comentarios Comments (2)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Estamos hechos de energía pura fabricada en las estrellas y nuestras mentes evolucionan formando parte de un universo en constante expansión del que, sin que nos demos cuenta, recibimos continuos mensajes que nos mantiene conectados a esa fuerza invisible que nos hace pensar para descubrir su fuente.

En algún momento breve he tenido la sensación de tener en mi mente la solución a un pensamiento continuado sobre un problema científico que me preocupa y quisiera conocer. La sensación de ese saber, de tener esa respuesta deseada, es fugaz, pasa con la misma rapidez que llegó. Me deja inquieto y decepcionado, estaba a mi alcance y no se dejó atrapar. Me ocurre con cierta frecuencia con distintos temas que me rondan por la cabeza. Sin embargo, esa luz fugaz del saber aparece y se va sin dejar rastro en mi mente que me permita, a partir de una simple huella, llegar al fondo de la cuestión origen del fenómeno.

La mente humana es una maravilla. Esas sensaciones que antes he mencionado y que en mí, llegan y se van sin dejar huellas, son las mismas que sintieron Galileo, Kepler, Newton, Planck o Einstein, lo único diferente es que en ellos la sensación no fue tan fugaz; se quedó el tiempo suficiente en sus mentes como para que pudieran digerir el mensaje y comunicar al mundo lo que les había transmitido. Así, a fogonazos de luz del saber, avanza la Humanidad.

Nadie ha podido explicar nunca como llegan esos fogonazos de luz del conocimiento a unas pocas mentes elegidas.

El cerebro se cuenta entre los objetos más complicados del universo y es sin duda una de las estructuras más notables que haya producido la evolución. Hace mucho tiempo, cuando aún no se conocía la neurociencia, se sabía ya que el cerebro es necesario para la percepción, los sentimientos y los pensamientos.

En tanto que es objeto y sistema, el cerebro humano es muy especial: su conectividad, su dinámica, su forma de funcionamiento, su relación con el cuerpo y con el mundo… no se parece a nada que la conciencia conozca.  Su carácter único hace que el ofrecer una imagen del cerebro se convierta en un reto extraordinario. Aunque todavía estamos lejos de ofrecer una imagen completa del cerebro, sí podemos ofrecer retazos y datos parciales de algunos de sus complicados mecanismos. Sin embargo, carecemos de información para generar una teoría satisfactoria de la conciencia.

El reto que tenemos por delante consiste en adoptar la forma correcta en que se deben leer los contenidos de todas esas páginas que contienen la secuenciación de las 3.000 millones de letras de ADN, y comprender el modo de cómo funcionan juntas las distintas partes para encausar la salud y la enfermedad humanas.

La consecuencia más importante de todo esto es que se ha abierto la puerta a un alentador y enorme (aunque complejo) paisaje biológico nuevo.  Su exploración necesitará de pensamientos creativos y nuevas ideas.

Hace 30 años todo esto era un sueño; nadie se atrevía a pensar siquiera con que este logro sería posible algún día, ¡secuenciar 3.000 millones de grafos de ADN!

Sin embargo aquí viene la contradicción o paradoja: el cerebro que aún no conocemos lo ha hecho posible.

La genómica es una auténtica promesa para nuestra salud pero necesitaremos algunos saltos cuánticos en la velocidad y la eficacia de la secuenciación del ADN.

Está claro sin embargo que dadas todas las dimensiones del ser humano, que incluyen aspectos tanto materiales como espirituales, será necesario mucho, mucho, mucho tiempo para llegar a conocer por completo todos los aspectos complejos encerrados en nuestro interior.

El adelanto que se producirá en las próximas décadas estará y será más visible en el aspecto biológico y la curación de enfermedades como el cáncer, y otras nefastas como el SIDA que asolan nuestro mundo. El conocimento de la psique, de nuestra propia conciencia, será mucho más lento.

Hay que tener en cuenta que primero debemos tener un conocimiento completo de los primates. Tal conocimiento nos proporcionaría luz sobre lo que convierte en únicos a los seres humanos. Al decir únicos me refiero al hecho diferenciador de la conciencia y, desde luego, lo circunscribo al planeta Tierra, ya que referido a todo el universo seguro que no somos “tan únicos”.

Casi todas las enfermedades que nos aquejan están y tienen su origen en los genes. Otras dolencias están relacionadas con el entorno en el que vivimos, la forma de vida elegida por nosotros mismos (tabaco, alcohol, droga, etc), y una parte de los trastornos que padecemos (los más difíciles de curar), están situados en nuestras mentes, las más desconocidas.

Así que si el conocimiento sobre el genoma está en el buen camino y según todos los indicios, algún día podremos tener las respuestas que aún nos falta. El problema más serio está en ese gran desconocido que llamamos cerebro y que es el responsable de dirigir y ordenar todos y cada uno de los movimientos que se generan en el resto de nuestro cuerpo. Allí arriba está la central eléctrica que lo pone todo en marcha, ¿pero de qué mecanismos se vale? Precisamente esa es la explicación que nadie ha podido dar.

Pero todo evoluciona con el tiempo que transcurre, todo va cambiando (nuestros conocimientos también).

Hace unos veinte millones de años, durante el Mioceno, la Tierra vivió unas condiciones climáticas paradisíacas. Los casquetes polares, con un emplazamiento distinto del actual, apenas eran una pequeñas manchas de hielo; el nivel de los mares era mucho más elevado que en la actualidad, y la mayor parte de los lugares que ahora ocupan las ciudades y las playas en las que pasamos las vacaciones estaban cubiertos por los océanos. El agua del mar era como la que hoy podemos encontrar en los trópicos. El mundo de finales del Mioceno era, por lo tanto, un mundo muy diferente del nuestro: con distintos olores, con extraños sonidos y ni siquiera el cielo de hace veinte millones de años era parecido al que hoy podemos contemplar en una noche cualquiera. Las constelaciones de estrellas eran de otras formas y mostraban configuraciones distintas de las que ahora están allá arriba. Muchas de las estrellas que hoy admiramos en las noches de cielo despejado aún no habían aparecido y otras que entonces brillaban ya no existen.

Pongo este ejemplo de algo que conozco para mostrar los cambios irreversibles que se producen a medida que avanza la línea del tiempo. Al igual que se produjeron en nuestro mundo, se producirán en nuestros conocimientos. Nuestro nivel de conciencia también, de manera irreversible, evoluciona. A medida que a nuestro cerebro llegan nuevos datos sobre cuestiones muy diversas, éste los va reciclando, ordenándolos, interrelacionándolos y finalmente clasificándolos de manera tal que los tiene dispuestos para conectarlos a nuevos datos y nuevas informaciones que, por distintos medios, naturales o artificiales, aparecen para sumarse a las que ya existen, y de esta forma hemos ido avanzando desde aquella materia “inerte” a la materia compleja y pensante que somos los seres vivos inteligentes.

emilio silvera

Cosas que gusta conocer

Autor por Emilio Silvera    ~    Archivo Clasificado en General    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Hay materiales que se desintegran de manera natural y que son materiales fértiles, o que sin serlo, se pueden transformar en otros que sí lo son.

Al hablar de material fértil me estoy refiriendo a núclidos que pueden absorber neutrones para formar material fisible. El uranio-238, por ejemplo, absorbe un neutrón para formar uranio-239, que se desintegra en plutonio-239. Este es el tipo de conversión que la imaginación del hombre hace que ocurra en un reactor reproductor.

Lo explicaré con más detalles:

El uranio-235 es un combustible práctico, es decir, los neutrones lentos son capaces de hacer que el uranio-235 se fisione, o lo que es lo mismo, se rompan sus átomos en dos, produciendo neutrones lentos, que a su vez inducen otras fisiones atómicas. El uranio-233 y el plutonio-239 son también combustibles nucleares prácticos por las mismas razones.

Desgraciadamente, el uranio-233 y el plutonio-239 no existen en estado natural sino en trazas mínimas, y el uranio-235, aunque existe en cantidades apreciables, no deja de ser raro. En cualquier muestra de uranio natural, sólo siete de cada mil átomos son de uranio-235, el resto es uranio-238.

El uranio-238, la variedad común de uranio, no es un combustible nuclear práctico. Así que, el uranio que más abunda en la naturaleza no sirve como combustible nuclear. Podemos conseguir que se fisione, pero sólo con neutrones rápidos. Los átomos de uranio-238 que se rompen en dos, producen neutrones lentos, que no bastan para producir o inducir nuevas fisiones.  El uranio-238 cabría compararlo a la madera húmeda: es posible hacer que arda, pero acabará por apagarse.

Supongamos, sin embargo, que se separa el uranio-235 del uranio-238 (trabajo más bien difícil) y que se utiliza aquel para hacer funcionar un reactor nuclear. Los átomos de uranio-235 que forman el combustible del reactor se fisionan y esparcen miríadas de neutrones lentos en todas direcciones. Si el reactor está rodeado por una capa de uranio ordinario (que en su mayor parte es uranio-238), los neutrones que van a parar allí son absorbidos por el uranio-238 y, aunque no pueden hacer que el uranio-238 se fisione, sí pueden provocar otros cambios que finalmente, producirán plutonio-239. Separando este plutonio-239 del uranio (tarea muy fácil), puede ser utilizado como combustible nuclear practico para la fisión.

De esta manera, el reactor nuclear genera nuevo combustible a partir de un material (uranio-238) que no lo es. Este es el motivo de que al reactor nuclear que hace posible la transformación se le llame “reactor generador”.

Un reactor generador bien diseñado puede producir más plutonio-239 que el uranio-234 consumido para ello. De este modo, las reservas totales de uranio de la Tierra (y no sólo las de uranio-235) se convierten en potenciales de combustible nuclear.

El torio, tal como se da en la naturaleza, consiste todo él en torio-232, que al igual que el uranio-238, no es un combustible nuclear práctico, porque requiere neutrones rápidos para fisionarse. Pero si se coloca torio-232 alrededor de un reactor nuclear, sus átomos absorberán los neutrones y, sin experimentar fisión alguna, se convertirán en átomos de uranio-233. Como el uranio-233 es un combustible práctico que se puede separar fácilmente del torio, el resultado es otra variedad del reactor generador, que convierte las reservas de torio en un combustible nuclear en potencia.

La cantidad total de uranio y de torio que hay en la Tierra es unas 800 veces mayor que las reservas de uranio-235, lo que significa que el buen uso de los reactores generadores podría multiplicar por 800 la oferta potencia de energía extraída de plantas de fisión nuclear.

En este punto, sin dejar de elogiar la inteligencia del hombre que ha sabido encontrar la manera de transformar una materia inservible en otra practica, hay que decir que la energía de fisión nuclear genera también muchos problemas.

Como estará comprobando al lector de este trabajo, el autor ha querido esta vez diversificar los temas y plasmar una variedad múltiple que facilite el conocimiento de distintas cosas que ocurren en la naturaleza, o que la mano del hombre hace que ocurran, y todas estas cuestiones tratadas aquí van encaminadas a resolver preguntas que en alguna ocasión nos hemos podido hacer, tales como:

¿Por qué al calentar un metal se pone primero rojo, luego naranja, después amarillo, pero a continuación blanco en lugar de seguir el espectro y ponerse verde?

Cualquier objeto, a cualquier energía superior al cero absoluto, radia ondas electromagnéticas. Si su temperatura es muy baja, emite sólo ondas de radio largas, muy pobres en energías. Al aumentar la temperatura, radia una cantidad mayor de ondas, pero también empieza a radiar ondas de radio más cortas (y más energéticas). Si la temperatura sigue subiendo, empiezan a radiarse microondas aún más energéticas y después radiaciones infrarrojas.

Esto no quiere decir que a una temperatura dada sólo se emitan ondas de radio largas, un poco más arriba sólo ondas de radio cortas, luego sólo microondas y después sólo infrarrojos. En realidad, se emite toda la gama de radiaciones, pero siempre hay una radiación máxima, es decir, una gama de longitudes de onda que son las más radiadas, flanqueadas por cantidades menores en el lado de las energías bajas y por cantidades todavía más pequeñas en el de las altas.

Cuando un objeto alcanza la temperatura del cuerpo humano (37°C), el máximo de radiación se encuentra en los infrarrojos largos. El cuerpo humano también radia ondas de radio, pero las longitudes de ondas más cortas y más energéticas son siempre las más fáciles de detectar por ser los más potentes.

Cuando la temperatura alcanza aproximadamente los 600°C, el máximo de radiación se halla en el infrarrojo corto. Pero a estas alturas la pequeña cantidad de radiación que se halla en el lado de las energías altas adquiere una importancia especial, porque entra ya en la región de la luz visible roja. El objeto reluce entonces con un rojo intenso.

Este rojo constituye sólo un pequeño porcentaje de la radiación total, pero como da la casualidad de que nuestro ojo lo percibe, le otorgamos toda nuestra atención y decimos que el objeto está al “rojo vivo”.

Si la temperatura sigue subiendo, el máximo de radiación continúa desplazándose hacia las longitudes de ondas cortas y cada vez se emite más luz visible de longitudes cada vez menores. Aunque el objeto radia más luz roja, se van agregando poco a poco luz anaranjada y luz amarilla en cantidades menores pero significativas. Al llegar a los 1.000°C la mezcla de colores la percibimos como naranja, y a los 2.000°C como amarilla. Lo cual no significa que a los 1.000°C sólo se radie luz naranja y a los 2.000°C sólo se radie luz amarilla, porque si fuese así, habría efectivamente que esperar que lo siguiente fuese “color verde”. Lo que en realidad vemos son mezclas de colores.

Al llegar a los 6.000°C (la temperatura superficial del Sol), el máximo de radiación está en el amarillo visible y lo que llega a nuestros ojos son grandes cantidades de luz visible, desde el violeta hasta el rojo. La incidencia simultánea de toda la gama de luz visible sobre nuestra retina nos da la sensación de blanco, y de ahí el color del Sol.

Los objetos más calientes aún que el Sol radian todas las longitudes de ondas de luz visible y en cantidades todavía mayores, pero el máximo de radiación se desplaza al azul, de modo que la mezcla se desequilibra y el blanco adquiere un tinte azulado.

Toda esta travesía se produce para objetos calientes que emiten “espectros continuos”, es decir, que radian luz en la forma de una ancha banda de longitudes de ondas. Ciertas sustancias en condiciones adecuadas, radian sólo luz de determinadas longitudes de onda. El nitrato de bario radia luz verde cuando se calienta, y con ese fin se lo utiliza en los fuegos de artificio,  “calor verde”, podríamos decir.

¡Qué bonito es saber!

emilio silvera

Necesitamos ya, una Teoría cuántica de la Gravedad

Autor por Emilio Silvera    ~    Archivo Clasificado en General    ~    Comentarios Comments (2)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

En 1.900 nació la Mecánica Cuántica.

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (1)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Esta nueva teoría de supercuerdas tan prometedora del hiperespacio es un cuerpo bien definido de ecuaciones matemáticas. Podemos calcular la energía exacta necesaria para doblar el espacio y el tiempo o para cerrar agujeros de gusano que unan partes distantes de nuestro universo. Por desgracia, los resultados son desalentadores. La energía requerida excede con mucho cualquier cosa que pueda existir en nuestro planeta. De hecho, la energía es mil billones de veces mayor que la energía de nuestros mayores colisionadores de átomos. Debemos esperar siglos, o quizás milenios, hasta que nuestra civilización desarrolle la capacidad técnica de manipular el espacio-tiempo  utilizando la energía infinita que podría proporcionar un agujero negro para de esta forma poder dominar el hiperespacio que, al parecer, es la única posibilidad que tendremos para escapar del lejano fin que se avecina. ¿Que aún tardará mucho? Sí, pero el tiempo es inexorable, la debacle del frío o del fuego llegaría.

No existen dudas al respecto, la tarea es descomunal, imposible para nuestra civilización de hoy pero, ¿y la de mañana?, ¿no habrá vencido todas las barreras? Creo que el hombre es capaz de plasmar en hechos ciertos todos sus pensamientos e ideas, sólo necesita tiempo: Tiempo tenemos mucho.

Necesitaremos paciencia, mucha curiosidad que satisfacer y estar dispuesto a realizar el trabajo necesario. Cuando en 1.900, Max Planck, el físico alemán escribió un artículo sobre la radiación de cuerpo negro que él decía emitirse en paquetes discretos, no continuos, a los que llamó “cuantos”, nadie fue capaz de suponer que allí estaba la semilla de lo que más tarde se conocería como la Teoría de la Mecánica Cuántica que describía a la perfección el sistema matemático que nos descubrió el universo del átomo, de lo muy pequeño, infinitesimal. Por los años de 1.925 y 1.926, Edwin Schrödinger, Werner Heisemberg y otros muchos desarrollaron esta teoría que derribó las barreras de creencias firmes durante siglos.

“Quienquiera que no se sienta conmocionado por la teoría cuántica no la comprende”

Niels Bohr

Aquello fue una auténtica revolución:

1.  Las fuerzas son creadas por el intercambio de paquetes discretos de energía denominados cuantos.

En contraste con la imagen geométrica de Einstein para una “fuerza”, en la teoría cuántica la luz iba a ser dividida en fragmentos minúsculos. Estos paquetes de luz fueron llamados fotones, y se comportaban de forma muy parecida a partículas puntuales. Cuando dos electrones chocan, se repelen mutuamente, no a causa de la curvatura del espacio, sino debido a que intercambian un paquete de energía, el fotón.

La energía de estos fotones se mide en unidades del algo denominado constante de Planck (h ~ 10-27 ergios por segundo). El tamaño infinitesimal de la constante de Planck significa que la teoría cuántica da correcciones minúsculas a las leyes de Newton. Éstas se denominan correcciones cuánticas, y pueden ser despreciadas cuando describimos nuestro mundo macroscópico familiar y sus fenómenos familiares cotidiano. Sin embargo, cuando tratamos con el mundo subatómico microscópico, las correcciones cuánticas empiezan a dominar cualquier proceso físico, y nos da cuenta de las propiedades extrañas y “contraintuitivas” de las partículas subatómicas.

“Universos a la deriva como burbujas en la espuma del Río del Tiempo.”

A. C. Clarke

2.  Las diferentes fuerzas son causadas por el intercambio de diferentes cuantos.

La fuerza débil, por ejemplo, es causada por el intercambio de un tipo diferente de cuanto, llamado partícula W (W es la inicial de “weak” [débil]). Análogamente, la fuerza fuerte que mantiene unidos los protones y neutrones dentro del núcleo del átomo es causada por el intercambio de partículas subatómicas llamados mesones p. Tanto los bosones W como los mesones p se han visto experimentalmente en los residuos de los colisionadores de átomos, verificando de este modo la conexión fundamental de este enfoque. Y finalmente, la fuerza subnuclear que mantiene los protones y neutrones e incluso los mesones p juntos se debe al intercambio de partículas llamadas gluones (glue en inglés es pegamento).

De este modo, tenemos un nuevo “principio unificador” para las leyes de la física. Podemos unir las leyes del electromagnetismo, la fuerza débil y la fuerza fuerte postulando una variedad de cuantos diferentes que sirven de vehículo para las mismas. Tres de las cuatro fuerzas (excluyendo la gravedad) están así unidas por la teoría cuántica, dándonos unificación sin geometría.

3.  Nunca podremos conocer simultáneamente la velocidad y la posición de una partícula subatómica.

Ese es el principio de incertidumbre de Heisemberg, que es con mucho el aspecto más controvertido de la teoría, aunque ha resistido todos los desafíos en el laboratorio durante más de medio siglo. No hay desviación experimental conocida de esta regla.

El principio de incertidumbre significa que nunca podemos estar seguros de dónde se encuentra un electrón o cuál es su velocidad.  Lo más que podemos hacer es calcular la probabilidad de que el electrón aparezca en un cierto lugar con una cierta velocidad. La situación no es tan desesperada como uno pudiera sospechar, porque podemos calcular con rigor matemático la probabilidad de encontrar dicho electrón. Aunque el electrón es una partícula puntual, está acompañado de una onda que obedece a una ecuación bien definida, la ecuación de ondas de Schrödinger con su función de onda (y), que nos dirá con mucha probabilidad el lugar en el que aparecerá el electrón.

4.  Existe una posibilidad finita de que las partículas puedan “tunelear” o hacer un salto cuántico a través de barreras impenetrables.

Esta es una de las predicciones más desconcertantes de la teoría cuántica. En el nivel atómico, esta predicción no ha tenido otra cosa que éxitos espectaculares. El “efecto túnel” o salto cuántico a través de barreras ha sobrevivido a cualquier desafio experimental. De hecho, un mundo sin efecto túnel es ahora inimaginable.

La mecánica cuántica, es el resultado de una idea iniciada por Max Planck con su cuanto de acción h, que fue posteriormente desarrollada por otros como Werner Heisemberg, Edwin Schrödinger, Paul Dirac, Richard Feynman, y muchos más, incluso el mismo Einstein, en 1.905 (el mismo año que dio a conocer su relatividad especial), inspirado en el artículo de Max Planck sobre la radiación de cuerpo negro, publicó un trabajo conocido como el “efecto fotoeléctrico” que le valió el Nobel de Física.

La mecánica cuántica es la suma de mucho ingenio, conocimiento, matemáticas y trabajo, que ha permitido tener una poderosa herramienta que nos explica el mecanismo de las partículas elementales en el universo microscópico del átomo.

Mientras que Einstein conjeturó el marco entero de la relatividad general con sólo intuición física, los físicos de partículas se estaban ahogando en una masa de datos experimentales y como comentaba el gran físico Enrico Fermisi yo pudiera recordar los nombres de todas estas partículas, habría sido botánico”. Tal era el número de partículas que surgían de entre los restos de los átomos tras las colisiones en los aceleradores que las hacían chocar a velocidades cercanas a c.

Toda la materia consiste en quarks y leptones, que interaccionan intercambiando diferentes tipos de cuantos, descritos por los campos de Maxwell y de Yang-Mills.

El Modelo Estándar nos describe todas las familias de partículas subatómicas que componen la materia y cómo actúan las fuerzas al interaccionar con ellas, incluyendo la teoría de Maxwell del electromagnetismo que gobierna la interacción de los electrones y de la luz, y que se conoce por electrodinámica cuántica, cuya corrección ha sido verificada experimentalmente dentro de un margen de error de una parte en 10 millones, lo que la hace ser la teoría más precisa en la historia de la física.

Llegar al Modelo Estándar de la Física costó el esfuerzo de más de un siglo de investigación y trabajo teórico de muchos en el descubrimiento del dominio subatómico.

La fuerza débil gobierna las propiedades de los “leptones”, tales como el electrón, el muón y el mesón tau y sus neutrinos asociados. Al igual que las otras fuerzas, los leptones interaccionan intercambiando cuantos, llamados bosones W y Z. Estos cuantos también se describen matemáticamente por el campo de Yang-Mills. A diferencia de la fuerza gluónica, la fuerza generada  por el intercambio de bosones W y Z es demasiado débil para mantener los leptones en una resonancia, de modo que no vemos un número infinito de leptones emergiendo de nuestros colisionadores de átomos.

De la fuerza fuerte, el Nobel Steven Weinberg, uno de los creadores del Modelo Estándar, escribió: “Existe una larga tradición de la física teórica que no afectó a todos, ni mucho menos, pero ciertamente me afectó a mí: la que decía que las interacciones fuertes [eran] demasiado complicadas para la mente humana”.

Las características más interesantes del Modelo Estándar es que está basado en la simetría; podemos ver su señal inequívoca dentro de cada una de estas interacciones. Los quarks y los leptones no son aleatorios, sino que se presentan en pautas definidas en el Modelo.

Este modelo de la física que explica las fuerzas que interaccionan con las partículas creadoras de materia, no incluye la fuerza de la gravedad.

El Modelo Estándar es práctico y ha sido y es una poderosa herramienta para todos los físicos, sin embargo, al no incluir la gravedad, es incompleta.  Cuando se intenta unir el Modelo Estándar con la teoría de Einstein, la teoría resultante da respuestas absurdas.

Necesitamos ya, con urgencia, una teoría cuántica de la Gravedad.

emilio silvera