May
28
Desde la materia “inerte”… ¡Hasta los pensamientos!
por Emilio Silvera ~
Clasificado en Física ~
Comments (2)



Agua, luz y calor, sustancia cósmica… ¡El surgir de la vida!

Pero no está muerto lo que duerme eternamente
¿Cómo es posible que, a partir de la materia “inerte”, hayan podido surgir seres vivos e incluso, algunos que, como nosotros, puedan pensar? Que cosa mágica se pudo producir en el corazón de las estrellas para que, materiales sencillos como el Hidrógeno se convirtieran a miles de millones de grados de calor en otros que, como el Carbono, Oxigeno y Nitrógeno, muchos miles de Millones de años más tardes, en mundos perdidos en sistemas planetarios como el nuestro, dieran lugar a la formación de Protoplasma vivo del que surgieron aquellos infinitesimales seres que llamamos bacterias y que, posibilitaron la evolución hacia formas de vida superiores?



“La generación de una nueva especie a partir de una especie anterior es un proceso que necesita centenares de miles de años de evolución. Desde una perspectiva evolutiva se piensa que la biodiversidad es la respuesta de los seres vivos, mediante la evolución adaptativa de las especies, a la multitud de ambientes que han ido apareciendo a lo largo de la historia de la vida en la Tierra. Cada especie tiene una serie de características, muchas veces únicas, que los humanos, en ocasiones, hemos sabido aprovechar para nuestra alimentación o para curar nuestras enfermedades. Por todo ello vale la pena mantener amplios espacios naturales dónde puedan continuar viviendo todas las especies.”
Los sentidos: las herramientas que utiliza el cerebro para estar comunicado con el exterior
La percepción, los sentidos y los pensamientos… Para poder entender la conciencia como proceso es preciso que entendamos cómo funciona nuestro cerebro, su arquitectura y desarrollo con sus funciones dinámicas. Lo que no está claro es que la conciencia se encuentre causalmente asociada a ciertos procesos cerebrales pero no a otros.
:format(jpg)/f.elconfidencial.com%2Foriginal%2F1a4%2Faae%2F9f5%2F1a4aae9f54865c4bd6fbdb7a34be1c43.jpg)
El cerebro humano ¿es especial?, su conectividad, su dinámica, su forma de funcionamiento, su relación con el cuerpo y con el mundo exterior, no se parece a nada que la ciencia conozca. Tiene un carácter único y ofrecer una imagen fidedigna del cerebro no resulta nada fácil; es un reto tan extraordinario que no estamos preparados para cumplir en este momento. Estamos lejos de ofrecer esa imagen completa, y sólo podemos dar resultados parciales de esta enorme maravilla de la Naturaleza.
Nuestro cerebro adulto, con poco más de 1.300 gr de peso, contiene unos ochenta y seis mil mil millones de células nerviosas o neuronas. La parte o capa ondulada más exterior o corteza cerebral, que es la parte del cerebro de evolución más reciente, contiene alrededor de treinta millones de neuronas y un billón de conexiones o sinapsis. Si contáramos una sinapsis cada segundo, tardaríamos 32 millones de años en acabar el recuento. Si consideramos el número posible de circuitos neuronales, tendremos que habérnoslas con cifras hiper-astronómicas. Un 10 seguido de, al menos, un millón de ceros (en comparación, el número de partículas del universo conocido asciende a “tan sólo” un 10 seguido de 79 ceros). ¡A que va a resultar que no somos tan insignificantes!

El suministro de datos que llega en forma de multitud de mensajes procede de los sentidos, que detectan el entorno interno y externo, y luego envía el resultado a los músculos para dirigir lo que hacemos y decimos. Así pues, el cerebro es como un enorme ordenador que realiza una serie de tareas basadas en la información que le llega de los sentidos. Pero, a diferencia de un ordenador, la cantidad de material que entra y sale parece poca cosa en comparación con la actividad interna. Seguimos pensando, sintiendo y procesando información incluso cuando cerramos los ojos y descansamos.
Con tan enorme cantidad de circuitos neuronales, ¿Cómo no vamos a ser capaces de descifrar todos los secretos de nuestro universo? ¿De qué seremos capaces cuando podamos disponer de un rendimiento cerebral del 80 ó 90 por ciento? Algunas veces hemos oido comentar: “Sólo utilizamos un diez por ciento del cerebro…” En realidad, la frase no indica la realidad, se refiere al hecho de que, aunque utilizamos el cerebro en su totalidad, se estima que está al diez por ciento de su capacidad real que, será una realidad a medida que evolucione y, en el futuro, esa capacidad de hoy será un 90 por ciento mayor.
Aún no conocemos bien la direccionalidad de los circuitos neuronales
El límite de lo que podremos conseguir tiene un horizonte muy lejano. Y, llega un momento en el cual, se puede llegar a pensar que no existen limites en lo que podemos conseguir: Desde hablar sin palabras sonoras a la auto-transportación. Si -como pienso- somos pura energía pensante, no habrá límite alguno; el cuerpo que ahora nos lleva de un lugar a otro, ya no será necesario, y como los fotones que no tienen masa, podremos desplazarnos a velocidades lumínicas.
Creo que estoy corriendo demasiado en el tiempo, volvamos a la realidad. A veces mi mente se dispara. Lo mismo visito mundos extraordinarios con mares luminosos de neón líquido poblados por seres transparentes, que viajo a galaxias muy lejanas pobladas de estrellas de fusión fría circundadas por nubes doradas compuestas de antimateria en la que, los positrones medio congelados, se mueven lentamente formando un calidoscopio de figuras alucinantes de mil colores. ¡La mente, qué tesoro!

¿Quién podría decir, si no se les explicara, que son “universos diferentes”
La unidad a partir de la cual se configuran todas las fabulosas actividades del cerebro es una célula del mismo, la neurona. Las neuronas son unas células fantásticamente ramificadas y extendidas, pero diminutas que, sin embargo y en sentido figurado, podríamos decir que son tan grandes como el universo mismo.
Cuando seamos capaces de convertir en realidad todo aquello en lo que podamos pensar, entonces, habremos alcanzado la meta. Para que eso pueda llegar a ocurrir, aún falta mucho tiempo. Sin embargo, si el Universo no lo impide y nuestro transcurrir continúa, todo lo que podamos imaginar… podrá ser posible. Incluso imposibilidades físicas de hoy, dejarán de existir mañana y, ¡la Mente! posiblemente (al igual que hoy ordena a las distintas partes del cuerpo que realice esta o aquella función), se encargará de que todo funcione bien, erradicará cualquier enfermedad que nos pueda atacar y, tendrá el conjunto del “sistema” en perfectas condiciones de salud, lo cual me lleva a pensar que, para cuando eso llegue, los médicos serán un recuerdo del pasado.

Es curioso y sorprendente la evolución alcanzada por la Mente Humana. El mundo físico se representa gobernado de acuerdo a leyes matemáticas. Desde este punto de vista, todo lo que hay en el universo físico está realmente gobernado en todos sus detalles por principios matemáticos, quizá por ecuaciones tales que aún no hemos podido llegar a comprender y, ni que sabemos que puedan existir.
Lo más seguro es que la descripción real del mundo físico esté pendiente de matemáticas futuras, aún por descubrir, fundamentalmente distintas de las que ahora tenemos. Llegarán nuevos Gauss, Riemann, Euler, o, Ramanujans… que, con sus nuevas ideas transformarán el pensamiento matemático para hacer posible que podamos, al fin, comprender lo que realmente somos.
Son nuestras Mentes, productos de la evolución del Universo que, a partir de la materia inerte, ha podido alcanzar el estadio bio-químico de la consciencia y, al ser conscientes, hemos podido descubrir que existen “números misteriosos” dentro de los cuales subyacen mensajes que tenemos que desvelar.
Antes tendremos que haber descifrado las funciones modulares de los cuadernos perdidos de Ramanujan, o por ejemplo, el verdadero significado del número 137, ése número puro adimensional que encierra los misterios del electrón (e) – electromagnetismo -, de la constante de Planck (h) – el cuando te acción – y de la luz (c) – la relatividad -.
Las primeras proto-estrellas, grandes grumos e gas y polvo
Los resultados son lentos, no se avanza con la rapidez que todos deseamos. Sin embargo, eso ocurre por algo, el ritmo del Universo considerado como Naturaleza, podríamos decir que es “sabio” y, si actúa de esa manera…Por algo será. Deja que de vez en cuando, sobresalgan algunas mentes y se eleven por encima del común, de ejemplos tenemnos la historia llena. Esos “saltos” de la conciencia son los tiempos que marca el Universo para que, poco a poco, se produzca nuestra evolución, es la única forma de que todo se haga de manera correcta y de que, los nuevos pensamientos se vayan asentando debidamente en las Mentes futuras. Pongamos un ejemplo: Poincaré expuso su conjetura y, más de un siglo después, Perelman la resolvió. Riemann expuso su geometría del espacio curvo, y hasta 60 años más tarde no fue descubierta por Einstein para hacer posible su formulación de la relatividad general, donde describe cómo las grandes masas distorsionan el espacio y el tiempo por medio de la fuerza de gravedad que generan. El conocimiento humano avanza al ritmo que le impone la Naturaleza.
![[dark-matter-625x450.jpg]](http://3.bp.blogspot.com/_gLo7v9af5Sg/SWXgCyeo8cI/AAAAAAAABTE/p3tYMUr7GAc/s1600/dark-matter-625x450.jpg)
¡Son tantos los secretos que nos quedan por desvelar! la Naturaleza es la portadora de todas las respuestas…Observémosla con atención y, aprendamos de ella y, de ser posible, procuremos no molestarla, “Ella” nos permite estar aquí para que evolucionemos y, algún día, cuando seamos mayores…quizás nos deje formar parte de algo más…¿mental?

Visto así…. ¡No parece que seamos gran cosa!
No, no será nada fácil imitar a la Naturaleza…¡Esa perfección! Sin embargo, llegados a ese punto, debemos pensar que nosotros también formamos parte de ella, la parte que piensa y, si es así, ¿Qué cometido tendremos asignado en este Universo? Esa es la pregunta que ninguno de los grandes pensadores de la Historia, han podido contestar.
Pensar, por ejemplo, en las complejas matemáticas topológicas requeridas por la teoría de supercuerdas puede producir incomodidad en muchas personas que, aún siendo físicos, no están tan capacitados como para entender tan profundas ideas (me incluyo).
Bernhard Riemann introdujo muchas nuevas ideas y fue uno de los más grandes matemáticos. En su corta vida (1.826 – 1.866) propuso innumerables propuestas matemáticas que cambiaron profundamente el curso del pensamiento de los números en el planeta Tierra, como el que subyace en la teoría relativista en su versión general de la gravedad, entre otras muchas (superficie de Riemann, etc.). Riemann les enseñó a todos a considerar las cosas de un modo diferente.


La geometría de las espacios curvos. Superficie de Riemann que aparece al extender el dominio de la función
.
La superficie de Riemann asociada a la función holomorfa “tiene su propia opinión” y decide por sí misma cuál debería ser el, o mejor, su dominio, con independencia de la región del plano complejo que nosotros podamos haberle asignado inicialmente.
Podríamos encontrar otros muchos tipos de superficies de Riemann.
Este bello concepto desempeña un papel importante en algunos de los intentos modernos de encontrar una nueva base para la física matemática (muy especialmente en la teoría de cuerdas), y al final, seguramente se descubrirá el mensaje que encierra.
El caso de las superficies de Riemann es fascinante, aunque desgraciadamente sólo es para iniciados. Proporcionaron los primeros ejemplos de la noción general de variedad, que es un espacio que puede pensarse “curvado” de diversas maneras, pero que localmente (por ejemplo, en un entorno pequeño de cualquiera de sus puntos), parece un fragmento de espacio euclídeo ordinario.
En matemática, la esfera de Riemann (o plano complejo extendido), llamado en honor al matemático del siglo XIX del mismo nombre, es una esfera obtenida del plano complejo mediante la adición de un punto del infinito. La esfera es la representación geométrica de los números complejos extendidos
, (véase fig.1 y fig.2), la cual consiste en los números complejos ordinarios en conjunción con el símbolo
para representar el infinito.
La esfera de Riemann, superficie de Riemann compacta, el teorema de la aplicación de Riemann, las superficies de Riemann y aplicaciones complejas… He tratado de exponer en unas líneas la enorme importancia de este personaje para las matemáticas en general y la geometría y para la física en particular. Es uno de esos casos a los que antes me refería. Después de él, la Humanidad ha tenido un parón en el desarrollo de las ideas hasta que asimilaron las suyas y, después, llegó Einstein y otros que supieron aplicarlas. Einstein, sin el Tensor métrico de Riemann, nunc habría podido finalizar su Teoría de la Relatividad General.


La Geometría de Riemann de los espacios curvos que Einstein aprovechó
Tenemos que convenir que todo, sin excepción, es relativo y resulta ya evidente la gran crisis de la noción de realidad “veritas” que el mundo padece, la ciencia BASE, la matemática, sufrió el varapalo a partir de la matemática topológica de Poincaré, y el desarrollo sorpresivo de la matemática del caos; de pronto el idealismo de la ecuación diferencial queda derribado : el mundo que funciona como un reloj de Tolomeo queda finiquitado; ¿donde puñetas está la materia perdida?; de pronto nuestras consciencias “comprenden” que la “verdad” no existe, es decir, que no existe nuestra realidad del mundo.
Y, mientras tanto, nuestras mentes siguen su camino, siempre queriendo ir más allá y siempre profundizando en los secretos de la Naturaleza de lo que tenemos muchos ejemplos, tales como nuestras consideraciones sobre los dos aspectos de la relatividad general de Einstein, a saber, el principio de la relatividad, que nos dice que las leyes de la física son ciegas a la distinción entre reposo y movimiento uniforme; y el principio de equivalencia, que nos dice de qué forma sutil deben modificarse estas ideas para englobar el campo gravitatorio.
Todo es finito, es decir, que tiene un fin, y la velocidad de la luz no podía ser una excepción
Ahora hay que hablar del tercer ingrediente fundamental de la teoría de Einstein, que está relacionada con la finitud de la velocidad de la luz. Es un hecho notable que estos tres ingredientes básicos puedan remontarse a Galileo; en efecto, parece que fue también Galileo el primero que tuvo una expectativa clara de que la luz debería viajar con velocidad finita, hasta el punto de que intentó medir dicha velocidad. El método que propuso (1.638), que implica la sincronización de destellos de linternas entre colinas distantes, era, como sabemos hoy, demasiado tosco (otro ejemplo de la evolución que, con el tiempo, se produce en nuestras mentes). Él no tenía forma alguna de anticipar la extraordinaria velocidad de la luz.
Parece que tanto Galileo como Newton tenían poderosas sospechas respecto a un profundo papel que conecta la naturaleza de la luz con las fuerzas que mantienen la materia unida y, si consideramos que esa fuerza que hace posible la unión de la materia reside en el corazón de los átomos (en sus núcleos), podemos hacernos una clara idea de lo ilimitado que puede ser el pensamiento humano que, ya en aquellos tiempos -en realidad mucho anters- pudo llegar a intuir las fuerzas que están presentes en nuestro Universo.

Los Quarks están confinados dentro de los nucleones (protones y neutrones)
En los núcleos atómicos reside la fuerza (nuclear fuerte) que hace posible la existencia de la materia que comienza por los átomos que, al juntarse y formar células, hace posible que éstas se junten y formen moléculas que a su vez, se reunen para formar sustancias y cuerpos.
Pero la comprensión adecuada de estas ideas tuvo que esperar hasta el siglo XX, cuando se reveló la verdadera naturaleza de las fuerzas químicas y de las fuerzas que mantienen unidos los átomos individuales. Ahora sabemos que tales fuerzas tienen un origen fundamentalmente electromagnético (que vincula y concierne a la implicación del campo electromagnético con partículas cargadas) y que la teoría del electromagnetismo es también la teoría de la luz.
Para entender los átomos y la química se necesitan otros ingredientes procedentes de la teoría cuántica, pero las ecuaciones básicas que describen el electromagnetismo y la luz fueron propuestas en 1.865 por el físico escocés James Clark Maxwell, que había sido inspirado por los magníficos descubrimientos experimentales de Michael Faraday unos treinta años antes y que él plasmó en una maravillosa teoría.

El escudo magnético de la tierra nos defiende de los campos magnéticos del Sol
El electromagnetismo es una rama de la Física que estudia y unifica los fenómenos eléctricos y magnéticos en una sola teoría. El electromagnetismo es una teoría de campos; es decir, las explicaciones y predicciones que provee se basan en magnitudes físicas vectoriales dependientes de la posición en el espacio y del tiempo.
Esta teoría del electromagnetismo de Maxwell tenía la particularidad de que requería que la velocidad de la luz tuviera un valor fijo y definido, que normalmente se conoce como c, y que en unidades ordinarias es aproximadamente 3 × 108 metros por segundo. Maxwell, guiado por los experimentos de Faraday, hizo posible un hecho que cambió la historia de la humanidad para siempre. Un hecho de la misma importancia que el descubrimiento del fuego, la rueda o los metales. El matemático y poeta escocés unificó los campos eléctrico y magnético a través de unas pocas ecuaciones que describen como estos campos se entretejen y actúan sobre la materia.

Claro que, estos importantísimos avances han sido simples escalones de la “infinita” escalera que tenemos que subir y, la misma relatividad de Einstein no ha sido (después de un siglo) aún comprendido en su plenitud y muchos de sus mensajes están escondidos en lo más profundo de nuestras mentes que, ha sabido parcialmente descubrir el mensaje de Einstein pero, seguimos buscando.
Sin embargo, esto nos presenta un enigma si queremos conservar el principio de relatividad. El sentido común nos diría que si se mide que la velocidad de la luz toma el valor concreto c en el sistema de referencia del observador, entonces un segundo observador que se mueva a una velocidad muy alta con respecto al primero medirá que la luz viaja a una velocidad diferente, aumentada o disminuida, según sea el movimiento del segundo observador.
Estaría bueno que, al final se descubriera que alfa (α) tuviera un papel importante en la compleja teoría de cuerdas, ¿Por qué no? En realidad alfa, la constante de estructura fina, nos habla del magnetismo, de la constante de Planck y de la relatividad especial, es decir, la velocidad de la luz y, todo eso, según parece, emergen en las ecuaciones topológicas de la moderna teoría de cuerdas. ¡Ya veremos!
Pero el principio de relatividad exigiría que las leyes físicas del segundo observador (que definen en particular la velocidad de la luz que percibe el segundo observador) deberían ser idénticas a las del primer observador. Esta aparente contradicción entre la constancia de la velocidad de la luz y el principio de relatividad condujo a Einstein (como de hecho, había llevado previamente al físico holandés Hendrick Antón Lorentz y muy en especial al matemático francés Henri Poincaré) a un punto de vista notable por el que el principio de relatividad del movimiento puede hacerse compatible con la constancia de una velocidad finita de la luz.

¿Cómo funciona esto? Sería normal que cualquier persona creyera en la existencia de un conflicto irresoluble entre los requisitos de una teoría como la de Maxwell, en la que existe una velocidad absoluta de la luz, y un principio de relatividad según el cual las leyes físicas parecen las mismas con independencia de la velocidad del sistema de referencia utilizado para su descripción.
¿No podría hacerse que el sistema de referencia se moviera con una velocidad que se acercara o incluso superara a la de la luz? Y según este sistema, ¿no es cierto que la velocidad aparente de la luz no podría seguir siendo la misma que era antes? Esta indudable paradoja no aparece en una teoría, tal como la originalmente preferida por Newton (y parece que también por Galileo), en la que la luz se comporta como partículas cuya velocidad depende de la velocidad de la fuente. En consecuencia, Galileo y Newton podían seguir viviendo cómodamente con un principio de relatividad.

La velocidad de la luz en el vacío es una constante de la Naturaleza y, cuando cientos de miles de millones de millones salen disparados de esta galaxia hacia el vacío espacial, su velocidad de 299.792.450 metros por segundo, es constante independientemente de la fuente que pueda emitir los fotones y de si ésta está en reposo o en movimiento.
Así que, la antigua imagen de la naturaleza de la luz entró en conflicto a lo largo de los años, como era el caso de observaciones de estrellas dobles lejanas que mostraban que la velocidad de la luz era independiente de la de su fuente. Por el contrario, la teoría de Maxwell había ganado fuerza, no sólo por el poderoso apoyo que obtuvo de la observación (muy especialmente en los experimentos de Heinrich Hertz en 1.888), sino también por la naturaleza convincente y unificadora de la propia teoría, por la que las leyes que gobiernan los campos eléctricos, los campos magnéticos y la luz están todos subsumidos en un esquema matemático de notable elegancia y simplicidad.

Las ondas luminosas como las sonoras, actúan de una u otra manera dependiendo del medio en el que se propagan.
En la teoría de Maxwell, la luz toma forma de ondas, no de partículas, y debemos enfrentarnos al hecho de que en esta teoría hay realmente una velocidad fija a la que deben viajar las ondas luminosas.
El punto de vista geométrico-espaciotemporal nos proporciona una ruta particularmente clara hacia la solución de la paradoja que presenta el conflicto entre la teoría de Maxwell y el principio de relatividad.

Este punto de vista espaciotemporal no fue el que Einstein adoptó originalmente (ni fue el punto de vista de Lorentz, ni siquiera, al parecer, de Poincaré), pero, mirando en retrospectiva, podemos ver la potencia de este enfoque. Por el momento, ignoremos la gravedad y las sutilezas y complicaciones asociadas que proporciona el principio de equivalencia y otras complejas cuestiones, que estimo aburrirían al lector no especialista, hablando de que en el espacio-tiempo se pueden concebir grupos de todos los diferentes rayos de luz que pasan a ser familias de íneas de universo.

La maravilla de los cuantos llamados fotones
Baste saber que, como quedó demostrado por Einstein, la luz, independientemente de su fuente y de la velocidad con que ésta se pueda mover, tendrá siempre la misma velocidad en el vacío, c, o 299.792.458 metros por segundo. Cuando la luz atraviesa un medio material, su velocidad se reduce. Precisamente, es la velocidad c el límite alcanzable de la velocidad más alta del universo. Es una constante universal y, como hemos dicho, es independiente de la velocidad del observador y de la fuente emisora.
El Universo está dentro de nuestras Mentes
¡La Mente! Qué caminos puede recorrer y, sobre todo ¿Quién la guía? Comencé este trabajo con la imagen del ojo humano y hablando de los sentidos y de la consciencia y mira donde he finalizado…Sí, nos falta mucho camino por recorrer para llegar a desvelar los misterios de la Mente que, en realidad, es la muestra más alta que el Universo nos puede mostrar de lo que puede surgir a partir de la sencillez de los átomos de hidrógeno que, evolucionados, primero en las entrañas de las estrellas y después en los circuitos de nuestras mentes, llega hasta los pensamientos y la imaginación que…son palabras mayores de cuyo alcance, aún no tenemos una idea que realmente refleje su realidad.

Todo en nuestro universo ambia, comienza siendo una cosa y finaliza siendo otra
Pero, ¿existe alguna realidad?, o, por el contrario todo es siempre cambiante y lo que hoy es mañana no existirá, si “realmente” es así, ocurre igual que con el tiempo. La evolución es algo que camina siempre hacia adelante, es inexorable, nunca se para y, aunque como el tiempo pueda ralentizarse, finalmente sigue su camino hacia esos lugares que ahora, sólo podemos imaginar y que, seguramente, nuestros pensamientos no puedan (por falta de conocimientos) plasmar en lo que será esa realidad futura.
Emilio Silvera Vázquez
May
26
La Masa y la Energía ¿Qué son en realidad?
por Emilio Silvera ~
Clasificado en Física ~
Comments (3)


“A día de hoy, las constantes universales son la velocidad de la luz en el vacío, que sustituye al metro; la constante de Planck, que sustituiría al kilogramo; el número de Avogadro, que reemplazaría al mol; la eficacia luminosa, que supliría a la candela; la constante de Boltzmann, que relevaría al Kelvin y el segundo de un reloj atómico de cesio para el segundo tradicional. Estos valores se ajustan mucho mejor a las necesidades y medidas físicas, pero recordemos que no son las únicas que le dan “vida” al universo.”


“Pero, ¿Qué son en realidad las constantes? Aunque apenas hemos comenzado a profundizar sobre este tema, ahora que tenemos más clara la identidad de algunas constantes será más fácil definirlas. Una constante física es el valor de una magnitud que permanece invariable en los procesos físicos a lo largo del tiempo. Las magnitudes pueden variar, cosa que tiene sentido, o estaríamos ante un universo muerto. Sin embargo, como veíamos, existen valores que no lo hacen, convirtiéndose en auténticas piedras de toque existenciales.”



La Mente humana ha logrado descorrer el velo de muchos secretos profundamente escondidos en la Naturaleza


Todos los intentos y los esfuerzos por hallar una pista del cuál era el origen de la masa fallaron. Feynman escribió su famosa pregunta: “¿Por qué pesa el muón?”. Ahora, por lo menos, tenemos una respuesta parcial, en absoluto completa. Una voz potente y ¿segura? nos dice: “!Higgs¡” Durante más de 60 años los físicos experimentadores se rompieron la cabeza con el origen de la masa, y ahora el campo Higgs presenta el problema en un contexto nuevo; no se trata sólo del muón. Proporciona, por lo menos, una fuente común para todas las masas. La nueva pregunta feynmaniana podría ser: ¿Cómo determina el campo de Higgs la secuencia de masas, aparentemente sin patrón, que da a las partículas de la materia?
La variación de la masa con el estado de movimiento, el cambio de masa con la configuración del sistema y el que algunas partículas (el fotón seguramente y los neutrinos posiblemente) tengan masa en reposo nula son tres hechos que ponen entre dicho que el concepto de masa sea un atributo fundamental de la materia. Habrá que recordar aquel cálculo de la masa que daba infinito y nunca pudimos resolver; los físicos sólo se deshicieron de él “renormalizándolo”, ese truco matemático que emplean cuando no saben encontrar la respuesta al problema planteado.
Ese es el problema de trasfondo con el que tenemos que encarar el problema de los quarks, los leptones y los vehículos de las fuerzas, que se diferencian por sus masas. Hace que la historia de Higgs se tenga en pie: la masa no es una propiedad intrínseca de las partículas, sino una propiedad adquirida por la interacción de las partículas y su entorno.
La idea de que la masa no es intrínseca como la carga o el espín resulta aún más plausible por la idílica idea de que todos los quarks y fotones tendrían masa cero. En ese caso, obedecerían a una simetría satisfactoria, la quiral, en la que los espines estarían asociados para siempre con su dirección de movimiento. Pero ese idilio queda oculto por el fenómeno de Higgs.


¡Ah, una cosa más! Hemos hablado de los bosones gauge y de su espín de una unidad; hemos comentado también las partículas fermiónicas de la materia (espín de media unidad). ¿Cuál es el pelaje de Higgs? Es un bosón de espín cero. El espín supone una direccionalidad en el espacio, pero el campo de Higgs da masa a los objetos dondequiera que estén y sin direccionalidad. Al Higgs se le llama a veces “bosón escalar” [sin dirección] por esa razón.
La interacción débil, recordareis, fue inventada por E. Fermi para describir la desintegración radiactiva de los núcleos, que era básicamente un fenómeno de poca energía, y a medida que la teoría de Fermi se desarrolló, llegó a ser muy precisa a la hora de predecir un enorme número de procesos en el dominio de energía de los 100 MeV. Así que ahora, con las nuevas tecnologías y energías del LHC, las esperanzas son enormes para, por fin, encontrar el bosón Higgs origen de la masa… y algunas cosas más.

Fabiola Gianotti, portavoz del experimento ATLAS, ofrece algunos avances:
“En nuestros datos observamos claros signos de una nueva partícula compatible con la teoría de Higgs, con un nivel aproximado de 5 sigma [99,977% de eficiencia], en la región de masa alrededor de los 126 GeV. El increíble rendimiento del LHC y el ATLAS y los enormes esfuerzos de mucha gente nos han traído a este excitante punto, pero hace falta un poco más de tiempo para preparar estos resultados cara a su publicación.”
El Modelo Estándar extendido
El Modelo Estándar describe las partículas de todo cuanto nos rodea, incluso de nosotros mismos. Toda la materia que podemos observar, sin embargo, no parece significar más que el 4% del total. Higgspodría ser el puente para comprender el 96% del universo que permanece oculto.
El 4 de julio de 2012 se anunció el descubrimiento de un nuevo bosón. Punto. En diciembre de 2012 se empezó a hablar de “un” Higgs (en lugar de “el” Higgs), pero oficialmente seguía siendo un nuevo bosón. ¿Importa el nombre? El Premio Nobel de Física para el bosón de Higgs sólo será concedido cuando el CERN afirme con claridad y rotundidad que se ha descubierto “el” Higgs, si el CERN es conservador, la Academia Sueca lo es aún más. Sin embargo, el rumor es que quizás baste con que el CERN diga que se ha descubierto “un” Higgs.

¿Por qué, a pesar de todas las noticias surgidas desde el CERN, creo que no ha llegado el momento de celebrarlo? ¿Es acaso el Higgs lo encontrado? Creo que quedan algunas cuestiones por explicar y, el Nobel ha sido algo prematuro. Sin embargo, los científicos se agarran a un clavo ardiendo (como el que se ahoga) para conseguir subvenciones.
Hay que responder montones de preguntas. ¿Cuáles son las propiedades de las partículas de Higgs y, lo que es más importante, cuál es su masa? ¿Cómo reconoceremos una si nos la encontramos en una colisión de LHC? ¿Cuántos tipos hay? ¿Genera el Higgs todas las masas, o solo las hace incrementarse? ¿Y, cómo podemos saber más al respecto? También a los cosmólogos les fascina la idea de Higgs, pues casi se dieron de bruces con la necesidad de tener campos escalares que participasen en el complejo proceso de la expansión del Universo, añadiendo, pues, un peso más a la carga que ha de soportar el Higgs.
El campo de Higgs, tal y como se lo concibe ahora, se puede destruir con una energía grande, o temperaturas altas. Estas generan fluctuaciones cuánticas que neutralizan el campo de Higgs. Por lo tanto, el cuadro que las partículas y la cosmología pintan juntas de un universo primitivo puso y de resplandeciente simetría es demasiado caliente para Higgs. Pero cuando la temperatura cae bajo los 10’5grados kelvin o 100 GeV, el Higgs empieza a actuar y hace su generación de masas. Así por ejemplo, antes de Higgs teníamos unos W, Z y fotones sin masa y la fuerza electrodébil unificada.
El Universo se expande y se enfría, y entonces viene el Higgs (que engorda los W y Z, y por alguna razón ignora el fotón) y de ello resulta que la simetría electrodébil se rompe. Tenemos entonces una interacción débil, transportada por los vehículos de la fuerza W+, W–, Z0, y por otra parte una interacción electromagnética, llevada por los fotones. Es como si para algunas partículas del campo de Higgs fuera una especie de aceite pesado a través del que se moviera con dificultad y que las hiciera parecer que tienen mucha masa. Para otras partículas, el Higgs es como el agua, y para otras, los fotones y quizá los neutrinos, es invisible.
![]()
Para cada suceso, la línea del haz es el eje común de los cilindros de malla de alambre ECAL y HCAL. ¿Cuál es el mejor candidato W? el mejor candidato Z? En cada evento, ¿Dónde ocurrió la colisión y el decaimiento de las partículas producidas? Lo cierto es que, en LHC se hacen toda clase de pruebas para saber del mundo de las partículas, de dónde vienen y hacia dónde se dirigen y, el Bosón de Higgs, es una asignatura pendiente a pesar de las noticias y de los premios
De todas las maneras, es tanta la ignorancia que tenemos sobre el origen de la masa que, nos agarramos como a un clavo ardiendo el que se ahoga, en este caso, a la partícula de Higgs que viene a ser una de las soluciones que le falta al Modelo Estándar para que todo encaje con la teoría.
¡Ya veremos en que termina todo esto! Dicen que descubrieron el famoso Bosón pero… Y, aunque el que suena siempre es Higgs, lo cierto es que los autores de la teoría del “Bosón de Higgs”, son tres a los que se ha concedido, junto al CERN, el Premio Principe de Asturias. Peter Ware Higgs —el primero en predecir la existencia del bosón— junto a los físicos François Englert, y el belga Robert Brout—fallecido en el año 2011— y que no ha podido disfrutar del Nóbel.

Peter Higgs, de la Universidad de Edimburgo, introdujo la idea en la física de partículas. La utilizaron los teóricos Steven Weinberg y V. Salam, que trabajaban por separado, para comprender como se convertía la unificada y simétrica fuerza electrodébil, transmitida por una feliz familia de cuatro partículas mensajeras de masa nula, en dos fuerzas muy diferentes: la QED con un fotón carente de masa y la interacción débil con sus W+, W– y Z0 de masa grande. Weinberg y Salam se apoyaron en los trabajos previos de Sheldon Glasgow, quien tras los pasos de Julian Schwinger, sabía sólo que había una teoría electrodébil unificada, coherente, pero no unió todos los detalles. Y estaban Jeffrey Goldstone y Martines Veltman y Gerard’t Hooft. También hay otras a los que había que mencionar, pero lo que siempre pasa, quedan en el olvido de manera muy injusta. Además, ¿Cuántos teóricos hacen falta para encender una bombilla?
La verdad es que, casi siempre, han hecho falta muchos. Recordemos el largo recorrido de los múltiples detalle sueltos y físicos que prepararon el terreno para que, llegara Einstein y pudiera, uniéndolo todo, exponer su teoría relativista.
Sobre la idea de Peter Higgs, Veltman, uno de sus arquitectos, dice que es una alfombra bajo la que barremos nuestra ignorancia. Glasgow es menos amable y lo llamó retrete donde echamos las incoherencias de nuestras teorías actuales. La objeción principal: que no teníamos la menor prueba experimental que ahora parece que va asomando la cabeza en el LHC.

![]()
Esperemos que la partícula encontrada, el bosón hallado, sea en realidad el Higgs dador de masa a las demás partículas pero… ¡Cabe la posibilidad de que sólo sea el hermano menor! de la familia. El modelo estándar es lo bastante fuerte para decirnos que la partícula de Higgs de menor masa (podría haber muchas) debe “pesar” menos de 1 TeV. ¿Por qué? Si tiene más de 1 TeV, el modelo estándar se vuelve incoherente y tenemos la crisis de la unitariedad.
Después de todo esto, tal como plantearon las cosas los del CERN, se podría llegar a la conclusión de que, el campo de Higgs, el modelo estándar y nuestra idea de cómo se hizo el Universo dependía de que se encuentrara el Bosón de Higgs. Y ahora, por fin, el mayor Acelerador del mundo, el LHC, nos dice que el Bosón ha sido encontrado y las pruebas tienen una fiabilidad enorme.

“El 4 de julio de 2012 se anunció el bosón de Higgs en el LHC del CERN. Se observó con cinco sigmas de confianza estadística por dos detectores independientes, ATLAS y CMS. Más aún, en dos canales de desintegración independientes en ambos, la desintegración en dos fotones vía un bucle de tres bosones W y en cuatro leptones vía un par de bosones Z. Más tarde, combinando ATLAS y CMS, se observó en el canal de desintegración en dos leptones tau (alcanzando 5,5 sigmas). El LHC Run 1 determinó que la masa del Higgs es de 125,09 ± 0,24 GeV/c² y que sus propiedades coinciden con las predicciones del modelo estándar, hasta donde se espera que puedan coincidir; hay anomalías, pero todas parecen tener un origen estadístico. Recuerda que en el LHC Run 1 (2010–2012) se acumularon ~5 /fb de colisiones protón contra protón a una energía de 7 TeV c.m. (2010–2011) y ~20 /fb a 8 TeV c.m. (2012).”
¡La confianza en nosotros mismos, no tiene límites! Pero el camino no ha sido recorrido por completo y quedan algunos tramos que tendremos que andar para poder, al fín, dar una explicación más completa, menos oscura y neblinosa que lo que hasta el momento tenemos, toda vez que, del Bosón de Higgs y de su presencia veraz, dependen algunos detalles de cierta importancia para que sean confirmados nuestros conceptos de lo que es la masa y, de paso, la materia.
¿Pasará igual con las cuerdas?
Emilio Silvera Vázquez
Fuente: León M. Lederman
May
25
El Universo de las partículas I
por Emilio Silvera ~
Clasificado en Física ~
Comments (0)
¿Qué no será capaz de inventar el hombre para descubrir los misterios de la Naturaleza?
Ha pasado mucho tiempo desde que Rutherford identificara la primera partícula nuclear (la partícula alfa). El camino ha sido largo y muy duro, con muchos intentos fallidos antes de ir consiguiendo los triunfos (los únicos que suenan), y muchos han sido los nombres que contribuyen para conseguir llegar al conocimiento que actualmente tenemos del átomo y del núcleo; los electrones circulando alrededor del núcleo, en sus diferentes niveles, con un núcleo compuesto de protones y neutrones que, a su vez, son constituidos por los quarks allí confinados por los gluones, las partículas mediadoras de la fuerza nuclear fuerte. Pero, ¿Qué habrá más allá de los quarks?, ¿las supercuerdas vibrantes? Algún día se sabrá.
Partículas
Las partículas primarias de los rayos cósmicos son aquellas que llegan a la Tierra directamente desde el Espacio exterior, principalmente protones (núcleos de hidrógeno), y partículas Alfa (núcleos de helio). Estos rayos cósmicos se originan fuera de la Tierra, en fuentes astrofísicas como estrellas, supernovas y agujeros negros, y viajan a través del espacio intergaláctico. Al impactar con la atmósfera terrestre, las partículas primarias producen rayos cósmicos secundarios, como electrones, fotones y muones.
El universo de las partículas es fascinante. Cuando las partículas primarias chocan con átomos y moléculas en el aire, aplastan sus núcleos y producen toda clase de partículas secundarias. En esta radiación secundaria (aún muy energética) la que detectamos cerca de la Tierra, por los globos enviados a la atmósfera superior, han registrado la radiación primaria.
El físico estadounidense Robert Andrews Millikan, que recogió una gran cantidad de información acerca de esta radiación (y que le dio el nombre de rayos cósmicos), decidió que debería haber una clase de radiación electromagnética. Su poder de penetración era tal que, parte del mismo, atravesaba muchos centímetros de plomo. Para Millikan, esto sugería que la radiación se parecía a la de los penetrantes rayos gamma, pero con una longitud de onda más corta.

Otros, sobre todo el físico norteamericano Holly Compton, no estaban de acuerdo en que los rayos cósmicos fuesen partículas. Había un medio para investigar este asunto; si se trataba de partículas cargadas, deberían ser rechazadas por el campo magnético de la Tierra al aproximarse a nuestro planeta desde el espacio exterior. Compton estudió las mediciones de la radiación cósmica en varias latitudes y descubrió que en realidad se curvaban con el campo magnético: era más débil cera del ecuador magnético y más fuerte cerca de los polos, donde las líneas de fuerza magnética se hundían más en la Tierra.
Las partículas cósmicas primarias, cuando entran en nuestra atmósfera, llevan consigo unas energías fantásticas, muy elevadas. En general, cuanto más pesado es el núcleo, más raro resulta entre las partículas cósmicas. Núcleos tan complejos como los que forman los átomos de hierro se detectaron con rapidez; en 1.968, otros núcleos como el del uranio. Los núcleos de uranio constituyen sólo una partícula entre 10 millones. También se incluirán aquí electrones de muy elevada energía.

Ahora bien, la siguiente partícula inédita (después del neutrón) se descubrió en los rayos cósmicos. A decir verdad, cierto físico teórico había predicho ya este descubrimiento. Paul Adrien Dirac había aducido, fundándose en un análisis matemático de las propiedades inherentes a las partículas subatómicas, que cada partícula debería tener su antipartícula (los científicos desean no sólo que la naturaleza sea simple, sino también simétrica). Así pues, debería haber un antielectrón, salvo por su carga que sería positiva y no negativa, idéntico al electrón; y un antiprotón, con carga negativa en vez de positiva.

En 1.930, cuando Dirac expuso su teoría, no llamó demasiado la atención en el mundo de la ciencia. Pero, fiel a la cita, dos años después apareció el antielectrón. Por entonces, el físico americano Carl David Anderson trabajaba con Millikan en un intento por averiguar si los rayos cósmicos eran radiación electromagnética o partículas. Por aquellas fechas, casi todo el mundo estaba dispuesto a aceptar las pruebas presentadas por Compton, según las cuales, se trataría de partículas cargadas; pero Millikan no acababa de darse por satisfecho con tal solución.
Anderson se propuso averiguar si los rayos cósmicos que penetraban en una cámara de ionización se curvaban bajo la acción de un potente campo magnético. Al objeto de frenar dichos rayos lo suficiente como para detectar la curvatura, si la había, puso en la cámara una barrera de plomo de 6’35 mm de espesor. Descubrió que, cuando cruzaba el plomo, la radiación cósmica trazaba una estela curva a través de la cámara; y descubrió algo más. A su paso por el plomo, los rayos cósmicos energéticos arrancaban partículas de los átomos de plomo. Una de esas partículas dejó una estela similar a la del electrón. ¡Allí estaba, pues, el anti-electrón de Dirac! Anderson le dio el nombre de positrón. Tenemos aquí un ejemplo de radiación secundaria producida por rayos cósmicos. Pero aún había más, pues en 1.963 se descubrió que los positrones figuraban también entre las radiaciones primarias.
Abandonado a sus propios medios, el positrón es tan estable como el electrón (¿y por qué no habría de serlo si el idéntico al electrón, excepto en su carga eléctrica?). Además, su existencia puede ser indefinida. Ahora bien, en realidad no queda abandonado nunca a sus propios medios, ya que se mueve en un universo repleto de electrones. Apenas inicia su veloz carrera (cuya duración ronda la millonésima de segundo), se encuentra ya con uno.
Así, durante un momento relampagueante quedaron asociados el electrón y el positrón; ambas partículas girarán en torno a un centro de fuerza común. En 1.945, el físico americano Arthur Edwed Ruark sugirió que se diera el nombre de positronio a este sistema de dos partículas, y en 1.951, el físico americano de origen austriaco Martin Deutsch consiguió detectarlo guiándose por los rayos gamma característicos del conjunto.
Pero no nos confundamos, aunque se forme un sistema positronio, su existencia durará, como máximo, una diezmillonésima de segundo. El encuentro del electrón-positrón provoca un aniquilamiento mutuo; sólo queda energía en forma de radiación gamma. Ocurre pues, tal como había sugerido Einstein: la materia puede convertirse en energía y viceversa. Por cierto, que Anderson consiguió detectar muy pronto el fenómeno inverso: desaparición súbita de rayos gamma para dar origen a una pareja electrón-positrón. Este fenómeno se llama producción en pareja. Anderson compartió con Hess el premio Nobel de Física de 1.936.

Poco después, los Joliot-Curie detectaron el positrón por otros medios, y al hacerlo así realizaron, de paso, un importante descubrimiento. Al bombardear los átomos de aluminio con partículas alfa, descubrieron que con tal sistema no sólo se obtenían protones, sino también positrones. Cuando suspendieron el bombardeo, el aluminio siguió emitiendo positrones, emisión que sólo con el tiempo se debilitó. Aparentemente habían creado, sin proponérselo, una nueva sustancia radiactiva. He aquí la interpretación de lo ocurrido según los Joliot-Curie: cuando un núcleo de aluminio absorbe una partícula alfa, la adición de los dos protones transforma el aluminio (número atómico 13) en fósforo (número atómico 15). Puesto que las partículas alfa contienen cuatro nucleones en total, el número masivo se eleva 4 unidades, es decir, del aluminio 27 al fósforo 31. Ahora bien, si al reaccionar se expulsa un protón de ese núcleo, la reducción en una unidad de sus números atómicos y masivos hará surgir otro elemento, o sea, el silicio 30.
Puesto que la partícula alfa es el núcleo del helio, y un protón es el núcleo del hidrógeno, podemos escribir la siguiente ecuación de esta reacción nuclear:
aluminio 27 + helio 4 = silicio 30 + hidrógeno 1
Nótese que los números másicos se equilibran:
27 + 4 = 30 + 1
Adentrarse en el universo de las partículas que componen los elementos de la tabla periódica, y en definitiva, la materia conocida, es verdaderamente fantástico.

Tan pronto como los Joliot-Curie crearon el primer isótopo radiactivo artificial, los físicos se lanzaron en tropel a producir tribus enteras de ellas. En realidad, las variedades radiactivas de cada elemento en la tabla periódica son producto de laboratorio. En la moderna tabla periódica, cada elemento es una familia con miembros estables e inestables, algunos procedentes de la naturaleza, otros sólo del laboratorio. Por ejemplo, el hidrógeno presenta tres variedades: en primer lugar, el corriente, que tienen un solo protón. En 1.932, el químico Harold Urey logró aislar el segundo. Lo consiguió sometiendo a lenta evaporación una gran cantidad de agua, de acuerdo con la teoría de que los residuos representarían una concentración de la forma más pesada del hidrógeno que se conocía, y, en efecto, cuando se examinaron al espectroscopio las últimas gotas de agua no evaporadas, se descubrió en el espectro una leve línea cuya posición matemática revelaba la presencia de hidrógeno pesado.
El núcleo de hidrógeno pesado está constituido por un protón y un neutrón. Como tiene un número másico de 2, el isótopo es hidrógeno. Urey llamó a este átomo deuterio (de la voz griega deutoros, “segundo“), y el núcleo deuterón. Una molécula de agua que contenga deuterio se denomina agua pesada, que tiene puntos de ebullición y congelación superiores al agua ordinaria, ya que la masa del deuterio es dos veces mayor que la del hidrógeno corriente. Mientras que ésta hierve a 100º C y se congela a 0º C, el agua pesada hierve a 101’42º C y se congela a 3’79º C. El punto de ebullición del deuterio es de -23’7º K, frente a los 20’4º K del hidrógeno corriente. El deuterio se presenta en la naturaleza en la proporción de una parte por cada 6.000 partes de hidrógeno corriente. En 1.934 se otorgó a Urey el premio Nobel de Química por su descubrimiento del deuterio.
El deuterio resultó ser una partícula muy valiosa para bombardear los núcleos. En 1.934, el físico australiano Marcus Lawrence Edwin Oliphant y el austriaco P. Harteck atacaron el deuterio con deuterones y produjeron una tercera forma de hidrógeno, constituido por un protón y dos neutrones. La reacción se planteó así:
hidrógeno 2 + hidrógeno 2 = hidrógeno 3 + hidrógeno 1
Este nuevo hidrógeno superpesado se denominó tritio (del griego tritos, “tercero“); su ebullición a 25º K y su fusión a 20’5º K.
Como es mi costumbre, me desvío del tema y sin poderlo evitar, mis ideas (que parecen tener vida propia), cogen los caminos más diversos. Basta con que se cruce en el camino del trabajo que realizo un fugaz recuerdo; lo sigo y me lleva a destinos distintos de los que me propuse al comenzar. Así, en este caso, me pasé a la química, que también me gusta mucho y está directamente relacionada con la física; de hecho son hermanas: la madre, las matemáticas, la única que finalmente lo podrá explicar todo.
Emilio Silvera Vázquez
May
25
El Universo de las partículas II
por Emilio Silvera ~
Clasificado en Física ~
Comments (0)

Goudsmit fue el primer físico junto a George Eugene Uhlenbeck( 1900-1988) y Ralph Kronig (1904-1995) en proponer el concepto de espín del electrón en 1925. Por este descubrimiento ambos físicos fueron galardonados con la Medalla Max Planck en 1964.
Estamos hablando de las partículas y no podemos dejar a un lado el tema del movimiento rotatorio de las mismas. Usualmente se ve cómo la partícula gira sobre su eje, a semejanza de un trompo, o como la Tierra o el Sol, o nuestra galaxia o, si se me permite decirlo, como el propio universo. En 1.925, los físicos holandeses George Eugene Uhlenbeck y Samuel Abraham Goudsmit aludieron por primera vez a esa rotación de las partículas. Éstas, al girar, generan un minúsculo campo electromagnético; tales campos han sido objeto de medidas y exploraciones, principalmente por parte del físico alemán Otto Stern y el físico norteamericano Isaac Rabi, quienes recibieron los premios Nobel de Física en 1.943 y 1.944 respectivamente, por sus trabajos sobre dicho fenómeno.

Esas partículas (al igual que el protón, el neutrón y el electrón), que poseen espines que pueden medirse en números mitad, se consideran según un sistema de reglas elaboradas independientemente, en 1.926, por Fermi y Dirac; por ello, se las llama y conoce como estadísticas Fermi-dirac. Las partículas que obedecen a las mismas se denominan fermiones, por lo cual el protón, el electrón y el neutrón son todos fermiones.
Hay también partículas cuya rotación, al duplicarse, resulta igual a un número par. Para manipular sus energías hay otra serie de reglas, ideadas por Einstein y el físico indio S. N. Bose. Las partículas que se adaptan a la estadística Bose-Einstein son bosones, como por ejemplo la partícula alfa.
![]()
Las reglas de la mecánica cuántica tienen que ser aplicadas si queremos describir estadísticamente un sistema de partículas que obedece a reglas de esta teoría en vez de los de la mecánica clásica. En estadística cuántica, los estados de energía se considera que están cuantizados. La estadística de Bose-Einstein se aplica si cualquier número de partículas puede ocupar un estado cuántico dad. Dichas partículas (como dije antes) son bosones, que tienden a juntarse.
Los bosones tienen un momento angular nh/2π, donde n es 0 o un entero, y h es la constante de Planck. Para bosones idénticos, la función de ondas es siempre simétrica. Si sólo una partícula puede ocupar un estado cuántico, tenemos que aplicar la estadística Fermi-Dirac y las partículas (como también antes dije) son los fermiones que tienen momento angular (n + ½)h / 2π y cualquier función de ondas de fermiones idénticos es siempre antisimétrica. La relación entre el espín y la estadística de las partículas está demostrada por el teorema espín-estadística.

En un espacio de dos dimensiones es posible que haya partículas (o cuasipartículas) con estadística intermedia entre bosones y fermiones. Estas partículas se conocen con el nombre de aniones; para aniones idénticos, la función de ondas no es simétrica (un cambio de fase de +1) o antisimétrica (un cambio de fase de -1), sino que interpola continuamente entre +1 y -1. Los aniones pueden ser importantes en el análisis del efecto Hall cuántico fraccional y han sido sugeridos como un mecanismo para la superconductividad de alta temperatura.

Debido al principio de exclusión de Pauli, es imposible que dos fermiones ocupen el mismo estado cuántico (al contrario de lo que ocurre con los bosones). La condensación Bose-Einstein es de importancia fundamental para explicar el fenómeno de la superfluidez. A temperaturas muy bajas (del orden de 2×10-7K) se puede formar un condensado de Bose-Einstein, en el que varios miles de átomos forman una única entidad (un super-átomo).


Este efecto ha sido observado con átomos de rubidio y litio. Como ha habréis podido suponer, la condensación Bose-Einstein es llamada así en honor al físico Satyendra Nath Bose (1.894 – 1.974) y a Albert Einstein. Así que, el principio de exclusión de Pauli tiene aplicación no sólo a los electrones, sino también a los fermiones; pero no a los bosones.
Si nos fijamos en todo lo que estamos hablando aquí, es fácil comprender cómo forma un campo magnético la partícula cargada que gira, pero ya no resulta tan fácil saber por qué ha de hacer lo mismo un neutrón descargado. Lo cierto es que cuando un rayo de neutrones incide sobre un hierro magnetizado, no se comporta de la misma forma que lo haría si el hierro no estuviese magnetizado. El magnetismo del neutrón sigue siendo un misterio; los físicos sospechan que contiene cargas positivas y negativas equivalente a cero, aunque por alguna razón desconocida, logran crear un campo magnético cuando gira la partícula.

Particularmente creo que, si el neutrón tiene masa, si la masa es energía (E = mc2), y si la energía es electricidad y magnetismo (según Maxwell), el magnetismo del neutrón no es tan extraño, sino que es un aspecto de lo que en realidad es materia. La materia es la luz, la energía, el magnetismo, en definitiva, la fuerza que reina en el universo y que está presente de una u otra forma en todas partes (aunque no podamos verla).
Sea como fuere, la rotación del neutrón nos da la respuesta a esas preguntas:
¿Qué es el anti-neutrón? Pues, simplemente, un neutrón cuyo movimiento rotatorio se ha invertido; su polo sur magnético, por decirlo así, está arriba y no abajo. En realidad, el protón y el anti-protón, el electrón y el positrón, muestran exactamente el mismo fenómeno de los polos invertidos.
Es indudable que las antipartículas pueden combinarse para formar la antimateria, de la misma forma que las partículas corrientes forman la materia ordinaria.

La primera demostración efectiva de antimateria se tuvo en Brookhaven en 1.965, donde fue bombardeado un blanco de berilio con 7 protones BeV y se produjeron combinaciones de antiprotones y antineutrones, o sea, un anti-deuterón. Desde entonces se ha producido el antihelio 3, y no cabe duda de que se podría crear otros anti-núcleos más complicados aún si se abordara el problema con más interés.
Pero, ¿existe en realidad la antimateria? ¿Hay masas de antimateria en el universo? Si las hubiera, no revelarían su presencia a cierta distancia. Sus efectos gravitatorios y la luz que produjeran serían idénticos a los de la materia corriente. Sin embargo, cuando se encontrasen las masas de las distintas materias, deberían ser claramente perceptibles las reacciones masivas del aniquilamiento mutuo resultante del encuentro. Así pues, los astrónomos observan especulativamente las galaxias, para tratar de encontrar alguna actividad inusual que delate interacciones materia-antimateria.
No parece que dichas observaciones fuesen un éxito. ¿Es posible que el universo esté formado casi enteramente por materia, con muy poca o ninguna antimateria? Y si es así, ¿por qué? Dado que la materia y la antimateria son equivalente en todos los aspectos, excepto en su oposición electromagnética, cualquier fuerza que crease una originaría la otra, y el universo debería estar compuesto de iguales cantidades de la una y de la otra.


Aquí detectaron y lograron encontrar la anti-materia por primera vez
Este es el dilema. La teoría nos dice que debería haber allí antimateria, pero las observaciones lo niegan, no lo respaldan. ¿Es la observación la que falla? ¿Y qué ocurre con los núcleos de las galaxias activas, e incluso más aún, con los quásares? ¿Deberían ser estos fenómenos energéticos el resultado de una aniquilación materia-antimateria? ¡No creo! Ni siquiera ese aniquilamiento parece ser suficiente, y los astrónomos prefieren aceptar la noción de colapso gravitatorio y fenómenos de agujeros negros, como el único mecanismo conocido para producir la energía requerida.
Con esto de la antimateria me ocurre igual que con el hecho, algunas veces planteado, de la composición de la materia en lugares lejanos del universo. “Ha caído una nave extraterrestre y nuestros científicos han comprobado que está hecha de un material desconocido, casi indestructible”. Este comentario se ha podido oír en alguna película de ciencia ficción. Podría ser verdad (un material desconocido), sin embargo, no porque la nave esté construida por una materia distinta, sino porque la aleación es distinta y más avanzada a partir de los materiales conocidos del universo. En cualquier parte del universo, por muy lejana que pueda estar, rigen los mismos principios y las mismas fuerzas: la materia y la energía son las mismas en cualquier parte. Lo único que puede diferir es la forma en que se utilice, el tratamiento que se le pueda dar, y sobre todo, el poseer el conocimiento y la tecnología necesarios para poder obtener el máximo resultado de las propiedades que dicha materia encierra, porque, en última instancia, ¿es en verdad inerte la materia?
Todo lo que podemos ver en el Universo, sin excepción, está hecho de materia
Tiene y encierra tantos misterios la materia que estamos aún a años luz de saber y conocer sobre su verdadera naturaleza. Nos podríamos preguntar miles de cosas que no sabríamos contestar. Nos maravillan y asombran fenómenos naturales que ocurren ante nuestros ojos, pero que tampoco sabemos, en realidad, a qué son debidas. Sí, sabemos ponerles etiquetas como la fuerza nuclear débil, la fisión espontánea que tiene lugar en algunos elementos como el protactinio o el torio, y con mayor frecuencia, en los elementos que conocemos como transuránicos.

A medida que los núcleos se hacen más grandes, la probabilidad de una fisión espontánea aumenta. En los elementos más pesados de todos (einstenio, fermio y mendelevio), esto se convierte en el método más importante de su ruptura, sobrepasando a la emisión de partículas alfa. ¡Parece que la materia está viva! Son muchas las cosas que desconocemos, y nuestra curiosidad nos empuja continuamente a buscar esas respuestas.
El electrón y el positrón son notables por sus pequeñas masas (sólo 1/1.836 de la del protón, el neutrón, el antiprotón o el anti-neutrón), y por lo tanto, han sido denominados leptones (de la voz griega leptos, que dignifica “delgado“).
Aunque el electrón fue descubierto en 1.897 por el físico británico Joseph John Thomson (1.856 – 1.940), el problema de su estructura, si la hay, aún no está resuelto. Conocemos su masa y su carga negativa que responden a 9’1093897 (54) × 10-31 Kg la primera, y 1’60217733 (49) × 10-19 culombios la segunda, y también su radio clásico r0 igual a e2/(mc2) = 2’82 × 10-13 cm. No se ha descubierto aún ninguna partícula que sea menos masiva que el electrón (o positrón) y que lleve una carga eléctrica, sea la que fuese (sabemos cómo actúa y cómo medir sus propiedades, pero aún no sabemos qué es), que tenga asociada un mínimo de masa.
Lo cierto es que el electrón es una maravilla en sí mismo. El universo no sería como lo conocemos si el electrón fuese distinto a como es; bastaría un cambio infinitesimal para que, por ejemplo, nosotros no pudiéramos estar aquí ahora.

Muchos granos de arena conforman la inmensa playa
¡No por pequeño se es insignificante!
Recordémoslo, todo lo grande está hecho de cosas pequeñas. En realidad, existen partículas que no tiene asociada ninguna masa en absoluto, es decir, ninguna masa en reposo. Por ejemplo, las ondas de luz y otras formas de radiación electromagnética se comportan como partículas (Einstein en su efecto fotoeléctrico y De Broglie en la difracción de electrones*). Esta manifestación en forma de partículas de lo que, de ordinario, concebimos como una onda, se denomina fotón, de la palabra griega que significa “luz”.
El fotón tiene una masa de 1, una carga eléctrica de 0, pero posee un espín de 1, por lo que es un bosón. ¿Cómo se puede definir lo que es el espín? Los fotones toman parte en las reacciones nucleares, pero el espín total de las partículas implicadas antes y después de la reacción deben permanecer inmutadas (conservación del espín). La única forma de que esto suceda en las reacciones nucleares que implican a los fotones radica en suponer que el fotón tiene un espín de 1. El fotón no se considera un leptón, puesto que este término se reserva para la familia formada por el electrón, el muón y la partícula tau, con sus correspondiente neutrinos: υe, υμ y υτ.

Existen razones teóricas para suponer que cuando las masas se aceleran (como cuando se mueven en órbitas elípticas en torno a otra masa o llevan a cabo un colapso gravitacional), emiten energía en forma de ondas gravitaciones. Esas ondas pueden, así mismo, poseer aspecto de partícula, por lo que toda partícula gravitacional recibe el nombre de gravitón.
La forma gravitatoria es mucho, mucho más débil que la fuerza electromagnética. Un protón y un electrón se atraen gravitacionalmente con sólo 1/1039 de la fuerza en que se atraen electromagnéticamente. El gravitón (aún sin descubrir) debe poseer, correspondientemente, menos energía que el fotón, y por tanto, ha de ser inimaginablemente difícil de detectar.
No será fácil detectar gravitones
De todos modos, el físico norteamericano Joseph Weber emprendió en 1.957 la formidable tarea de detectar el gravitón. Llegó a emplear un par de cilindros de aluminio de 153 cm de longitud y 66 de anchura, suspendidos de un cable en una cámara de vacío. Los gravitones (que serían detectados en forma de ondas) desplazarían levemente esos cilindros, y se empleó un sistema para detectar el desplazamiento que llegase a captar la cien billonésima parte de un centímetro. Las débiles ondas de los gravitones, que proceden del espacio profundo, deberían chocar contra todo el planeta, y los cilindros separados por grandes distancias se verán afectados de forma simultánea. En 1.969, Weber anunció haber detectado los efectos de las ondas gravitacionales. Aquello produjo una enorme excitación, puesto que apoyaba una teoría particularmente importante (la teoría de Einstein de la relatividad general). Desgraciadamente, nunca se pudo comprobar mediante las pruebas realizadas por otros equipos de científicos que duplicaron el hallazgo de Weber.
En cualquier caso, no creo que a estas alturas alguien pueda dudar de la existencia de los gravitones, el bosón mediador de la fuerza gravitatoria. La masa del gravitón es 0, su carga es 0, y su espín es 2. Como el fotón, no tiene antipartícula; ellos mismos hacen las dos versiones.
Emilio Silvera Vázquez
May
25
La importancia de las constantes universales
por Emilio Silvera ~
Clasificado en Física ~
Comments (7)
La afirmación “Lo que sucede primero no es necesariamente el principio” sugiere que la secuencia de eventos no siempre refleja la verdadera naturaleza del origen o la causa de algo. En términos filosóficos, esto puede relacionarse con conceptos como la causa, la razón y la determinación.

Para que esto llegara a suceder, antes tuvieron que pasar muchas cosas
Lo que sucede primero, no es necesariamente el principio. Antes de ese “Principio”, suceden algunas cosas que nosotros no hemos podido o sabido percibir. Sin embargo, hay cosas que no cambian nunca. Hace tiempo, los sucesos que constituían historias eran las irregularidades de la experiencia. Sabemos que lo que no cambia son las Constantes de la Naturaleza pero, tampoco cambian el Amor de una madre por un hijo, la salida y la puesta del Sol, nuestra curiosidad, y otras muchas cosas que conviven con nosotros en lo cotidiano:



:format(jpg)/f.elconfidencial.com%2Foriginal%2Fed3%2F856%2F7e7%2Fed38567e7c5a7e3907620d2b67c5a9e9.jpg)


Hay cosas en la Naturaleza que no son inmutables: La salida y la puesta del Sol, el día y la noche, la lluvia en Invierno, la calor en Verano, las erupciones volcánicas, las nevadas… Pero todos esos fenómenos naturales se producen reiteradamente pero de manera distinta en tiempo, intensidad y otros parámetros que no olas permiten ser Constantes de la Naturaleza.

Sin embargo otras si lo son: La Gravedad, la velocidad de la luz en el vacío, la Constante de estructura fina, la masa del protón, la carga del electrón entre otros, sí que son Constantes de la Naturaleza, sus valores no varían. Por ejemplo, si la masa de los protones o la carga de los electrones, variaran aunque solo fuese una diezmillonésima parte, la vida no podría existir.
La velocidad de la luz en el vacío (c), La Gravitación universal (G), la constante de estructura fina (σ), la constante de Planck (h), la carga del electrón o masa del protón…. Si cualquiera de ellas variara aunque sólo fuese una diezmillonésima… la vida no sería posible.

Las Constantes Universales son valores físicos fundamentales que no cambian a lo largo del tiempo ni en diferentes ubicaciones del Universo. Algunos ejemplos incluyen la constante de gravitación universal (G), la velocidad de la luz (c), la constante de Planck (h), y la constante de Boltzmann (k).
Poco a poco, los científicos llegaron a apreciar el misterio de la regularidad y lo predecible del mundo. Pese a la concatenación de movimientos caóticos e impredecibles de átomos y moléculas, nuestra experiencia cotidiana es la de un mundo que posee una profunda consistencia y continuidad. Nuestra búsqueda de la fuente de dicha consistencia atendía primero a las leyes de la Naturaleza que son las que gobiernan como cambian las cosas. Sin embargo, y al mismo tiempo, hemos llegado a identificar una colección de números misteriosos arraigados en la regularidad de la apariencia. Son las Constantes de la Naturaleza que, como la carga y la masa del electrón o la velocidad de la luz, le dan al Universo un carácter distintivo y lo singulariza de otros que podríamos imaginar. Todo esto, unifica de una vez nuestro máximo conocimiento y también, nuestra infinita ignorancia.
En esta galaxia también están presentes las constantes de la Naturaleza
Esos números misteriosos (el valor de esas constantes fundamentales), son medidos con una precisión cada vez mayor y modelamos nuestros patrones fundamentales de masa y tiempo alrededor de su invariancia. Sin embargo, no podemos explicar sus valores. ¿Por qué la constante de estructura fina vale 1/137? Nadie puede contestar a esa “simple” pregunta. Sabemos que ahí, en esa constante, están involucrados los tres guarismos h, e, y c. El primero es la constante de Planck (la mecánica cuántica), el segundo el Electrón (el electromagnetismo), y, el tercero, la velocidad de la luz (la relatividad especial de Einstein).
Es prodigioso que nuestras Mentes evolucionadas hayan podido dilucidar esos misterios
A pesar del cambio incesante y la dinámica del mundo visible, existen aspectos misteriosos del ritmo del Universo que son inquebrantables en su constancia, así lo podemos comprobar en la fuerza gravitatoria o en la velocidad de la luz en el vacío entre otros. Son estas misteriosas cosas invariables las que hacen de nuestro Universo el que es y lo distingue de otros muchos que pudiéramos imaginar. Existe un hilo invisible que teje incesante una continuidad a lo largo y a lo ancho de toda la Naturaleza: Algunas cosas cambian para que todo siga igual.
Detalle de la estrella ‘Mira’ (NASA)
La estela que arrastra Mira mide 13 años luz; es decir, tres veces la distancia que separa el sol de su estrella más cercana, alfa-centauro. Sin embargo, la estela nunca había sido observada porque sólo brilla en la luz ultravioleta. Precisamente el satélite Galex, puesto en órbita en abril de 2003, posee un telescopio de 50 centímetros de diámetro que observa galaxias en busca de fuentes de luz ultravioleta. Fue así como se topó como la estela de Mira.

Allí lejos, en esos otros mundos que, situados en galaxias lejanas son parecidos al nuestro, seguramente también, pasarán las mismas cosas que aquí
En regiones lejanas del Universo, por muy extrañas que nos pudieran parecer, también estarían regidas por las mismas constantes de la Naturaleza que en la nuestra, el Sistema solar. Esas constantes están presentes en todas partes y, al igual que las cuatro fuerzas fundamentales, disponen que todo transcurra como debe ser.
Así que, tomando como patrón universal esas constantes, podemos esperar que ciertas cosas sean iguales en otros lugares del espacio además de la Tierra, lo único que in situ, conocemos. Hasta donde nuestros conocimientos han llegado también parece razonable pensar que dichas constantes fueron y serán las mismas en otros tiempos además de hoy, ya que, para algunas cosas, ni la historia ni la geografía importan. De hecho, quizá sin un substrato semejante de realidades invariables no podrían existir corrientes superficiales de cambio ni ninguna complejidad de mente y materia. Todos sabemos, por ejemplo que, si la carga del electrón variara aunque sólo fuese una diez millonésima parte de la que es, la vida no podría existir.
![]()
Esas constantes hacen posible nuestra presencia aquí
La invariancia de las constantes hace posible que nuestro Universo contenga las maravillas que podemos en él observar. Sin embargo, a lo largo de la historia muchos se han empeñado en hacerlas cambiar…pero no lo consiguieron. No pocas veces tenemos que leer en la prensa o revistas “especializadas” noticas como estas:
“Nueva evidencia sostiene que los seres humanos vivimos en un área del Universo que está hecha especialmente para nuestra existencia. ¿Según los científicos? Esto es lo que más se aproxima a la realidad. El controversial hallazgo se obtuvo observando una de las constantes de la naturaleza, la cual parece ser diferente en distintas partes del cosmos.”
A día de hoy, las constantes universales son la velocidad de la luz en el vacío, que sustituye al metro; la constante de planck, que sustituiría al kilogramo; el número de avogadro, que reemplazaría al mol; la eficacia luminosa, que supliría a la candela; la constante de Boltzmann, que relevaría al Kelvin y el segundo de un reloj atómico de cesio para el segundo tradicional. Estos valores se ajustan mucho mejor a las necesidades y medidas físicas, pero recordemos que no son las únicas que le dan «vida» al universo.
Pero, ¿Qué son en realidad las constantes? Aunque apenas hemos comenzado a profundizar sobre este tema, ahora que tenemos más clara la identidad de algunas constantes será más fácil definirlas. Una constante física es el valor de una magnitud que permanece invariable en los procesos físicos a lo largo del tiempo. Las magnitudes pueden variar, cosa que tiene sentido, o estaríamos ante un universo muerto. Sin embargo, como veíamos, existen valores que no lo hacen, convirtiéndose en auténticas piedras de toque existenciales.

Si algunas de estas constantes variara, probablemente el universo dejaría de ser como es. Los valores son muy finos, verdaderamente delicados, lo que ha llevado a numerosas cuestiones filosóficas:
¿por qué justo estos valores?
Unas cifras constantes que permiten la existencia. Pero dejando de lado las hipótesis y cábalas más díscolas, lo cierto es que por el momento no concebimos que el universo pudiera ser de otra forma. Los valores son lo que tienen que ser, sin más.Decíamos que no sólo se trata de las constantes universales, sino que hay muchísimas más: la permitividad en el vacío, el radio de Bohr, la constante de Faraday… aunque en cierto sentido, la gran mayoría de estas son manifestaciones de los valores intrínsecos constantes. ¿Y para qué sirven? Las constantes universales sirven, sobre todo, para construir nuestro entendimiento en torno al universo en el que vivimos. Con estos valores podemos formular modelos y plantear hipótesis que nos den respuestas. Como explicábamos, son las piedras de toque, varas de medida, ejemplos perfectos. Son, nunca mejor dicho, lo que el metro sería a la distancia, pero llevado mucho más allá.

Arnold Sommerfeld
La constante de estructura fina es un número del que se habla poco en los medios y que es, quizás por ello, poco conocida entre los matemáticos. Para darse cuenta de su importancia, valgan dos citas de dos genios de la ciencia: Richard Feynman: «un número mágico que llega a nosotros sin ser comprendido»; Paul Dirac: «el problema más fundamental sin resolver de la física»
La Constante de estructura fina, simbolizada como α (alfa), es una constante física fundamental que describe la fuerza de la interacción electromagnética entre partículas cargadas. Es una cantidad adimensional y su valor numérico es independiente del sistema de unidades usado.
“Su valor aproximado es 1/137, y CODATA (Comité de Información para Ciencia y Tecnología) recomendó en 2018 usar este valor 137.035999084. Su origen se remonta a Arnold Sommerfeld, quien, en 1916, amplió el modelo de Bohr para incluir órbitas elípticas y la dependencia relativista de la masa con respecto a la velocidad. El espectro del átomo de hidrógeno había sido medido con mucha precisión por Michelson y Morley en 1887. La primera interpretación física de la constante de estructura fina α fue como la relación entre la velocidad del electrón en la primera órbita circular del átomo relativista de Bohr y la velocidad de la luz en el vacío. Equivalentemente, era el cociente entre el momento angular mínimo permitido por la relatividad para una órbita cerrada, y el momento angular mínimo permitido por la mecánica cuántica. Es decir, que determina el tamaño de la división o estructura fina de las líneas espectrales del átomo de hidrógeno. En 1928, Paul Dirac presentó una fórmula para su cálculo.”


El problema de si las constantes físicas son constantes se las trae. Aparte del trabalenguas terminológico arrastra tras de sí unas profundas consecuencias conceptuales. Lo primero, uno de los pilares fundamentales de la relatividad especial es el postulado de que las leyes de la física son las mismas con independencia del observador. Esto fue una generalización de lo que ya se sabía cuando se comenzó a estudiar el campo electromagnético, pero todo lo que sabemos en la actualidad nos lleva a concluir que Lo que ocurra en la Naturaleza del Universo está en el destino de la propia Naturaleza del Cosmos, de las leyes que la rigen y de las fuerzas que gobiernan sus mecanismos sometidos a principios y energías que, en la mayoría de los casos, se pueden escapar a nuestro actual conocimiento.
Los posibles futuros de nuestro universo, se estima que está predestinado en función de la masa que contenga, lo que los cosmólogos llaman Omega Negro, la Densidad Crítica

Yo aconsejaría a los observadores que informaron y realizaron “el estudio” (que se menciona más arriba) que prestaran más atención o que cambiaran los aparatos e instrumentos de los que se valieron para llevarlo a cabo, toda vez que hacer tal afirmación, además de osados, se les podría calificar de incompetentes.
De estar en lo cierto, tal informe se opondría al principio de equivalencia de Albert Einstein, el cual postula que las leyes de la física son las mismas en cualquier región del Universo. “Este descubrimiento fue una gran sorpresa para todos”, dice John Webb, de la Universidad de New South Wales, en Sidney (Australia ), líder del estudio que sigue diciendo: Aún más sorprendente es el hecho de que el cambio en la constante parece tener una orientación, creando una “dirección preferente”, o eje, a través del Universo. Esa idea fue rechazada más de 100 años atrás con la formulación de la teoría de la relatividad de Einstein que, de momento, no ha podido ser derrocada (aunque muchos lo intentaron).

Los autores de tal “estudio” se empeñaron en decir que:
“La Tierra se ubica en alguna parte del medio de los extremos, según la constante “alpha”. Si esto es correcto, explicaría por qué dicha constante parece tener un valor sutilmente sintonizado que permite la química, y por lo tanto la vida, como la conocemos.
Con un aumento de 4% al valor de “alpha”, por ejemplo, las estrellas no podrían producir carbón, haciendo nuestra bioquímica imposible, según información de New Scientist.”
Siendo cierto que una pequeña variación de Alfa, no ya el 4%, sino una simple diezmillonésima, la vida no podría existir en el Universo. Está claro que algunos, no se paran a la hora de adquirir una efímera notoriedad, ya que, finalmente, prevalecerá la verdad de la invariancia de las constantes que, a lo largo de la historia de la Física y la Cosmología, muchas veces han tratado de hacerlas cambiantes a lo largo del tiempo, y, sin embargo, ahí permanecen con su inamovible estabilidad.
Veamos por encima, algunas constantes:
La Constante de Gravitación Universal: G
La primera constante fundamental es G, la que ponemos delante de la fórmula de la gravedad de Newton. Es una simple constante de proporcionalidad pero también ajusta magnitudes: se expresa en N*m2/Kg2.
![]()
Es tal vez la constante peor medida (sólo se está seguro de las tres primeras cifras…), y como vemos la fuerza de la gravedad es muy débil (si no fuera porque siempre es atractiva ni la sentiríamos).
La Constante Electrica: K

No confundir con la constante K Bolztman para termodinámica y gases..
La ley de Coulom es practicamente igual a la de la gravitación de Newton, si sustituimos las masas por las cargas, es inversa al cuadrado de la distancia y tiene una constante de proporcionalidad llamada K. La constante es la de de Coulomb y su valor para unidades del SI es K = 9 * 109 * N * m2 / C2
La velocidad de la luz c = 299.792.458 m/s y se suele aproximar por 3·10^8m/s
Según la teoría de la relatividad de Einstein, ninguna información puede viajar a mayor velocidad que la luz. Científicos australianos afirman, sin embargo, haber desarrollado las fórmulas que describen viajes más allá de este límite.
Que la velocidad de la luz es una constante se comprobó hasta la saciedad en diversos experimentos, como el famoso experimento Michelson-Morley que determinó mediante un interferómetro que la velocidad de la luz no dependía de la velocidad del objeto que la emitía, esto descartó de golpe la suposición de que hubiera un “eter” o sustancia necesaria por la que se propagara la luz.
En su lugar aparecieron las famosas transformaciones de Lorentz. La contracción de Lorentz explicaba el resultado del experimento. La rapidez constante de la luz es uno de los postulados fundamentales (junto con el principio de causalidad y la equivalencia de los marcos de inercia) de la Teoría de la Relatividad Especial.
Así que, amigos míos, esas cantidades conservarán su significado natural mientras la ley de gravitación y la de la propagación de la luz en el vacío y los dos principios de la termodinámica sigan siendo válidos. A tal respecto Max Planck solía decir:
“Por lo tanto, al tratarse de números naturales que no inventaron los hombres, siempre deben encontrarse iguales cuando sean medidas por las inteligencias más diversas con los métodos más diversos” .
En sus palabras finales alude a la idea de observadores situados en otros lugares del Universo que definen y entienden esas cantidades de la misma manera que nosotros, sin importar que aparatos o matemáticas pudieran emplear para realizar sus comprobaciones.
Estaba claro que Planck apelaba a la existencia de constantes universales de la Naturaleza como prueba de una realidad física completamente diferente de las mentes humanas. Pero él quería ir mucho más lejos y utilizaba la existencia de estas constantes contra los filósofos positivistas que presentaban la ciencia como una construcción enteramente humana: puntos precisos organizados de una forma conveniente por una teoría que con el tiempo sería reemplazada por otra mejor. Claro que Planck reconocía que la inteligencia humana, al leer la naturaleza había desarrollado teorías y ecuaciones para poder denotarlas pero, sin embargo, en lo relativo a las constantes de la naturaleza, éstas habían surgido sin ser invitadas y, como mostraban claramente sus unidades naturales (unidades de Planck) no estaban escogidas exclusivamente por la conveniencia humana.

La velocidad de c incide en todo el universo
Las constantes de la Naturaleza inciden en todos nosotros y, sus efectos, están presentes en nuestras mentes que, sin ellas, no podrían funcionar de la manera creadora e imaginativa que lo hacen. Ellas le dan el ritmo al Universo y hacen posible que todo transcurra como debe transcurrir.
Es curioso comprobar que, una de las paradojas de nuestro estudio del Universo circundante es que a medida que las descripciones de su funcionamiento se hacen más precisas y acertadas, también se alejan cada vez más de toda la experiencia humana que, al estar reducidas a un ámbito muy local y macroscópico, no puede ver lo que ocurre en el Universo en su conjunto y, por supuesto, tampoco en ese otro “universo” de lo infinitesimal que nos define la mecánica cuántica en el que, cuando nos acercamos, podemos observar cosas que parecen fuera de nuestro mundo, aunque en realidad, sí que están aquí.

La revolución de la mecánica cuántica empieza a materializarse, y el qubit es el principal protagonista. Siendo la unidad mínima de información de este extraño mundo, permitirá procesar toda la información existente en segundos. La revolución de la mecánica cuántica empieza a materializarse, y el qubit es el principal protagonista. Siendo la unidad mínima de información de este extraño mundo, permitirá procesar toda la información existente en segundos.
No podemos descartar la idea de que, en realidad, puedan existir “seres también infinitesimales” que, en sus “pequeños mundos” vean transcurrir el tiempo como lo hacemos nosotros aquí en la Tierra. En ese “universo” especial que el ojo no puede ver, podrían existir otros mundos y otros seres que, como nosotros, desarrollan allí sus vidas y su tiempo que, aunque también se rigen por las invariantes constantes univerales, para ellos, por su pequeñez, el espacio y el tiempo tendrán otros significados. Si pensamos por un momento lo que nosotros y nuestro planeta significamos en el contexto del inmenso universo… ¿No viene a suponer algo así?
Einstein nos dejó dichas muchas cosas interesantes sobre las constantes de la Naturaleza en sus diferentes trabajos. Fue su genio e intuición sobre la teoría de la relatividad especial la que dotó a la velocidad de la luz en el vacío del status especial como máxima velocidad a la que puede transmitirse información en el Universo. El supo revelar todo el alcance de lo que Planck y Stoney simplemente habían supuesto: que la velocidad de la luz era una de las constantes sobrehumanas fundamentales de la Naturaleza.
La luz se expande por nuestro Universo de manera isotrópica, es decir, se expande por igual en todas las direcciones. Así actúan las estrellas que emiten su luz o la bombilla de una habitación. Cuando es anisotrópica, es decir que sólo se expande en una dirección, tendríamos que pensar, por ejemplo, en el foco de un teatro que sólo alumbra a la pianista que nos deleita con una sonata de Bach.
![]()
La luz de las estrellas: Podemos ver como se expande por igual en todas las direcciones del espacio (Isotrópica)
Claro que, cuando hablamos de las constantes, se podría decir que algunas son más constantes que otras. La constante de Boltzmann es una de ellas, es en realidad una constante aparente que surge de nuestro hábito de medir las cosas en unidades. Es sólo un factor de conversión de unidades de energía y temperatura. Las verdaderas constantes tienen que ser números puros y no cantidades con “dimensiones”, como una velocidad, una masa o una longitud.
Las cantidades con dimensiones siempre cambian sus valores numéricos si cambiamos las unidades en las que se expresan.

Las constantes fundamentales determinan el por qué, en nuestro Universo, las cosas son como las observamos.
Y, a todo esto, la teoría cuántica y de la Gravitación gobiernan reinos muy diferentes que tienen poca ocasión para relacionarse entre sí. Mientras la una está situada en el mundo infinitesimal, la otra, reina en el macrocosmos “infinito” del inmenso Universo. Sin embargo, las fuerzas que rigen en el mundo de los átomos son mucho más potentes que las que están presentes en ese otro mundo de lo muy grande. ¡Qué paradoja!
¿Dónde están los límites de la teoría cuántica y los de la relatividad general? Somos afortunados al tener la respuesta a mano, Las unidades de Planck nos dan la respuesta a esa pregunta:
Supongamos que tomamos toda la masa del Universo visible y determinamos la longitud de onda cuántica. Podemos preguntarnos en que momento esa longitud de onda cuántica del Universo visible superará su tamaño. La respuesta es: Cuando el Universo sea más pequeño que la longitud de Planck (10-33 centímetros), más joven que el Tiempo de Planck (10-43 segundos) y supere la Temperatura de Planck (1032 grados). Las unidades de Planck marcan la frontera de aplicación de nuestras teorías actuales. Para comprender a qué se parece el mundo a una escala menor que la Longitud de Planck tenemos que comprender plenamente cómo se entrelaza la incertidumbre cuántica con la Gravedad.
El satélite Planck un observatorio que explora el universo lleva el mismo nombre del fundador de la teoría cuántica será pura coincidencia?. Crédito: ESA. La Gravedad cuántica queda aún muy lejos de nuestro entendimiento.
La Relatividad General la teoría de Einstein de la gravedad, nos da una base útil para matemáticamente modelar el universo a gran escala -, mientras que la Teoría Cuántica nos da una base útil para el modelado de la física de las partículas subatómicas y la probabilidad de pequeña escala, de la física de alta densidad de energía de los inicios del universo – nanosegundos después del Big Bang – en la cuál la relatividad general sólo la modela como una singularidad y no tiene nada más que decir sobre el asunto.
Las teorías de la Gravedad Cuántica pueden tener más que decir, al extender la relatividad general dentro de una estructura cuantizada del espacio tiempo puede ser que nosotros podamos salvar la brecha existente entre la física de gran escala y de pequeña escala, al utilizar por ejemplo la Relatividad Especial Doble o Deformada.
¡Es tanto lo que nos queda por saber!
El día que se profundice y sepamos leer todos los mensajes subyacentes en el número puro y adimensional 137, ese día, como nos decía Heisenberg, se habrán secado todas las fuentes de nuestra ignorancia. Ahí, en el 137, Alfa (α) Constante de estructura Fina, residen los secretos de la Relatividad Especial, la Velocidad de la Luz, c, el misterio del electromagnetismo, el electrón, e, y, la Mecánica Cuántica, es decir el cuanto de acción de Planck, h
Emilio Silvera Vázquez
















Totales: 85.122.516
Conectados: 31







.































