Feb
26
¡La Física! ¿Qué haríamos sin ella?
por Emilio Silvera ~
Clasificado en Física ~
Comments (6)
Para no viajar muy atrás en el tiempo, fijaremos el punto de partida en 1687, fecha en que salió a la luz la Obra de Newton, sus Principas. El tiempo transcurrió hasta 1900, fecha en la que Planck publicó un artículo de ocho páginas con su idea del cuanto que sería la semilla que daría lugar al nacimiento de la mecánica cuántica. En 1905, aquel joven de la Oficina de Patentes de Berna, sorprendió al mundo de la Física con su Teoría de la Relatividad Especial. Se produjeron muchos desarrollos importantes para nuestras imágenes de la Física Fundamental. Uno de los mayores cambios ocurrido en ese período fue la comprensión, básicamente mediante los trabajos de Faraday y Maxwell en el siglo XIX, de que cierta noción de campo físico, que permea en el espacio, debe cohexistir con la previamente aceptada “realidad newtoniana” de las partículas individuales que interaccionan por medio de fuerzas instantáneas.
Conforme a lo que arriba decimos se producen fenómenos y se ponen en marcha mecanismos que hacen posible que, la imagen que vemos, pueda ser posible gracias a la presencia de fuerzas que, aunque no las podamos ver, su presencia se hace patente por los resultados que en su diversidad, son los mecanismos que llevan el ritmo del universo en el que vivímos.
Más tarde, esta noción de “campo” se convirtió también en un ingrediente crucial de la teoría de la Gravedad en un espaciotiempo curvo a la que llegó Einstein en 1915. Lo que ahora denominamos campos clásicos son el Campo Electromagnético de Maxwell y el Campo Gravitatorio de Einstein.
La presencia del campo gravitatorio de una masa afecta al tiempo y al espacio. La gravedad hace que dos relojes atrasen. Un reloj en la superficie de la Tierra atrasa con respecto a un reloj en la Luna, toda vez que el campo gravitatorio de la Tierra es más potente. De la misma manera, nos podríamos preguntar ¿por qué la gravedad actúa sobre el espacio y alarga el tamaño de los objetos (estirándolos). ¿Dónde podríamos crecer más, si viviéramos en la Tierra o en la Luna?
Pero sigamos. Hoy día sabemos que hay mucho más en la Naturaleza del mundo físico que la sola física clásica. Ya en 1900 -como decimos antes- Max Planck había reveleado los primeros indicios de la necesidad de una “teoría cuántica”, aunque se necesitó un cuarto de siglo más antes de que pudiera ofrecerse una teoría bien formulada y global. También debería quedar claro que, además de todos estos profundos cambios que se han producido en los fundamentos “newtonianos” de la física, ha habido otros desarrollos importantes, tanto previos a dichos cambios como coexistentes con algunos de ellos en forma de poderosos avances matemáticos, dentro de la propia teoría newtoniana.
En 1905 un desconocido Albert Einstein publicaría unos espectaculares estudios sobre la teoría de la relatividad, pero muy pocos científicos, entre ellos Planck, reconocerían inmediatamente la relevancia de esta nueva teoría científica. Tanta fue su importancia que incluso Planck contribuyo a ampliarla.
Pero igualmente, la hipótesis de Einstein sobre la ligereza del quantum (el fotón), basada en el descubrimiento de Philipp Lenard de 1902 sobre el efecto fotoeléctrico fue rechazada por Planck, al igual que la teoría de James Clerk Maxwell sobre la electrodinámica.
En 1910 Einstein desafía la explicación de la física clásica poniendo el ejemplo del comportamiento anómalo del calor específico en bajas temperaturas. Planck y Nernst decidieron organizar la primera Conferencia de Solvay, para clarificar las contradicciones que aparecían en la física. En esta reunión celebrada en Bruselas en 1911, Einstein consiguió convencer a Planck sobre sus investigaciones y sus dudas, lo que hizo forjar una gran amistad entre ambos científicos, y conseguir ser nombrado profesor de física en la universidad de Berlín mientras que Planck fue decano.

Otra área importante de avance sobre la que había que llamar la atención es la termodinámica (y su refinamiento conocido como mecánica estadística). Esta estudia el comportamiento de sistemas de un gran número de cuerpos, donde los detalles de los mocimientos no se consideran importantes y el comportamiento del sistema se describe en términos de promedios de las magnitudes adecuadas. Esta fue una empresa iniciada entre mediados del XIX y principios del XX, y los nombres de Carnot Clausius, Maxwell, Boltzmann, Gibbs y Einstein son los protagonistas.
Termodinámica.- Parte de la física que estudia las relaciones existentes entre los fenómenos dinámicos y los caloríficos. Trata de la transformación de la energía mecánica en calor y del calor en trabajo. También describe y relaciona las propiedades físicas de sistemas macroscópicos de materia y energía. La termodinámica estudia los sistemas que se encuentran en equilibrio. Esto significa que las propiedades del sistema—típicamente la presión, la temperatura, el volumen y la masa— son constantes.
Un concepto esencial de la termodinámica es el de sistema macroscópico, que se define como un conjunto de materia que se puede aislar espacialmente y que coexiste con un entorno infinito e imperturbable. El estado de un sistema macroscópico en equilibrio puede describirse mediante propiedades medibles como la temperatura, la presión o el volumen, que se conocen como variables termodinámicas. Es posible identificar y relacionar entre sí muchas otras variables (como la densidad, el calor específico, la compresibilidad o el coeficiente de expansión térmica), con lo que se obtiene una descripción más completa de un sistema y de su relación con el entorno. Cuando un sistema macroscópico pasa de un estado de equilibrio a otro, se dice que tiene lugar un proceso termodinámico. Las leyes o principios de la termodinámica, descubiertos en el siglo XIX a través de meticulosos experimentos, determinan la naturaleza y los límites de todos los procesos termodinámicos.
¿Cuales son los Principios de la Termodinámica?

Cuando dos sistemas están en equilibrio mutuo, comparten una determinada propiedad. Esta propiedad puede medirse, y se le puede asignar un valor numérico definido. Una consecuencia de ese hecho es el principio cero de la termodinámica, que afirma que si dos sistemas distintos están en equilibrio termodinámico con un tercero, también tienen que estar en equilibrio entre sí. Esta propiedad compartida en el equilibrio es la temperatura. Si uno de estos sistemas se pone en contacto con un entorno infinito situado a una determinada temperatura, el sistema acabará alcanzando el equilibrio termodinámico con su entorno, es decir, llegará a tener la misma temperatura que éste.
Primer Principio.-
La cantidad de calor entregado a un sistema es igual al trabajo realizado por el sistema más la variación de su energía interna. Cuando un sistema se pone en contacto con otro más frío que él, tiene lugar un proceso de igualación de las temperaturas de ambos. Para explicar este fenómeno, los científicos del siglo XVIII conjeturaron que una sustancia que estaba presente en mayor cantidad en el cuerpo de mayor temperatura fluía hacia el cuerpo de menor temperatura. El primer principio es una ley de conservación de la energía. Afirma que, como la energía no puede crearse ni destruirse —dejando a un lado las posteriores ramificaciones de la equivalencia entre masa y energía— la cantidad de energía transferida a un sistema en forma de calor más la cantidad de energía transferida en forma de trabajo sobre el sistema debe ser igual al aumento de la energía interna del sistema. A veces, el primer principio se enuncia como la imposibilidad de la existencia de un móvil perpetuo de primera especie.
Flujo de la energía en los ecosistemas. En los ecosistemas se cumplen pues el primer y segundo principio de la termodinámica.
Segundo Principio.-
El segundo dice que solamente se puede realizar un trabajo mediante el paso del calor de un cuerpo con mayor temperatura a uno que tiene menor temperatura. Al respecto, siempre se observa que el calor pasa espontáneamente de los cuerpos calientes a los fríos hasta quedar a la misma temperatura. La segunda ley afirma que la entropía, o sea, el desorden, de un sistema aislado nunca puede decrecer. Por tanto, cuando un sistema aislado alcanza una configuración de máxima entropía, ya no puede experimentar cambios: ha alcanzado el equilibrio. La naturaleza parece pues ‘preferir’ el desorden y el caos. Puede demostrarse que el segundo principio implica que, si no se realiza trabajo, es imposible transferir calor desde una región de temperatura más baja a una región de temperatura más alta. El segundo principio impone una condición adicional a los procesos termodinámicos. No basta con que se conserve la energía y cumplan así el primer principio. Una máquina que realizara trabajo violando el segundo principio se denomina “móvil perpetuo de segunda especie”, ya que podría obtener energía continuamente de un entorno frío para realizar trabajo en un entorno caliente sin coste alguno. A veces, el segundo principio se formula como una afirmación que descarta la existencia de un móvil perpetuo de segunda especie.
Tercer principio de termodinámica o principio onfalóscópico, (mirarse el ombligo): La televisión se retroalimenta a sí misma. Se hace televisión para hablar sobre televisión.
Tercer Principio.-
El tercer principio de la termodinámica afirma que el cero absoluto no puede alcanzarse por ningún procedimiento que conste de un número finito de pasos. Es posible acercarse indefinidamente al cero absoluto, pero nunca se puede llegar a él.
Ciclos termodinámicos.-
Todas las relaciones termodinámicas importantes empleadas en ingeniería se derivan del primer y segundo principios de la termodinámica. Resulta útil tratar los procesos termodinámicos basándose en ciclos: procesos que devuelven un sistema a su estado original después de una serie de fases, de manera que todas las variables termodinámicas relevantes vuelven a tomar sus valores originales. En un ciclo completo, la energía interna de un sistema no puede cambiar, puesto que sólo depende de dichas variables. Por tanto, el calor total neto transferido al sistema debe ser igual al trabajo total neto realizado por el sistema. Un motor térmico de eficiencia perfecta realizaría un ciclo ideal en el que todo el calor se convertiría en trabajo mecánico. El científico francés del siglo XIX Sadi Carnot, que concibió un ciclo termodinámico que constituye el ciclo básico de todos los motores térmicos, demostró que no puede existir ese motor perfecto. Cualquier motor térmico pierde parte del calor suministrado. El segundo principio de la termodinámica impone un límite superior a la eficiencia de un motor, límite que siempre es menor del 100%. La eficiencia límite se alcanza en lo que se conoce como ciclo de Carnot.
- Gravitación
- Luz
- Atracción y repulsión eléctricas
- Atracción y repulsión magnéticas
Pero sigamos con el objeto principla de este trabajo del que, como siempre me pasa, me he desviado a la termodinámica que ya se dio hace unos días. Aquí hablamos de los “campos clásicos” y, sobre las teorías físicas de campos de Maxwell y Einstein: la física “clásica” ¿Cómo pudieron hablar y describir a la perfección suscesos que el ojo no podía ver, y, simplemente con la imaginación, lo hicieron posible, hasta tal punto que, cuando hablamos de campos electromagnéticos o gravitatorios, en nuestras mentes se instalan las imágenes de unos y otros que podemos “ver” con toda precisión.
La teoría del electromagnetismo desempeña también un papel importante en la teoría cuántica, pues proporciona el “campo” arquetípico para el desarrollo posterios de la teoría cuántica de campos. Por el contrario, el enfoque cuántico apropiado del campo gravitatorio sigue siendo eninmático, escurridizo y controvertido y, abordar ahora aquí estas complejas cuestiones, seguramente daría lugar a explicaciones farragosas debido a mi ignorancia profunda en esos conocimientos y a la levedad de los que puedo poseer.
Los campos de fuerza de Faraday han dado lugar a que, la imaginación se desboque y corriendo hacia el futuro, haya imaginado inmensas ciudades que, situadas en lugares imposibles, sostienen sin problema a sus habitantes que, resguardados por un “campo de fuerza” están al resguardo de cualquier peligro que del exterior les pueda venir.
Por ahí arriba me refería al hecho de que ya en el siglo XIX se había iniciado un cambio profundo en los fundamentos newtonianos, antes de las revoluciones de la relatividad y la teoría cuántica en el siglo XX. El primer indicio de que sería necesario un cambio semejante se produjo con los maravillosos descubriumientos experimentales de Faraday hacia 1833, y de las representaciones de la realidad que encontró necesarias para acomodar dichos descubrimientos. Básicamente, el cambio fundamental consistió en considerar que las “partículas newtonianas” y las fuerzas” que actúan entre ellas no son los únicos habitantes de nuestro universo.
A partir de ahí había que tomar en serio la idea de un “campo” con una existencia propia incorpórea. Y, fue entonces cuando se produjo la providencial llegada de Maxwell que, al contrario de Faraday, él si entendía bien el complejo mundo de las matemáticas y, en 1864, formuló las ecuaciones que debe satisfacer este “campo” incorpóreo, y quien demostró que estos campos pueden transportar energía de un lugar a otro.
Transportando energía
Las ecuaciones de Maxwell unificaban el comportamiento de los campos eléctricos, los campos magnéticos e incluso la luz, y hoy día son conocidas como las ecuaciones de Maxwell, las primeras entre las ecuaciones de campo relativistas. Desde la perspectiva del siglo XX se han hecho profundos cambios y se ha producido profundos avances en las técnicas matemáticas, las ecuaciones de Maxwell parecen tener una naturalidad y simplicidad concincentes que nos hacen preguntarnos cómo pudo considerarse alguna vez que el campo electromagnético pudiera obedecer a otras leyes. Pero semejante perspectiva ignora el hecho de que fueron las propias ecuaciones de Maxwell las que llevaron a muchos de estos desarrollos matemáticos. Fue la forma de estas ecuaciones la que indujo a Lorentz, Poincaré y Einstein a las transformaciones espaciotemporales de la relatividad especial, que, a su vez, condujeron a la concepción de Minkowaki del espaciotiempo.
¡La Mente Humana! ?Hasta donde podrá llegar? ¿Qué limite tendrá impuesto? La respuesta es sencilla: ¡ No hay límites! Y, aunque dicha afirmación la repita en muchos de mis escritos, esa es la realidad.
emilio silvera
Feb
26
Una reacción nuclear “desafiante”
por Emilio Silvera ~
Clasificado en Física ~
Comments (0)
Una nueva clase de reacción de fisión nuclear observada en el CERN ha mostrado importantes puntos débiles en nuestro entendimiento actual del núcleo atómico. La fisión del mercurio-180 se suponía una reacción “simétrica” que daría lugar a dos fragmentos iguales, pero en lugar de ello ha producido dos núcleos con masas bastante diferentes, una reacción “asimétrica” que plantea un serio desafío a los teóricos.
La Ciencia no duerme. En todo el mundo (ahora también fuera de él -en el espacio), son muchos los Científicos que trabajan de manera tenaz para buscar nuevas formas de alcanzar lo ahora inalcanzable y, para ello, se emplean las más sofisticadas estructuras técnicas de avanzados sistemas tecnológicos que hacen posible llegar allí donde nunca nadie había llegado.
Nuevas teorías, nuevos caminos, nuevas investigaciones y, una buena dosis de imaginación que nos llevará hacia mundos imposibles, hacia descubrimientos impensables, hacia la posibilidad de descorrer el velo que esconde muchos de los secretos de la Naturaleza.
Cuanto más secretos podamos desvelar, más cerca estaremos de hacer frente a problemas hoy insolubles y que, el día de mañana, mirando hacia atrás con una sonrisa, podremos recordar como algo del pasado que, una vez superado, nos dio la posibilidad de alcanzar otros niveles más altos, la posibilidad de plantear nuevas preguntas y, la posibilidad de resolver nuevos problemas.
En el artículo que arriba hemos dejado, tenemos un ejemplo de lo poco que sabemos. Muchos creen saber lo que la Materia es, hablan de Gluones y Quarks, de protones y neutrones, de electrones y neutrinos de la Interacción fuerte, electromagnética, débil o de la Gravedad, y, con ello, se sienten muy satisfechos de poseer unos conocimientos profundos que estaban escondidos en las entrañas de la materia misma. Sin embargo, cada día que pasa, cada nueva investigación que realizamos, cada nivel que podemos subir en las energías que empleamos en la Investigación, podemos encontrarnos con asimetrías inesperadas que, de manera violenta nos saquen del error de creer que estamos en posesión de alguna verdad.
En la Ciencia, lo que denominamos “verdad” es efímero, y, lo que hoy puede considerarse como verdad, mañana pasará a ser la mayor de las mentiras. Acordaos de que la Tierra no es el centro de nada, y, que, en verdad, está situada en los suburbios de una Galaxia corriente, alumbrada por un Sol corriente y, seguramente, ocupada por unos seres “corrientes” que (no pondría la mano en el fuego por lo contrario) proliferan por todo el Universo y a los que, más tarde o más temprano, debemos encontrar.
¡La Ciencia! Esa parcela del saber Humano que, al igual que la Lengua y la Escritura, nos diferencia de otros animales que no tuvieron tanta suerte en el reparto.
emilio silvera
Feb
25
¡La Física! y sus personajes
por Emilio Silvera ~
Clasificado en Física ~
Comments (6)
George Gamow
(Odessa, Rusia, 1904 – Boulder, Estados Unidos, 1968) Físico estadounidense de origen ruso conocido por sus trabajos en el campo de la bioquímica y la astrofísica. En 1922 ingresó en la Universidad de Novorossia de su ciudad natal, y al año siguiente pasó a estudiar en la Universidad de Leningrado, centro donde obtuvo la licenciatura en 1926 y el doctorado en 1928. Tras completar su formación en la Universidad de Gotinga, en Copenhague, junto a Niels Bohr, y en Cambridge con Lord Rutherford, fue nombrado profesor de la Universidad de Leningrado, cargo que ejerció entre 1931 y 1933.
Durante esta época, sus investigaciones estuvieron centradas en la física atómica. En el curso 1933-1934 estuvo en el Instituto Pierre Curie de París y como profesor visitante de la Universidad de Londres, después viajó a Estados Unidos invitado como lector por la Universidad de Michigan y, a continuación, fue contratado como profesor de Física por la Universidad George Washington de la capital, puesto en el que permaneció hasta 1956.
Universidad George Washington de Michigan
Ya adquirida la nacionalidad estadounidense, durante los años de la Segunda Guerra Mundial fue llamado por el gobierno, como muchos otros científicos, para trabajar en el proyecto de la bomba atómica. Junto con Ralph Alpher desarrolló una teoría sobre la creación de los elementos químicos, basada en la explosión originaria de un átomo primitivo, conocida popularmente como Big Bang, que Georges Lemaître formuló en 1931 y que él contribuyó a divulgar; asimismo, desarrolló la teoría denominada Gamow-Teller y profundizó en el descubrimiento de Hans Bethe sobre el ciclo que produce la energía estelar.
Fue uno de los primeros científicos en contradecir la idea del enfriamiento del Sol, y en cambio, defender su progresivo calentamiento como posible causa de la extinción de la vida terrestre. En 1954 teorizó sobre la composición del código genético a base de tripletas de nucleótidos, y aunque se equivocó en los cálculos, la idea fue confirmada mediante experimentos en 1961. En 1958 contrajo matrimonio con Barbara Perkins. Desde 1956 fue profesor de Física Teórica en la Universidad de Colorado, y ese mismo año recibió el Premio Kalinga, concedido por la UNESCO por su labor divulgativa de la Ciencia. Sus obras más importantes fueron Un, dos, tres… infinito (1947) y La creación del universo (1952).
George Gamow, el excéntrico físico ruso que (en aquellos tiempos) arriesgí su vida para poder venir a trabajar en América, donde se convirtió en uno de los fundadores de la cosmología moderna e incluso contribuyó a la comprensión inicial de la molécula de ADN y el código genético. Gamow, como todos sus contemporáneos podía ver que había cuatro fuerzas distintas en la Naturaleza (Gravedad, Electromagnétismo y las fuerzas nucleares débil y fuerte). La intensidad de cada una de ellas daría uno de los números puros de Einstein que definen el mundo. Gamow no se veía particularmente atraído por la cuestión de si podía haber sólo un cuarteto de valores posibles. Pero comprender plenamente esos valores -una capacidad de calcularlos o predecirlos de forma precisa- sería para él lo mismo que para un físico el ondear de la bandera de cuadros. Cuando llegara ese día se habría alcanzado una comprensión completa de las fuerzas de la Naturaleza. Gamow se sentía un poco deprimido ante esta perspectiva, comparable a llegar al final de una gran historia o sentarse en la cima de una montaña que uno se ha esforzado en escalar y, al estar allí, preguntarse; ¿Y, ahora qué? ¿Aquí termina todo?
Vayamos hacia atrás en el Tiempo y hablemos un poco de George J. Stoney, el físico irlandés y pensador excéntrico y original al que, en realidad, debemos la forma de deducir si otros planetas del sistema solar poseían o no una atmósfera gaseosa, como la Tierra, calculando si su gravedad superficial era suficientemente intensa para mantener esa atmósfera.
Pero su pasión real estaba reservada a su idea más preciada: el “electrón”. Stoney había deducido que debía existir un componente básico de carga eléctrica. Estudiando los experimentos de Michael Faraday sobre electrolisis, Stoney había predicho incluso cuál debía ser su valor, una predicción posteriormente confirmada por J. J. Thomson, descubridor del electrón en Cambridge en 1.897, dándole la razón a Stoney que finalmente, a esta unidad básica de la electricidad, le dio el nombre de electrón con el símbolo e en 1.891 (antes de su descubrimiento).
Stoney, primo lejano y más viejo del famoso matemático, científico de computación y criptógrafo Alan Turing, también era tío de George Fitzgerald, después famoso por proponer la “contracción Fitzgerald-Lorentz”, un fenómeno que fue entendido finalmente en el contexto de la teoría de la relatividad especial de Einstein.
Stoney, podemos decir con seguridad, fue el primero que señaló el camino para encontrar lo que más tarde conoceríamos como constantes fundamentales, esos parámetros de la física que son invariantes, aunque su entorno se transforme. Ellas, las constantes, continúan inalterables como sucede, por ejemplo, con la velocidad de la luz c, que sea medida en la manera que sea, esté en reposo o esté en movimiento quien la mide o la fuente de donde parte, su velocidad será siempre la misma, 299.792.458 m/s. Algo análogo ocurre con la gravedad, G, que en todas partes mide el mismo parámetro o valor: G = 6’67259 × 10-11 m3 s-2 Kg-1. Es la fuerza de atracción que actúa entre todos los cuerpos y cuya intensidad depende de la masa de los cuerpos y de la distancia entre ellos; la fuerza gravitacional disminuye con el cuadrado de la distancia de acuerdo a la ley de la inversa del cuadrado.
Stoney, profesor de filosofía natural (así llamaban antes a la Física) en el Queen’s College Galway en 1.860, tras su retiro se trasladó a Hornsey, al norte de Londres, y continuó publicando un flujo de artículos en la revista científica de la Royal Dublín Society, siendo difícil encontrar alguna cuestión sobre la que no haya un artículo firmado por él.
Stoney recibió el encargo de hacer una exposición científica del tema que él mismo eligiera para el programa de la reunión de Belfast de la Asociación Británica. Pensando en qué tema elegir, se dio cuenta de que existían medidas y patrones e incluso explicaciones diferentes para unidades que median cosas o distancias o algún fenómeno: se preguntaba la manera de cómo definirlos mejor y como interrelacionarlos. Vio una oportunidad para tratar de simplificar esta vasta confusión de patrones humanos de medida de una manera tal que diese más peso a su hipótesis del electrón.
En tal situación, Stoney centró su trabajo en unidades naturales que transcienden los patrones humanos, así que trabajó en la unidad de carga electrónica (según su concepto), inspirado en los trabajos de Faraday como hemos comentado antes. También, como unidades naturales escogió G y c que responde, como se ha explicado, a la gravedad universal y la velocidad de la luz en el vacío.
En su charla de la Reunión de Belfast, Stoney se refirió al electrón como el “electrino” y dio el primer cálculo de su valor esperado. Demostró que el trío mágico de G, c y e podía combinarse de una manera, y sólo de una, de modo que a partir de ellas se creaban una unidad de masa, una unidad de longitud y una unidad de tiempo. Para la velocidad de la luz utilizó un promedio de las medidas existentes, c = 3 × 108 metros por segundo; para la constante de gravitación de Newton utilizó el valor obtenido por John Herschel, G = 6’67259 × 10-11 m3 s-2 Kg-1, y para la unidad de carga del “electrino” utilizó e = 10-20 amperios. Estas fueron las inusuales nuevas unidades que él encontró, en términos de las constantes e, c y G, y en términos de gramo, metros y segundos:
Mi = (e2/g)½ = 10-17 gramos
Li = ( Ge2/c4) ½ = 10-17 metros
Ti = (Ge2/c6)½ = 3 x 10-16 segundos
Estas son cantidades extraordinarias. Aunque una masa de 10-7 gramos no es demasiado espectacular-es similar a la de una mota de polvo- las unidades de longitud y tiempo de Stoney eran muy diferentes de cualquiera que hubieran encontrado antes los científicos. Eran fantásticamente pequeñas, rosando lo inconcebible. No había (y sigue sin haber) ninguna posibilidad de medir directamente tales longitudes y tiempos.
En cierto modo, esto es lo que se podría haber esperado. Estas unidades no están construidas deliberadamente a partir de dimensiones humanas, por conveniencia humana o para utilidad humana. Están definidas por la propia fábrica de la realidad física que determina la Naturaleza de la luz, la electricidad y la gravedad (c, e y G). No se preocupan de nosotros. Stoney triunfó de un modo brillante en su búsqueda de un sistema de unidades sobrehumanas.
Stoney señaló el camino que más tarde, siguió Planck para elaborar sus unidades y, entre ambos, nos han llevado al Universo de lo infinitesimal que, no por pequeño es menos importante, tanto es así que, estas unidades son las que marcan el límite de nuestras teorías actuales, no podemos ir más allá de su límites. Así resulta ser, por ejemplo con la Teoría M que, necesitando de la energía dee Planck para su verificación, no la tendremos ni ahora ni en muchas generaciones venideras.
La interpretación de las unidades naturales de Stoney-Planck no era en absoluto obvia para los físicos. Aparte de ocasionales comentarios de pasada, sólo a finales de la de´canda de 1960, el estudio renovado de la cosmología llevó a una plena coprensión de estos patrones extraños. Uno de los cuuriosos problemas de la física es que tiene dos teorías hermosamente efectivas -la mecánica cuántica y la relatividad general- pero gobiernan diferentes dominios de la naturaleza.
La una se encarga del micromundo de los átomos y de las partículas elementales. Por el contrario, la relatividad, es siempre necesaria cuando algo viaje a velocidades aluninantes cercanas a c, o, cuando está presente un cuerpo macroscópico que, como las galaxias, influyen en el espacio tiempo para distiorsionarlo y curvarlo. Asó que, con estos resultados, ambas teorías gobiernas “universos diferentes” y, esas fuerzas, no tienen ocasión ni oportunidad de “hablar entre sí” están separadas por distancias que, al parecer, y, al menos hasta el momento, son inalcanzables para ellas.
Hemos hablado de todos esas cuestiones y, de alguna manera, están relacionadas con la transmisión de información. Los límites últimos que podemos esperar para el almacenamiento de la información están impuestos por las constantes de la Naturaleza. Em 1981, un físico israelí, Jacob Bekenstein, hizo una prredicción inusual que estaba inspirada en su estudio de los agujeros negros. Calculó que hay una cantidad máxima de información que puede alnacenarce dentro de cualquier volumen. Esto no debería sorpenedernos, lo que debe´ria hacerlo es que el valor máximo está precisamente determinado por el área de la superficie que rodea al volumen, y no por el propio volumen.
El número máximo de bits de información que puede alnacenarse en un volumen viene dado precisamente por el cómputo de su área supercicial en unidades de Planck, Supongamos que la región esférica. Entonces su área superficieal es precisamente proporcional al cuadrado de su radio, mientras que el área de Planck es proporcional a la longitud e Planck al cuadrado (10-66 x R2. Esto es muchísimo mayor que cualquier capacidad de almnacenamiento de información producida hasta ahora. Asimismo, hay un límite último sobre el ritmo de procesamiento de la información que viene impuesto por las constantes de la Naturaleza, ninguna información se puede tansmitir más rápida que la velocidad de la luz. de Esa manera, de alguna forma, se han unido las dos teorías de la mecánica cuántica y de la relatividad, y, cada una de ellas, impone su criterio en el área que le corresponde mandar.
Todas las estructuras del Universo que se comportan como objetos estables, en realidad, se muestran así como consecuencia de que son, malabarismos que se producen entre dos fuerzas antagónicas equivalentes que consiguen esa “delicada” estabilidad que está centrada en la lucha entre la atracción y la reoulsión. Por ejemplo, en un planeta, como la Tierra, hay un equilibrio entre la fuerza atractiva de la Gravedad y la repulsión atómica que aparece cuando los átomos se comprimen demasiado juntos y se llegan a degenerar por el Principio de exclusión de Pauli quen no permite que dos fermiones ocupen el mismo lugar. Todos esos equilibrios pueden expresarse aproximadamente en términos de los números puros de Stobe-Planck creados a partir de las constantes e, h, c, G y mpr
α = 2πe2/hc = 1/137
αG = Gmpr 2/hc ≈ 10-38
La identificación de constantes de la Naturaleza como α y αG, junto con los números que desempeñam el mismo papel definitorio para las fuerzas débil y fuerte de la Naturaleza, nos anima a pensar por un momento en mundos diferentes al nuestro. Estos otros mundos pueden estar definidos por leyes de la Naturaleza iguales a las que gobiernan el universo tal como lo conocemos, pero estarán caracterizadas por duiferentes valores de constantes adimensionales. estos cambios numéricos alteran toda la fábrica de los mundos imaginarios. Los equilibrios entre los fuerzas serán diferentes de los que se dan en el nuestro. Los átomos pueden tener propiedades diferentes. La Gravedad podría tener un papel más pequeño en esos otros mundos. La Naturaleza cuántica de la realidad podría intervenir en lugares inimaginables.
Claro que, nosotros, nos tenekos que ceñir a éste, nuestro Universo que nos muestras unas leyes y unas constantes que son como son y no de otra manera y, de esa forma, está construido nuestro universo conocido que, en alguna ocasión he pensado sino tendrá “otro universo” escondido dentro de este mismo.
emilio silvera
Feb
22
¿Qué habrá en los Océanos de Higgs? ¡Si existen!
por Emilio Silvera ~
Clasificado en General ~
Comments (9)
No hemos escatimado en medios para encontrar, en los campos de Higgs, el Bosón que según se cree, suministra la masa a las partículas. Allí, en el océano de Higgs, se ro,pe la simetría de gran unificación, y, de no encontrarlo, ¿Sería un nuevo comienzo? La partícula está incluída (aunque sea con calzador), en el Modelo Estándar y, si no aparece, algunas cosas tendrán que cambiar.
Pero soy de la opinión que no debemos adelantar los acontecimientos y, debemos tener todas nuestras esperanzas puestas en que, la física teórica está próxima a obtener un gran éxito: confirmando la potencia de la simetría para conformar de manera correcta nuestros razonamientos matemáticos cuando se aventura en las profundidades de lo desconocido de la Naturaleza. Parece que estamos cerca y, si la noticia es confirmada…
Otro triunfo de la aparición del Bosón de Higgs, sería la confirmación de que, las fuerzas, en tiempos pasados eran una sola fuerza, es decir, el universo era parte de un todo simétrico que se desgarró en lo que actualmente conocemos. Por otra parte, sabiendo de la existencia del océano de Higgs, nuestra noción del espacio vacío tendría que ser re-establecida. Un espacio vacío no tiene que ser sinónimo de la NADA ABSOLUTA que, según parece, como la eternidad y lo infinito, no existen.
En Física, cuando hablamos del Campo de Higgs, todos pensamos, de inmediato, que es el campo responsable de la ruptura de simetría asociado con el Bosón de Higgs. El Campo de Higgs puede ser tanto una cantidad escalar elemental como el campo asociado con un estado ligado de dos fermiones. En el Modelo Winberg-Salam, el Campo de Higgs se considera como un campo escalar. En realidad no se saber si estas hipótesis son correctas o no (ahora esperamos que, “la aparición del Bosón de Higgs, algo más nos digan al respecto), aunque intentos de construir una teoría electrodébil con estados ligados para el Campo de Higgs, conocidos como teorías de Technicolor, no fueron exitosos.
Los Campos de Higgs también aparecen en sistemas de muchos cuerpos que pueden ser formulados como una teoría cuántica de campos con un Bosón de Higgs un ejemplo es la teoría BCS de la superconductividad, en la que el Campo de Higgs está asociado con un par de Cooper, en vez de con un campo escalar elemental.
No creo que ahí puedfa encontrar al Bosón de Higgs que, duerme en los profundiodades del océano
Los teóricos dicen que las masas de las partículas de nuestro modelo estándar miden con qué intensidad se acoplan éstas al campo de Higgs. La influencia de Higgs en las masas de los quarks y de los leptones, nos recuerda el descubrimiento por P. Zeeman, en 1.896, de la división de los niveles de energía de un electrón cuando se aplica un campo magnético al átomo. El campo (que representa metafóricamente el papel de Higgs) rompe la simetría del espacio de la que el electrón disfrutaba.
Hasta ahora no tenemos ni idea de que reglas controlan los incrementos de masa generados por el Higgs (de ahí la expectación creada por el nuevo acelerador de partículas LHC). Pero el problema es irritante: ¿por qué sólo esas masas –Las masas de los W+, W–, y Zº, y el up, el down, el encanto, el extraño, el top y el bottom, así como los leptones – que no forman ningún patrón obvio?
Las masas van de la del electrón 0’0005 GeV, a la del top, mayor que 91 GeV. Deberíamos recordar que esta extraña idea (el Higgs) se empleó con mucho éxito para formular la teoría electro débil (Weinberg-Salam). Allí se propuso el campo de Higgs como una forma de ocultar la unidad de las fuerzas electromagnéticas y débiles. En la unidad hay cuatro partículas mensajeras sin masa los W+, W–, Zº y fotón que llevan la fuerza electro-débil. Además está el campo de Higgs, y, rápidamente, los W y Z chupan la esencia de Higgs y se hacen pesados; el fotón permanece intacto. La fuerza electrodébil se fragmenta en la débil (débil porque los mensajeros son muy gordos) y la electromagnética, cuyas propiedades determina el fotón, carente de masa. La simetría se rompe espontáneamente, dicen los teóricos. Prefiero la descripción según la cual el Higgs oculta la simetría con su poder dador de masa.
Las masas de los W y el Z se predijeron con éxito a partir de los parámetros de la teoría electrodébil. Y las relajadas sonrisas de los físicos teóricos nos recuerdan que Gerard ´t Hooft y Veltman dejaron sentado que la teoría entera esta libre de infinitos.

Hasta hace algunas decenas de años, se consideraba que el espacio entre las estrellas estaba completamente vacío. Las observaciones ópticas y radioastronómicas han demostrado, en cambio, que éste está lleno de materia interestelar formada predominantemente por hidrógeno mezclado con minúsculas partículas sólidas, llamadas genéricamente polvo interestelar.
Todos los intentos y los esfuerzos por hallar una pista del cuál era el origen de la masa fallaron. Feynman escribió su famosa pregunta: “¿Por qué pesa el muón?”. Ahora, por lo menos, tenemos una respuesta parcial, en absoluto completa. Una vez potente y segura nos dice: “! Higgs ¡” Durante más de 60 años los físicos experimentadores se rompieron la cabeza con el origen de la masa, y ahora el campo Higgs presenta el problema en un contexto nuevo; no se trata sólo del muón. Proporciona, por lo menos, una fuente común para todas las masas. La nueva pregunta feynmariana podría ser: ¿Cómo determina el campo de Higgs la secuencia de masas, aparentemente sin patrón, que da a las partículas de la materia?
Siempre quisimos agarrar la fuente de la que surgía la materia.
Siempre nos hemos preguntado de dónde vino la materia. Hemos llegado a comprender que toda la materia está hecha y es energía concentrada. Con el paso del tiempo pudimos desmenuzar sus componentes y llegamos a ser conscientes de que toda la masa del Universo está conformada a partir de minúsculos objetos que llamamos partículas. Todo lo grande está hecho de cosas pequeñas.
La variación de la masa con el estado de movimiento, el cambio de masa con la configuración del sistema y el que algunas partículas (el fotón seguramente y los neutrinos posiblemente) tengan masa en reposo nula son tres hechos que ponen entre dicho que el concepto de masa sea una tributo fundamental de la materia. Habrá que recordar aquel cálculo de la masa que daba infinito y nunca pudimos resolver; los físicos sólo se deshicieron de él “renormalizándolo”, ese truco matemático que emplean cuando no saben hacerlo bien.
Ese es el problema de trasfondo con el que tenemos que encarar el problema de los quarks, los leptones y los vehículos de las fuerzas, que se diferencian por sus masas. Hace que la historia de Higgs se tenga en pie: la masa no es una propiedad intrínseca de las partículas, sino una propiedad adquirida por la interacción de las partículas y su entorno, y, según mi amigo Ramón Márquez, las partículas toman su masa debido al efecto frenado, cuando en su caminar, se deslizan por los Océanos de Higgs.
La idea de que la masa no es intrínseca como la carga o el espín resulta aún más plausible por la idílica idea de que todos los quarks y fotones tendrían masa cero. En ese caso, obedecerían a una simetría satisfactoria, la quiral, en la que los espines estarían asociados para siempre con su dirección de movimiento. Pero ese idilio queda oculto por el fenómeno de Higgs.
De todas las maneras, va siendo hora ya de que, de una vez por todas, podamos despejar la incognita que desde años atrás ha venido suponiendo el origen de la masa de las partículas y, si como se cree, la fuente está en ese campo de Higgs que ahora trata de sondear el LHC, esperemos que a no tardar mucho, tengamos la respuesta a esa pregunta.
Si al fin aparece el dichoso Bosón de Higgs (y espero que algunas cosas más), sabremos un poco más de los misterios de la Naturaleza y, podremos seguir adelante con la construcción de un Modelo Estándar que, para mi gusto, tiene demasiado parámetros aleatorios para que todo encaje.
¡Veremos qué pasa!
La idea de que la masa no es intrínseca como la carga o el espín resulta aún más plausible por la idílica idea de que todos los quarks y fotones tendrían masa cero. En ese caso, obedecerían a una simetría satisfactoria, la quiral, en la que los espines estarían asociados para siempre con su dirección de movimiento. Pero ese idilio queda oculto por el fenómeno de Higgs.
De todas las maneras, va siendo hora ya de que, de una vez por todas, podamos despejar la incognita que desde años atrás ha venido suponiendo el origen de la masa de las partículas y, si como se cree, la fuente está en ese campo de Higgs que ahora trata de sondear el LHC, esperemos que a no tardar mucho, tengamos la respuesta a esa pregunta.
Si al fin aparece el dichoso Bosón de Higgs (y espero que algunas cosas más), sabremos un poco más de los misterios de la Naturaleza y, podremos seguir adelante con la construcción de un Modelo Estándar que, para mi gusto, tiene demasiado parámetros aleatorios para que todo encaje.
¿El Bosón de higgs! Estará realmente ya, con nosotros.
emilio silvera
Feb
21
¿Habrá un Universo en la Sombra?
por Emilio Silvera ~
Clasificado en Astronomía y Astrofísica ~
Comments (2)
Algunos dicen que un resultado asombroso de la teoría de supercuerdas es que pueden dar lugar a otro tipo más de materia oscura. Y, me pregunto yo, ¿aún no hemos encontrado la primera y ya estamos hablando de una segunda? Hay una versión de la teoría de cuerdas que es muy llamativa desde el punto de vista estético, las ecuaciones parecen sugerir que en el Tiempo de Planck el Universo se dividió en dos partes separadas.
El simple hecho de que no podamos verlo, no quiere decir que no exista. Miramos la superficie pero, ¿que puede haber debajo de ella?
Siguiendo con lo que antes decía, está nuestro mundo normal con su complemento entero de partículas y compañeras supersimétricas, y hay, además, un mundo de sombra. La materia en ese mundo de sombra tiene un parecido con la del nuestro en que tambien tiene sus partículas y “spartículas”. Dentro de cada mundo, las partículas interaccionan unas con otras a través de un complemento entero de cuatro fuerzas. Sin embargo, las partículas de un mundo pueden interaccionar con las del otro mundo sólo a través de la fuerzqa de gravedad. Un electrón y un electrón de sombra pueden estart cerca el uno del otro y no sentir una fuerza eléctrica, aunque cada uno de ellos lleve consigo su propia versión de carga eléctrica. La única fuerza entre los dos sería la fuerza relativamente débil de la Gravedad.
Esta imagen de arriba vista una y mil veces, nos quiere transportar a esa materia en la sombra que es parte de ese universo que no podemos ver, y, sin embargo, por mucho que se haya podido hablar de todo esto, lo único cierto es que nada se sabe ym a pesar de ello, se hacen afirmaciones categóricas sobre lo que “sólo es una posibilidad” que se ha conjeturado a partir de abservaciones.
La odea de un universo en sombre nos proporciona una manera sencilla de pensar en la “materia oscura”. El Universo dividido en materia y en materia en la sombra situada en el Teimpo de Planck, y cada una evolucionó de acuerdo con sus leyes propias que le dieron también, sus propias propiedades: mientras que la una era luminosa y emitía radiaciones, la otra no lo era y, como consecuencia, no se dejaba ver.
No, esto no es la materia en la sombra de la que estamos tratando.
Existen aspirantes a ser materia en la sombra y, otro “caballero oscuro” lo tenemos en el Axión que es uno de los VIMPs favoritos como el fotino y otros compañeros, una pléyade de nuevas partículas (también, ¿cómo no?) hipótéticas que llegaron por consideraciones de simetría. Sin embargo, a diferencia de las partículas, sale de las Grandes Teorías Unificadas, que describen el universo en el segundo 10-35, más que de las teorías totalmente unificadas que operan en el Teimpo de Planck. La “materia oscura” se ha convertido en un caballo desbocado que nadie sabe hacia donde vá, ni dónde pueda estar, ni de qué está formada, ni…, ni…
Neutrinos, fotones, quarks, leptones, hadrones: bariones y mesones, todos, en definitiva son lo mismo, distintos estados de la materia que conforman unos y otros en determinadas ocasiones, y, en cada momento, ocupan el lugar que les destina en Universo adoptando la forma que en ese preciso instante les corresponde. Claro que, todos estos, son objetos de nuestro Universo luminoso, el otro, el Universo en la Sombra, ni sabemos si puede estar realmente ahí.
Durante mucho tiempo, los físicos han sabido que toda reacción entre partículas elementales obedece a una simetría que llamamos CPT. Esto significa que si miramos la partícula de una reacción, y luego vemos la misma reacción cuando (1) la miramos en un espejo, (2) sustituimos todas las partículas por antipartículas y (3) hacemos pasar la partícula hacia atrás, los resultados serán idénticos. En este esquema la P significa paridad (el espejo), la C significa conjugación de carga (poner las antipartículas) y T la reserva del Tiempo (pasar la partícula al revés).
Un alto en el camino para una explicación: Dado que la antimateria tiene la misma masa que la materia, es decir son de la misma magnitud y signo (la definición de masa es positiva siempre), el efecto gravitacional de la antimateria no debe ser distinto de la materia, es decir, siempre sera un efecto atractivo. Pero, ¿acaso no importa la equivalencia establecida de antipartícula viajando al futuro = partícula viajando al pasado?
La respuesta es sí. Dicha equivalencia proviene de algo llamado simetría CPT (Charge-Parity-Time), y nos dice que la equivalencia entre las partículas y antipartículas no solo corresponde a realizar una transformación sobre la carga, sino también sobre la paridad y el tiempo. La carga no afecta la gravedad, pero la paridad y el tiempo si la afectan. En otras palabras, al modificarse el tiempo (poner el tiempo al reves) y el espacio (la paridad es “girar” el espacio), estamos alterando el espacio-tiempo, y como la teoría general de la relatividad lo afirma, es la geometría de este el que determina la gravedad. Pero, a la larga, la geometría vendrá dada por la cantidad de materia que el universo pueda contener.
Reflexión especular
Se pensaba que el mundo era simétrico respecto a CPT porque, al menos al nivel de las partículas elementales, era simétrico respecto a C, P y T independientemente. Ha resultado que no es este el caso. El mundo visto en un espejo se desvía un tanto del mundo visto directamente, y lo mismo sucede con el mundo visto cuando la partícula pasa al revés. Lo que sucede es que las desviaciones entre el mundo real y el universo en cada uno de esos casos se cancelan una a la otra cuando miramos las tres inversiones combinadas.
Aunque esto es verdad, también es verdad que el mundo es casi simétrico respecto a CP actuando solos y a T actuando solo; es decir, que el mundo es casi el mismo si lo miran en un espejo y sustituyen las partículas por antipartículas que si lo miran directamente. Este “casi” es lo que procupa a los físicos. ¿Por qué son las cosas casi perfectas, pero les falta algo?
Los axiones se propusieron por primera vez a finales de la década de 1970 para resolver un misterio en la física de partículas conocido como el problema CP fuerte, aunque más recientemente se han propuesto como candidatos para la materia oscura, que es la misteriosa sustancia que forma casi un cuarto de la masa/energía del universo. Si existen, los axiones sería muy ligeros e interaccionarían muy débilmente con la materia – propiedades que hacen que sean difíciles de encontrar. De hecho, ningún experimento en la Tierra ha descubierto por ahora pruebas de los axiones.
Los cálculos de los cosmólogos muestran que en un universo en expansión como lo es el nuestro, sería de esperar que los Axiones (si realmente existen) formen una radiación de fondo parecida a la radiación de microondas de fondo de tres grados. Las irregularidades en este fondo de Axiones lo que pueden desempeñar el papel de la “materia oscura”.
Realmente ¿hablamos siempre de lo que sabemos?
¿Estamos perdidos y hablamos de fotinos, squarks, etc. Estas partículas que son predichas por las teorías que unifican todas las fuerzas de la naturaleza. Forman un conjunto de contrapartidas de las partículas a las que estamos habituados y que nos son bien conocidas. Se nombran en analogía a sus compaleras : el squars es el compañero supersimétrico del quark, el fotino del fotón, etxc. Las más ligeras de estas partículas ¿podrían ser la materia oscuira?. Si es así, cada partícula probablemente pesaría al menos cuarenta veces más que un protón.
Así que hablamos de “Materia en la Sombra” en algunas versiones de la Teoría de Supercuerdas en las que existen universos de materia en la Sombra que existen paralelos al nuestro. Los dos universos separados cuando la Gravedad se congeló separándose de las otras fuerzas. Las partículas de sombra interaccionan con nuestro mundo, sólo a tavés de la Gravedad y, algunos creen que son, las candidatas perfectas para ocupar el sitio de la “materia oscura”.
Algunos hasta se atreven a mostrarnos la distirbnución de WIMPs en la Galaxia
¿WIMPs en el Sol?
Hasta el momento, todas las partículas “raras” que hemos mencionado aquí, como posibles candidatas a ser “materia oscura”, son hipotéticas. No hay pruebas de que ninguna de ellas se vayan a encontrar, de hecho, en la Naturaleza. Sin embargo, sería poco serio no prestar alguna atención a la idea y a los argumentos que con ella van aparejados -un diminuto rayo de esperanza- viene a apoyar la existencia de WIMPs.
De hecho, la polémica es continuada y no dejan de salir noticias sobre estos extraños objetos: “La supuesta detección de WIMPs ñevanta la polémica en el campo de la deteccción directa de la materia oscura” ¡Qué cosas!
Desde hace ya años se propuso la existencia de partículas débilmente interactuantes o WIMPs para explicar la presencia de una masa que no podemos ver en ciertos fenómenos astronómicos, como en la rotación de galaxias. El 83% de la masa del Universo podría estar constituido por materia oscura cuya naturaleza nos es desconocida. Se ha realizado un esfuerzo por parte de diversos grupos de investigación a lo largo de todo el mundo para poder detectar esas partículas, que, por definición, son muy difíciles de detectar.
El experimento italiano DAMA/LIBRA ha venido detectando una modulación anual en la detección de unas partículas que podrían ser WIMPs durante los últimos tiempos. Sin embargo, otros grupos de investigación no lograban ver lo mismo. Ahora, el grupo de investigadores del experimento CoGeNT informa que están viendo una señal similar a la detectada por los italianos, por lo que se confirmarían sus resultados…”
Más de lo mismo, nadie se pone de acuerdo, unos dicen una cosa y los otros la contraria y, mientras tanto, “Científicos” bien situados, que ganan bastante dinero por asistir y hablar, nos van contando en charlas y siminarios, todas esas cuestiones que, sobre los WIMPs, las partículas supersimétricas, los Universos en Sombra, la Materia Oscura y, toda esa pléyade de fascinantes incongruencias, tanto les gusta oir al público en general.
Pies, siendo así (que lo es), sigamos suponiendo, conjeturando, intuyendo y teorizando pero, por favor, con cierto decoro.
emilio silvera