Abr
8
La física no duerme
por Emilio Silvera ~ Clasificado en Física ~ Comments (0)
Ciencia-ABC
Hallan fuertes indicios de una partícula desconocida capaz de romper los esquemas de la Física. Lo cierto es que, los físicos experimentadores no dejan de buscar en el LHC y otros aceleradores de partículas sobre “cosas” que intuyen los teóricos y desean verificar.
Científicos del Gran Colisionador de Partículas, del CERN, han obtenido evidencias de una anomalía que podría ser la primera pieza de una nueva teoría global, más allá del Modelo Estándar
Experimento en el LHCb que ha encontrado estos indicios – CERN
Obtienen intrigantes resultados en este experimento
“El experimento LHCb, fue diseñado principalmente para realizar mediciones precisas de los elementos de la matriz de mezcla de quarks, especialmente las fases entre la segunda y la tercera generación.”
Los hallazgos más importantes realizados en el CERN (Organización Europea para la Investigación Nuclear) se anuncian primero en seminarios destinados a científicos y no en multitudinarias ruedas de prensa. Así ocurrió por ejemplo cuando se descubrió el bosón de Higgs. Y no es para menos: esta partícula completó por fin el Modelo Estándar de la Física, el marco teórico con el que se explica el comportamiento del Universo a través de cuatro fuerzas o interacciones fundamentales y de un puñado de partículas. Pero también se convocó uno de estos seminarios cuando los análisis sugirieron en 2016 la existencia de una nueva partícula que en realidad era una decepción.
“Un pentaquark es una partícula subatómica hipotética compuesta por un grupo de cinco, cuatro quarks y un antiquark ligados juntos, por lo que es rara respecto a los tres quarks normales de los bariones y a los dos de los mesones.”
Este mismo martes se celebró otro de estos seminarios en el CERN. Los científicos han sido tan cautelosos como siempre, y han dejado claro que serán necesarias más observaciones para confirmarlo. Pero los investigadores de uno de los experimentos del Gran Colisionador de Partículas (LHC), el LHCb, han anunciado el hallazgo de fuertes evidencias de la existencia de una discrepancia con el Modelo Estándar de la Física. Esto puede querer decir que en la materia existe una partícula desconocida que podría romper los esquemas de la Física actual.
«Sería la primera vez que logramos ver algo que va más allá del Modelo Estándar»
«Si esto se confirmara estaríamos ante la primera pieza de un nuevo gran puzle», ha explicado a ABC Joaquim Matias, un físico teórico de la Universidad Autónoma de Barcelona y del IFAE (Instituto de Física de Altas Energías). «Sería la primera vez que logramos ver algo que va más allá del Modelo Estándar. El impacto sería brutal».
A día de hoy el Modelo Estándar de la Física es incapaz de explicar cosas como el origen de la materia oscura o la asimetría entre materia y anti-materia. Por eso los físicos siguen empeñados en hacer chocar partículas a altas velocidades y en observar los efectos de su destrucción, en busca de nuevas partículas y fuerzas que puedan ayudar a completar el puzle.
Hacerlo requiere usar complejísimas instalaciones y modelos matemáticos. Los físicos han de trabajar con los resultados de millones de colisiones y fluctuaciones energéticas y desechar los posibles efectos del ruido o de los errores experimentales.
La clave, en los mesones B
En esta ocasión, el posible hallazgo de la revolucionaria partícula no se ha conseguido en los grandes detectores del LHC, los ATLAS y CMS, sino en el más pequeño LHCb. Este se encarga de estudiar a una familia de partículas muy concretas: los mesones B.
¿Qué son estos mesones? Son partículas compuestas a su vez por otras partículas fundamentales, conocidas como quarks, que son, entre otras cosas, los constituyentes de los más familiares protones. Pues bien, lo interesante de estos mesones es que se descomponen en apenas nanosegundos y que en el camino liberan energía y partículas que son muy interesantes para los físicos, porque quizás podrían dar información sobre lo que hay más allá del Modelo Estándar.
Este gran modelo predice qué debe ocurrir al descomponer un mesón B. Pero ahora, los investigadores han obtenido evidencias sólidas de que en su laboratorio los mesones no se han comportado como se esperaba. Eso podría querer decir que han cometido algún error o bien que han encontrado las huellas de una nueva partícula que contradice lo que se daba por sentado hasta ahora.
«Segun el Modelo Estándar, cuando se descompone un mesón B se desintegra en una particula vectorial llamada K* y en una pareja de muón (parecida a un electrón pero con más masa) y anti-muón (igual que un muón pero con carga opuesta) con la misma frecuencia que a una pareja electrón y positrón (igual que un electrón pero con carga opuesta», ha dicho Joaquim Matías.
Es decir, de acuerdo con una especie de principio democrático, conocido como «universalidad del sabor de los leptones», en un 50 por ciento de los casos se produciría una pareja y en otro 50 por ciento la otra. Pero los investigadores del CERN han visto que se suele formar más un tipo de dúo que el otro. Por eso se dice que han hallado indicios de una violación del principio de la universalidad de los leptones y, por ende, del Modelo Estándar.
Una posible nueva partícula: el bosón Z´
«Si confirmáramos esta violación, tendríamos una clara dirección en la que buscar la nueva Física. Tendríamos que descartar todos los modelos que cuentan con ese principio de la universalidad, lo que tendría un gran impacto», ha aclarado el investigador.
Además, esto incorporaría una nueva partícula al repertorio de los físicos, y que se llamaría bosón Z´. Sería cercana al bosón Z, una de las partículas fundamentales que explica la interacción débil, una fuerza que se manifiesta en los núcleos de los átomos. Al mismo tiempo, otros ya han propuesto una explicación alternativa, centrada en un lepton-quark, una nueva partícula que transmite información entre leptones y quarks, tal como ha informado Science.
¿Se debe dudar de esto?
¿Hasta qué punto se debe confiar o dudar de estos hallazgos? los científicos del CERN han evaluado la seguridad de que los resultados se deban a la existencia de un nuevo fenómeno por descubrir o a una jugarreta del azar. Después de hacerlo, han obtenido un nivel de significacion sigma de tres, lo que para los físicos quiere decir que están ante una evidencia de que están observando algo interesante. Sin embargo, los datos aún no han permitido llegar al nivel de significación de cinco, que es el que le corresponde a los descubrimientos, como el bosón de Higgs.
Pero hay más señales de que los físicos están ante algo grande. Otros experimentos realizados en 2013 y 2015 por parte del LHCb y por otros instrumentos, como el ATLAS, el CMS y el Belle (en Japón), también analizaron la descomposición de estos mesones B. Al considerar todos estos datos en conjunto, el equipo de Joaquim Matias ha obtenido un nivel sigma de cinco para estas anomalías, tal como han publicado este miércoles en arXiv.org, un portal donde se publican artículos científicos antes de ser revisados por editores de revistas.
Según Matias, hay varios motivos para esperar la importante confirmación o descarte de estos resultados este mismo año. Muchos experimentadores ya han dicho que tratarán de estudiarlo tan pronto como sea posible. Entre ellos están los científicos del LHCb. En su favor está el hecho de que obtuvieron las evidencias presentadas recientemente con datos recogidos entre 2011 y 2012, y que ahora tienen a su disposición la información recogida entre 2012 y 2013. De hecho, responsables del CERN anunciaron que van a tratar de profundizar en estos experimentos este mismo año. Por último, a partir del año que viene el experimento Belle 2, en Japón, contará con un instrumental muy sofisticado y sensible para hacer este tipo de experimentos.
La explosión científica ya se ha desatado. Algo muy grande podría descubrirse este mismo año.
Abr
2
La maravilla de… ¡los cuantos!
por Emilio Silvera ~ Clasificado en Física Cuántica ~ Comments (1)
La Física del siglo XX empezó exactamente en el año 1900, cuando el físico alemán Max Planck propuso una posible solución a un problema que había estado intrigando a los físicos durante años. Es el problema de la luz que emiten los cuerpos calentados a una cierta temperatura, y también la radiación infrarroja emitida, con menos intensidad, por los objetos más fríos. Planck escribió un artículo de ocho páginas y el resultado fue que cambió el mundo de la física y aquella páginas fueron la semilla de la futura ¡mecánica cuántica! que, algunos años más tardes, desarrollarían físicos como Einstein (Efecto fotoeléctrico), Heisenberg (Principio de Incertidumbre), Feynman, Bhor, Schrödinger, Dirac…
La expresión radiación se refiere a la emisión continua de energía de la superficie de todos los cuerpos. Los portadores de esta energía son las ondas electromagnéticas producidas por las vibraciones de las partículas cargadas que forman parte de los átomos y moléculas de la materia. La radiación electromagnética que se produce a causa del movimiento térmico de los átomos y moléculas de la sustancia se denomina radiación térmica o de temperatura.
Ley de Planck para cuerpos a diferentes temperaturas.
Estaba bien aceptado entonces que esta radiación tenía un origen electromagnético y que se conocían las leyes de la naturaleza que regían estas ondas electromagnéticas. También se conocían las leyes para el frío y el calor, la así llamada “termodinámica”, o al menos eso parecía.
Pero si usamos las leyes de la termodinámica para calcular la intensidad de la radiación, el resultado no tiene ningún sentido. Los cálculos nos dicen que se emitiría una cantidad infinita de radiación en el ultravioleta más lejano, y, desde luego, esto no es lo que sucede. Lo que se observa es que la intensidad de la radiación muestra un pico o una cierta longitud de onda característica, y que la intensidad disminuye tanto para longitudes mayores como para longitudes menores. Esta longitud característica es inversamente proporcional a la temperatura absoluta del objeto radiante (la temperatura absoluta se define por una escala de temperatura que empieza a 273 ºC bajo cero). Cuando a 1.000 ºC un objeto se pone al “rojo vivo”, el objeto está radiando en la zona de la luz visible.
Acero al “rojo vivo”, el objeto está radiando en la zona de la luz visible.
Lo que Planck propuso fue simplemente que la radiación sólo podía ser emitida en paquetes de un tamaño dado. La cantidad de energía de uno de esos paquetes, o cuantos, es inversamente proporcional a la longitud de onda y, por lo tanto, proporcional a la frecuencia de la radiación emitida. La sencilla fórmula es:
E = hv
Donde E es la energía del paquete, v es la frecuencia y h es una nueva constante fundamental de la naturaleza, la constante de Planck. Cuando Planck calculó la intensidad de la radiación térmica imponiendo esta nueva condición, el resultado coincidió perfectamente con las observaciones.
Poco tiempo después, en 1905, Einstein formuló esta teoría de una manera mucho más tajante: el sugirió que los objetos calientes no son los únicos que emiten radiación en paquetes de energía, sino que toda la radiación consiste en múltiplos del paquete de energía de Planck.
El príncipe francés Louis Victor de Broglie, dándole otra vuelta a la teoría, que no sólo cualquier cosa que oscila tiene una energía, sino que cualquier cosa con energía se debe comportar como una “onda” que se extiende en una cierta dirección del espacio, y que la frecuencia, v, de la oscilación verifica la ecuación de Planck. Por lo tanto, los cuantos asociados con los rayos de luz deberían verse como una clase de partículas elementales: el fotón. Todas las demás clases de partículas llevan asociadas diferentes ondas oscilatorias de campos de fuerza.
Es curioso el comportamiento de los electrones en el interior del átomo, descubierto y explicado por el famoso físico danés Niels Bohr, se pudo atribuir a las ondas de De Broglie. Poco después, en 1926, Edwin Schrödinger descubrió como escribir la teoría ondulatoria de De Broglie con ecuaciones matemáticas exactas. La precisión con la cual se podían realizar los cálculos era asombrosa, y pronto quedó claro que el comportamiento de todos los objetos pequeños quedaba exactamente determinado por las recién descubiertas “ecuaciones de onda cuántica”.
No hay duda de que la Mecánica Cuántica funciona maravillosamente bien. Sin embargo, surge una pregunta muy formal: ¿Qué significan realmente esas ecuaciones?, ¿Qué es lo que están describiendo? Cuando Isaac Newton, allá por el año 1687, formuló cómo debían moverse los planetas alrededor del Sol, estaba claro para todo el mundo lo que significaban sus ecuaciones: que los planetas están siempre en una posición bien definida en el espacio y que sus posiciones y sus velocidades en un momento concreto determinan inequívocamente cómo evolucionarán las posiciones y las velocidades con el tiempo.
Pero para los electrones todo esto es muy diferente. Su comportamiento parece estar envuelto en la bruma. Es como si pudieran “existir” en diferentes lugares simultáneamente, como si fueran una nube o una onda, y esto no es un efecto pequeño. Si se realizan experimentos con suficiente precisión, se puede determinar que el electrón parece capaz de moverse simultáneamente a lo largo de trayectorias muy separadas unas de otras. ¿Qué puede significar todo esto?
Niels Bohr consiguió responder a esta pregunta de forma tal que con su explicación se pudo seguir trabajando y muchos físicos siguen considerando su respuesta satisfactoria. Se conoce como la “interpretación de Copenhague” de la Mecánica Cuántica. En vez de decir que el electrón se encuentra en el punto x o en el punto y, nosotros hablamos del estado del electrón. Ahora no tenemos el estado “x” o el estado “y”, sino estados “parcialmente x” o “parcialmente y. Un único electrón puede encontrarse, por lo tanto, en varios lugares simultáneamente. Precisamente lo que nos dice la Mecánica Cuántica es como cambia el estado del electrón según transcurre el tiempo.
Un “detector” es un aparato con el cual se puede determinar si una partícula está o no presente en algún lugar pero, si una partícula se encuentra con el detector su estado se verá perturbado, de manera que sólo podemos utilizarlo si no queremos estudiar la evolución posterior del estado de la partícula. Si conocemos cuál es el estado, podemos calcular la probabilidad de que el detector registre la partícula en el punto x.
Las leyes de la Mecánica Cuántica se han formulado con mucha precisión. Sabemos exactamente como calcular cualquier cosa que queramos saber. Pero si queremos “interpretar” el resultado, nos encontramos con una curiosa incertidumbre fundamental: que varias propiedades de las partículas pequeñas no pueden estar bien definidas simultáneamente. Por ejemplo, podemos determinar la velocidad de una partícula con mucha exactitud, pero entonces no sabremos exactamente dónde se encuentra; o, a la inversa. Si una partícula tiene “espín” (rotación alrededor de su eje), la dirección alrededor de la cual está rotando (la orientación del eje) no puede ser definida con gran precisión.
No es fácil explicar con sencillez de dónde viene esta incertidumbre, pero hay ejemplos en la vida cotidiana que tienen algo parecido. La altura de un tono y la duración en el tiempo durante el cual oímos el tono tienen una incertidumbre mutua similar.
¿Onda o partícula? ¡Ambas a la vez! ¿Cómo es eso?
“La dualidad onda-corpúsculo, también llamada dualidad onda–partícula es un fenómeno cuántico, bien comprobado empíricamente, por el cual muchas partículas pueden exhibir comportamientos típicos de ondas en unos experimentos mientras aparecen como partículas compactas y localizadas en otros experimentos.”
Para que las reglas de la Mecánica Cuántica funcionen, es necesario que todos los fenómenos naturales en el mundo de las cosas pequeñas estén regidos por las mismas reglas. Esto incluye a los virus, bacterias e incluso a las personas. Sin embargo, cuanto más grande y más pesado es un objeto más difícil es observar las desviaciones de las leyes del movimiento “clásicas” debidas a la mecánica cuántica.
Me gustaría referirme a esta exigencia tan importante y tan peculiar de la teoría con la palabra “holismo”. Esto no es exactamente lo mismo que entienden algunos filósofos por “holismo”, y que se podría definir como “el todo es más que la suma de las partes”.
Bien, si la Física nos ha enseñado algo, es justamente lo contrario: un objeto compuesto de un gran número de partículas puede ser entendido exactamente si se conocen las propiedades de sus partes (las partículas): basta que uno sepa sumar correctamente (¡y esto no es nada fácil en mecánica cuántica!). Lo que yo entiendo por holismo es que, efectivamente, el todo es la suma de las partes, pero sólo se puede hacer la suma si todas las partes obedecen a las mismas leyes.
Por ejemplo, la constante de Planck, h = 6,626075…x 10 exp. -34 julios segundo, debe ser exactamente la misma para cualquier objeto en cualquier sitio, es decir, debe ser una constante universal.
Las reglas de la mecánica cuántica funcionan tan bien que refutarlas resulta realmente difícil. Los trucos ingeniosos descubiertos por Werner Heisenberg, Paul Dirac y muchos otros mejoraron y completaron las reglas generales. Pero Einstein y otros pioneros tales como Edwin Schrödinger, siempre presentaron serias objeciones a esta interpretación.
Quizá funcione bien, pero ¿Dónde está exactamente el electrón, en el punto x o en el punto y? Em pocas palabras, ¿Dónde está en realidad?, ¿Cuál es la realidad que hay detrás de nuestras fórmulas? Si tenemos que creer a Bohr, no tiene sentido buscar tal realidad. Las reglas de la mecánica cuántica, por sí mismas, y las observaciones realizadas con detectores son las únicas realidades de las que podemos hablar.
Hasta hoy, muchos investigadores coinciden con la actitud pragmática de Bohr. Los libros de historia dicen que Bohr demostró que Einstein estaba equivocado. Pero no son pocos, incluyéndome a mí, los que sospechamos que a largo plazo el punto de vista de Einstein volverá: que falta algo en la interpretación de Copenhague. Las objeciones originales de Einstein pueden superarse, pero aún surgen problemas cuando uno trata de formular la mecánica cuántica para todo el Universo (donde las medidas no se pueden repetir) y cuando se trata de reconciliar las leyes de la mecánica cuántica con las de la Gravitación… ¡Infinitos!
La mecánica cuántica y sus secretos han dado lugar a grandes controversias, y la cantidad de disparates que ha sugerido es tan grande que los físicos serios ni siquiera sabrían por donde empezar a refutarlos. Algunos dicen que “la vida sobre la Tierra comenzó con un salto cuántico”, que el “libre albedrío” y la “conciencia” se deben a la mecánica cuántica: incluso fenómenos paranormales han sido descritos como efectos mecano-cuánticos.
Yo sospecho que todo esto es un intento de atribuir fenómenos “ininteligibles” a causas también “ininteligibles” (como la mecánica cuántica) dónde el resultado de cualquier cálculo es siempre una probabilidad, nunca una certeza.
Claro que, ahí están esas teorías más avanzadas y modernas que vienen abriendo los nuevos caminos de la Física y que, a mi no me cabe la menor duda, más tarde o más temprano, podrá explicar con claridad esas zonas de oscuridad que ahora tienen algunas teorías y que Einstein señalaba con acierto.
¿No es curioso que, cuando se formula la moderna Teoría M, surjan, como por encanto, las ecuaciones de Einstein de la Relatividad General? ¿Por qué están ahí? ¿Quiere eso decir que la Teoría de Einstein y la Mecánica Cuántica podrán al fin unirse en pacifico matrimonio sin que aparezcan los dichosos infinitos?
Bueno, eso será el origen de otro comentario que también, cualquier día de estos, dejaré aquí para todos ustedes.
emilio silvera
Abr
2
¡La Física! Siempre presente en nuestras vidas
por Emilio Silvera ~ Clasificado en Física ~ Comments (1)
En 1.849, el físico francés Armand-Hippolyte-Louis Fizeau ideó un artificio mediante el cual se proyectaba la luz sobre un espejo situado a 8 km de distancia, que devolvía el reflejo al observador. El tiempo empleado por la luz en su viaje de ida y vuelta no rebasó apenas la 1/20.000 de segundo, pero Fizeau logró medirlo colocando una rueda dentada giratoria en la trayectoria del rayo luminoso. Cuando dicha rueda giraba a cierta velocidad, regulada, la luz pasaba entre los dientes y se proyectaba contra el siguiente, al ser devuelta por el espejo; así, Fizeau, colocado tras la rueda, no pudo verla. Entonces se dio más velocidad a la rueda, y el reflejo pasó por la siguiente muesca entre los dientes, sin intercepción alguna. De esa forma, regulando y midiendo la velocidad de la rueda giratoria, Fizeau pudo calcular el tiempo transcurrido y, por consiguiente, la velocidad a que se movía el rayo de luz.
Jean-Bernard-Léon Foucault suspendió una bola de 62 libras (unos 28 kilogramos) de hierro desde la cúpula del Panteón y lo puso en movimiento, balanceándolo. Para marcar su progreso el enganchó una aguja a la bola y colocó un anillo de tierra mojada en el suelo bajo él. La audiencia observó con pavor como el péndulo inexplicablemente parecía rotar, dejando un trazo ligeramente distinto en cada balanceo. En realidad era el suelo del Panteón el que estaba ligeramente en movimiento, y Foucault había demostrado, de una forma más convincente que nunca, que la tierra gira sobre su eje. En la latitud de París, el trazo del péndulo completaría una rotación completa en el sentido horario cada 30 horas; en el hemisferio sur rotaría en sentido antihorario, y en el ecuador no rotaría nada. En el Polo Sur, como han confirmado los científicos de la era moderna, el periodo de rotación es de 24 horas.
Un año más tarde, Jean Foucault (quien realizaría poco después su experimento -arriba- con los péndulos) precisó más estas medidas empleando un espejo giratorio en ve de una rueda dentada. Entonces se midió el tiempo transcurrido desviando ligeramente el ángulo de reflexión mediante el veloz espejo giratorio. Foucault obtuvo un valor de la velocidad de la luz de 300.883 km/s. También, el físico francés utilizó su método para determinar la velocidad de la luz a través de varios líquidos. Averiguó que era notablemente inferior a la alcanzada en el aire. Esto concordaba también con la teoría ondulatoria de Huyghens (abajo).
La naturaleza de la luz. Profesor escrupuloso, aunque poco entusiasta, Newton se dedicó a estudios de óptica que le llevaron, a través de una serie de experimentos, al famoso descubrimiento de la descomposición de la luz blanca, que fue explicada por él mediante una teoría corpuscular de la luz destinada a dar jaque a la teoría ondulatoria de C. Huygens y a dominar durante todo el siglo XVIII. Experimentos, descubrimientos e hipótesis sobre la luz fueron hechos públicos en una memoria a la Royal Society. Pero las tempestuosas disputas suscitadas por esta memoria le disgustaron hasta el punto de que se abstuvo de publicar sus Lecciones de óptica (desarrolladas en la cátedra lucasiana entre 1668 y 1671), las cuales sólo vieron la luz en 1729. No obstante, en 1675 presentó a la Royal Society una importante memoria, que constituirá después la base de su Óptica, en la que, partiendo de los experimentos sobre la coloración de laminillas metálicas, expone los principios de su teoría sobre la luz. En la imagen, El descubrimiento de la refracción de la luz de Newton (1827), óleo del pintor italiano Pelagio Palagi.
Michelson, Einstein y Millikan
Michelson fue más preciso aún en sus medidas. Este autor, durante cuarenta años largos, a partir de 1.879, fue aplicando el sistema Fizeau-Foucault cada vez con mayor refinamiento, para medir la velocidad de la luz. Cuando se creyó lo suficientemente informado, proyectó la luz a través de vacío, en vez de hacerlo a través del aire, pues este frena ligeramente su velocidad, y, empleó para ello tuberías de acero cuya longitud era superior a 1’5 km. Según sus medidas, la velocidad de la luz en el vacío era de 299.730 km/seg. (Sólo un 0’006% más bajo). Demostraría también que todas las longitudes de ondas luminosas viajan a la misma velocidad en el vacío.
En 1972, un equipo de investigadores bajo la dirección de Kenneth M. Eveson efectuó unas mediciones aún más exactas y vio que la velocidad de la luz era de 299.727’74 km/seg. Una vez se conoció la velocidad de la luz con semejante precisión, se hizo posible usar la luz, o por lo menos formas de ella, para medir distancias.
Desde Galileo con sus lámparas, cada vez se han utilizado aparatos más sofisticados para medir la velocidad de la luz, y, finalmente, se consiguió medirla de manera muy exacta en 299.792.458 metros por segundo que, es el límite que algo puede alcanzar corriendo por el espacio vacío y que sólo ha conseguido la luz.
Aunque para algunos resulte alto tedioso el tema anterior, no he podido resistirme a la tentación de exponerlo, así podrá saber algo más sobre la luz y, habrán conocido a personajes que hicieron posible el que ahora nosotros, la conozcamos mejor.
Podría continuar, hasta el final de este trabajo, hablando de la luz y sus distintas formas o aplicaciones: ondas de luz a través del espacio, de cómo se transmite la luz en el “vacío”, nos llega a través del espacio desde Galaxias situadas a miles de millones de años luz; las líneas de fuerzas electromagnéticas de Faraday y Maxwell de campos eléctricos y magnéticos cambiantes (todo ello explicado en un simple conjunto de cuatro ecuaciones, que describían casi todos los fenómenos referentes a esta materia electromagnética), o de los enigmas aún por descubrir (aunque predichos).
Muchos han ido a la caza de los monopolos magnéticos que, deben ser raros en el Universo, si finalmente existen. Parece que, algunos físicos han conseguido alguna cosa…no se bien qué sobre su existencia.
En 1.931, Dirac, acometiendo el asiento de una forma matemática, llegó a la conclusión de que sí los monopolos magnéticos existían, sería necesario que todas las cargas eléctricas fuesen múltiplos exactos de una carga más pequeña, como en efecto así es. Y dado que todas las cargas eléctricas son múltiplos exactos de alguna carga más pequeña, ¿no deberían en realidad existir los monopolos magnéticos?
En 1.974, un físico joven y prometedor (más tarde ganó el Nobel), Gerard’t Hooft, y un físico soviético, Alexander Poliakov, mostraron, independientemente, que podía razonarse, a partir de las grandes teorías unificadas, que los monopolos magnéticos debían así mismo existir, y que debían poseer una masa enorme. Aunque un monopolo magnético sería incluso más pequeño que un protón, debería tener una masa que sería de 10 trillones a 10 cuatrillones mayor que la del protón. Eso equivaldría a la masa de una bacteria comprimida en una diminuta partícula subatómica.
Sería la confirmación de una teoría de 1931. Si seres de otros mundos han podido verlos, habrían visto otro tipo de magnetismo los llamados “monopolos magnéticos”.
Semejantes partículas sólo podían haberse formado en el momento de la gran explosión (otra vez volvemos al origen). Desde entonces, no ha existido la suficientemente alta concentración de energía necesaria para formarla. Esas grandes partículas deberían avanzar a unos 225 km por seg., más o menos, y la combinación de una enorme masa y un pequeño tamaño le permitiría deslizarse a través de la materia sin dejar el menor rastro de presencia. Esta propiedad, de hecho, está relacionada directamente con el fracaso obtenido en su búsqueda.
Los físicos están tratando de idear un mecanismo capaz de poder detectar, con claridad, el paso de monopolos magnéticos.
Podríamos decir que, un monopolo magnético es una entidad magnética hipotética consistente en un polo Norte o Sur elemental aislado. Ha sido postulado como una fuente de campo magnético en analogía a la forma en que las partículas eléctricamente cargadas producen un campo eléctrico.
Se han diseñado numerosos experimentos ingeniosos para detectar monopolos, pero hasta ahora, ninguno ha producido un resultado definitivo. Los monopolos magnéticos son predichos en ciertas teorías gauge con bosones de Higgs. En particular, algunas teorías de gran unificación predicen monopolos muy pesados (con masas del orden de 1016 GeV). Se habló de su aparición en los primeros experimentos del LHC, algunos denunciaron eso junto con la aparición de agujeros negros microscópicos pero, de momento…nada
Los monopolos magnéticos también son predichos en las teorías de Kaluza-Klein (5 dimensiones) y en teoría de supercuerdas (10 y 26 dimensione). Es decir, que se predice pero no se puede verificar, y, siendo así, quedamos anclados en el campo de la teoría.
Recuerdo que estaba hablando de los distintos aspectos de la luz, lo que no recuerdo es como he llegado a éste berenjenal de los monopolos magnéticos. Me ocurre siempre, estoy tratando un tema y termino hablando (escribiendo) de otro. No parece más que, el bolígrafo, tenga vida propia. Sin embargo, lo que ocurre en verdad es que, todo es uno, compuesto de distintas partes. Siempre estamos hablando de lo mismo, solo cambian las partes que, en cada momento, estemos estudiando.
La misteriosa materia que compondría el 23 % (se especula) de toda la materia del universo es tan esquiva que jamás ha sido observada por nadie. Así que sólo podíamos sospechar que quizá existía. La materia oscura emite, absorbe e interactúa con radiación electromagnética de manera tan débil que no puede ser observada por medios técnicos ordinarios, no refleja la luz para ser observada.
Sin embargo, un equipo internacional de astrónomos de Japón, Gran Bretaña y Taiwan acaba de conseguir, por primera vez, imágenes que reflejan la distribución de materia oscura alrededor de 20 grandes cúmulos de galaxias. Los resultados se publicarán en la revista mensual de la Royal Astronomical Society. Las pruebas aún no son concluyentes, pero sí muy esperanzadoras.
Ni en el infrarrojo, ni en los rayos X ni en el ultravioleta la materia oscura había revelado aún su auténtica naturaleza. Pero utilizando lentes gravitacionales los científicos han sido capaces de mostrar las primeras imágenes en las que se “aprecia” la misteriosa materia oscura.
Masa-Materia-Luz: Todo la misma cosa ¡Energía! que es el motor que hace andar al ¡El Universo!
emilio silvera
Abr
1
¡La Física! Un arma muy poderosa
por Emilio Silvera ~ Clasificado en Física ~ Comments (2)
Witten con sus complejas ecuaciones que le sacan de este mundo y lo transporta a otro de 11 dimensiones, dentro de la teoría de M. La teoría M fue esbozada inicialmente por Edward Witten, su propuesta combinaba las cinco teorías de supercuerdas y super-gravedad en once dimensiones. Tiene su origen en la teoría de cuerdas, según la cual todas las partículas son, en realidad, diminutas cuerdas que vibran a cierta frecuencia.
Existe en la Física, un principio que se denomina Navaja de Ockham, que afirma que siempre deberíamos tomar el camino más sencillo posible e ignorar las alternativas más complicadas, y, especialmente las alternativas que no pueden medirse nunca. Si queremos seguir ese postulado, nos encontramos con un enorme problema, ya que, con esa máxima, ¿Qué hacen perdiendo el tiempo Witten y todos los demás físicos y matemáticos con la teoría de supercuerdas?
Aquí tenemos un ejemplo claro de un principio que, al menos para mí, sólo es válido en ciertos contextos, sino experimentamos y teorizamos en cuestiones que, “de momento”, no son demostrables nos quedaríamos anclados en el tiempo del saber. El físico Paul Davies se refirió una vez a ese tiempo futuro cuando se tenga conseguida la unificación de todas las fuerzas:
” Podremos cambiar la estructura del espacio y del tiempo, atar nuestros propios nudos en la nada, y dar orden a la materia. Controlar las super-fuerzas nos permitirá crear y transmutar partículas a voluntad, generando así exóticas formas de materia. Quizá seamos capaces incluso de manipular la dimensionalidad del propio espacio, creando extraños mundos artificiales con propiedades inimaginables. Verdaderamente seremos los señores del Universo.”
Es posible. Sin embargo, esos señores del universo, ya no seremos nosotros
Pero para que el sueño de Davies y muchos otros se pueda cumplir, tendríamos que poder dominar esas energías derivadas de la masa de Planck, o sea, la energía de Planck de 10-19 GeV, lo que supone disponer y “saber” manipular energías del orden de las que estaban presentes en la creación de nuestro Universo, cuando surgió el Big Bang ¿Será por soñar!
Claro que no debemos fiarnos del potencial de nuestra imaginación. Los seres humanos han existido en este planeta quizá durante los dos últimos millones de años (consideramos ya como hombres modernos) el rápido auge de la civilización moderna en los dos últimos siglos ha sido posible a que el crecimiento del conocimiento científico ha sido exponencial; es decir, su tasa de expansión es proporcional a la que ya se conoce. Cuanto más conocemos más rápidamente adquirimos nuevos conocimientos, de tal manera es así que cada 10/20 años, duplicamos lo que sabemos.
Ya he explicado en muchas de mis libretas como se produce este mecanismo, hay preguntas que ni podemos hacer, no tenemos los datos ni el conocimiento necesario para plantearla. Así que, cuando adquirimos nuevos conocimientos hemos adquirido el poder de plantear nuevas preguntas que antes, por ignorancia, no sabíamos formular.
Para poder preguntar, antes tenemos que saber formular las preguntas
Suelo poner el ejemplo de las puertas cerradas. Hallar un nuevo conocimiento es como encontrar la llave para abrir la puerta detrás de la cual, se encuentran las respuestas a preguntas que habíamos planteado y de las que nadie tenía la respuesta. Sin embargo, cuando abrimos esa puerta cerrada, ¡Oh! sorpresa, nos encontramos con nuevas puertas cerradas que, en lo alto de sus dinteles tienen colgados letreros como: Materia Oscura, Teoría M, Partícula de Higgs, y muchas más.
Quiere esto decir que, por mucho que avancemos, siempre, siempre, encontraremos una puerta cerrada con algún letrero colgado de algo que no sabemos. Acordaos de lo que decía León Lederman, el premio de Nobel Física: “En todas las casas de los Físicos, en el lugar más destacado, tendrían que tener colgado un letrero. En él se pondría un sólo número: 137. Así, cada vez que lo miraran, les recordaría lo que NO saben”
Ese es nuestro destino amigos, estamos condenados a seguir aprendiendo, es nuestra naturaleza, en nuestra genética tenemos gravada la curiosidad, esa fuerza misteriosa que nos obliga a preguntar, a querer saber, que nos obliga a continuar la búsqueda de los desconocido, nos empuja a desvelar los secretos de la Naturaleza, allí donde residen todas las respuestas, y, de esa manera, como decía aquel científico que antes mencionaba, llegaremos, no me cabe la menor duda, a dominar fuerzas del Universo que ahora, ni podemos imaginar.
De momento, el Universo que conocemos es el que nos permite “ver” la radiación electromagnética, la luz. Sin embargo, cuando podamos leer los mensajes que nos envían las ondas gravitatorias de los Agujeros Negros y otros cuerpos masivos, entonces, conoceremos otra cara ahora desconocida de ese inmenso Universo que nunca dejará de sorprendernos.
Todas las disciplinas científicas nos son muy necesarias pero, la Física, merece un apartado muy especial, en ella están todas las respuestas que deseamos oír, y, como es natural, siempre acompañada por las matemáticas, el lenguaje universal que se utiliza cuando las palabras dejan de tener la capacidad de expresar las complejidades de la Naturaleza.
La Física, con frecuencia se asocia a otras ramas de la Ciencia, y, mediante la energía que se generan en las estrellas dicha asociación se traduce en la unión de la física-química-biología que, finalmente, desemboca en eso que llamamos vida. Esa maravillosa aventura que comienza en el elemento más ligero y que, en los hornos nucleares de los objetos estelares mediante transformaciones de fases, se van volviendo más y más complejos hasta llevar a niveles tan valiosos como para poder alcanzar (si llegan al medio adecuado) el estadio más alto que la materia puede alcanzar…¡La Consciencia!
Pitágoras nos decía: “Todo es número” y, tampoco estaría mal decir: “Todo es Física”. La unión de la Física con otras ramas del saber nos ha traído y nos seguirá trayendo, muchas alegrías.
Nos aproximamos al siglo desde que, Albert Einstein nos legara su Teoría de la Relatividad General para incluir la gravitación en la estructura espacio-temporal. Uno de los aspectos más destacados de esta teoría es que el espacio deja de ser un simple contenedor de los fenómenos físicos para convertirse en un objeto dinámico, en el sentido que su geometría cambia conforme a los movimientos y distribuciones de masas y energía. No solo eso, al tiempo físico le sucede algo similar, de forma que su transcurso también depende de la distribución de masa y energía que determina la geometría del Universo y, a su vez, la geometría determina el movimiento de la materia y de la energía.
Antes mencionaba que llegaríamos a poder leer los mensajes de las ondas gravitatorias pero, la relativa debilidad de la gravedad es la causa de que las ondas gravitatorias tengan una amplitud relativamente pequeña y que su detección sea una empresa altamente complicada. Ondas gravitatorias producidas por fuentes galácticas, como la colisión de dos estrellas de neutrones, inducen desplazamientos del orden del tamaño de un núcleo atómico o inferiores en un detector terrestre de un kilómetro de tamaño. La gran ventaja que proporcionan las ondas gravitatorias es que por su débil interacción con la materia transportan información prácticamente incorrupta de las fuentes astronómicas que las generaron. Está claro que el reto está, en saber construir los ingenios que puedan detectar y leer sus mensajes, y, cuando ese día llegue, conoceremos otro aspecto del Universo de momento desconocido.
el neutrino, n, escapa y el positrón, e+ (partícula similar a un electrón excepto que tiene carga positiva denominada positrón), se aniquila con un electrón, e+ + e-, produciendo radiación gamma ( de corta longitud de onda). El deuterio formado, H2, reacciona con otro núcleo de hidrógeno dando lugar a un isótopo del helio, He3, que contiene dos protones y un neutrón, cediéndose más energía en forma de rayos gamma,
Bueno, la Física nos ayudará a conocer mejor el Universo. Acordaos de aquella predicción de Wolfgang Pauli cuando propuso la existencia del neutrino para reconciliar los datos de la desintegración nuclear radiactiva con la conservación de la energía. En una desintegración radiativa el núcleo atómico muta en otro núcleo diferente cuando un neutrón se transforma en un protón, que es un poco más ligero que aquel, y emite además un electrón:
neutrón → protón + electrón + antineutrino
¿Cómo pudimos llegar a saber que la predicción de Pauli era cierta?, en aquel momento hasta el mismo Pauli dudaba de que algún día se pudiera verificar tal cosa. Sin embargo, el neutrino se localizó y, de la misma manera, la Física nos dirá también donde está el Bosón de Higgs para perfeccionar el modelo estándar, y, otras muchas cuestiones que ahora, nos parecen de otro mundo y que, sin embargo, están en este nuestro.
Nos hemos acostumbrado a observar el Universo con fotones de longitudes de onda muy diversas, desde ondas de radio a rayos gamma, pasando por la luz visible, ultravioleta o infrarroja. Hemos sabido desarrollar telescopios ópticos cada vez más sofisticados, hasta el siglo XX en que se construyeron los primeros radiotelescopios y se pusieron en órbita los primeros satélites con telescopios de rayos X y rayos gamma. Hoy en día cubrimos 20 órdenes de magnitud en las frecuencias de las ondas electromagnéticas.
Hemos podido acceder al Universo profundo, hemos podido captar con bastante precisión el fondo cósmico de microondas, emitido cuando se formaron los primeros átomos en el universo, cuando éste tenía apenas 380.000 años. La información que podemos extraer hoy en día del fondo de radiación es tan completa que nos ha permitido definir por primera vez un modelo cosmológico estándar, cuyos parámetros se conocen con una precisión muy elevada.
Detectando neutrinos
Claro que, no es la luz el único mensajero que nos trae información de los confines del Universo. Desde hace una década también vemos el Sol en neutrinos gracias al Super Kamiokande y, en el Polo Sur, tenemos telescopios de neutrinos muy energéticos que nos permitirán observar el interior de los objetos más violentos del universo, como las supernovas, gracias a que los neutrinos atraviesan la materia cargada que hay a su alrededor, que es opaca a la luz.
Con todo esto quiero significar que no existen límites, y, el ingenio y la imaginación de la máquina más compleja del Universo (solo necesita tiempo para seguir evolucionando), nos llevará más allá de lo que, ahora, podemos imaginar. Seguramente que, ni esa barrera infranqueable que supone la velocidad de la luz, podrá pararnos. Alguna forma habrá de burlar ese muro, y, se me viene a la memoria eso que los físicos llaman el salto cuántico, eso que ocurre cuando un fotón energético choca con un electrón que lo absorbe y, de inmediato, desaparece para simultáneamente aparecer en otro nivel sin haber recorrido la distancia existente entre el nivel de partida y el de llegada. ¿Por donde hizo el viaje?
En fin amigos, que la Física, seguramente será el arma más poderosa con la que cuente la Humanidad cuando le llegue el momento…de partir de la Tierra hacia otros mundos.
emilio silvera
Mar
28
Los pensamientos… Que nunca dejarán de asombrarnos
por Emilio Silvera ~ Clasificado en Física ~ Comments (3)
Ludwig Boltzmann será el protagonista de hoy
Hay ecuaciones que son aparentemente insignificantes por su reducido número de exponentes que, sin embargo, ¡dicen tántas cosas…! En la mente de todos están las sencillas ecuaciones de Einstein y de Planck sobre la energía-masa y la radiación de cuerpo negro. Esa es la belleza de la que hablan los físicos cuando se refieren a “ecuaciones bellas”.
Maxwell
Las ecuaciones de Maxwell…, “y se hizo la luz”
La identidad de Euler: Algunos dijeron de su ecuación: “la expresión matemática más profunda jamás escrita”, “misteriosa y sublime”, “llena de belleza cósmica”, “una explosión cerebral”.
Newton y su segunda ley que, aunque no funcione cuando nos acercamos a velocidades relativistas, rompió la marcha hacia la Gravedad.
Pitágoras y “su” teorema, también debe estar presente como lo está su teorema en las construcciones de todo el mundo y… mucho más.
Schrödinger y su función de onda que tampoco se queda atrás (aunque como la ecuación de Newton, si hablamos de velocidades relativistas…)
“Es la ecuación más famosa del mundo desde que apareció en la portada de la revista Times de 1946. En ella aparece un retrato de Albert Einstein, un hongo atómico y E=MC², estableciendo una relación entre la fórmula del físico alemán y el desarrollo de la bomba que destruyó Hiroshima.”
Bueno, E = mc2, nos lleva a profundidades de la materia antes jamás vistas y nos permite sacar conclusiones como que, en un gramo de materia está encerrada toda la energía consumida por la Humanidad durante un minuto. ¡Masa y Energía son la misma cosa!
Einstein, con esa ecuación de arriba de la relatividad general, vino a cambiar el mundo y, a partir de entonces, nació la verdadera cosmología. ¡Nos habla de tAntas cosas!
¿Qué decir de la maravillosa fórmula de la entropía de Boltzman?
S = k log W
Creo que hoy, hablaremos de ella. Boltzman con su trabajo e ingenio, le dio a la Humanidad la herramienta para que pudiera seguir avanzando en el difícil laberinto de la Cienca, es, sin duda, uno de los físicos más ilustres del siglo XIX.
El trabajo científico desarrollado por Boltzmann en su época crítica de transición que puso el colofón a la física “clásica” –cuya culminación podríamos situar en Maxwell– y antecedió (en pocos años) a la “nueva” física, que podemos decir que comenzó con Max Planck y Einstein. Aunque ciertamente no de la importancia de los dos últimos, la labor científica de Boltzmann tiene una gran relevancia, tanto por sus aportaciones directas (creador junto con “su amigo” Maxwell y Gibbs de la mecánica estadística, aunque sea el formulismo de éste último el que finalmente haya prevalecido; esclarecedor del significado de la entropía, etc.) como por la considerable influencia que tuvo en ilustres físicos posteriores a los que sus trabajos dieron la inspiración, como es el caso de los dos mencionados, Planck y Einstein.
Boltzmann fue un defensor a ultranza del atomismo, polemizando sobre todo con Mach y Ostwald, antiatomistas partidarios de la energética y claros exponentes de la corriente idealista de la física alemana. Tuvo que abandonar su ambiciosa idea de explicar exactamente la irreversibilidad en términos estrictamente mecánicos; pero esta “derrota”, no ocultaré que dolorosa desde el punto de vista personal, le fue finalmente muy productiva, pues de alguna manera fue lo que le llevó al concepto probabilista de la entropía. Estas primeras ideas de Boltzmann fueron reivindicadas y extendidas, en el contexto de la teoría de los sistemas dinámicos inestables, sobre todo por la escuela de Prigogine, a partir de la década de 1970.
El joven Boltzmann
La personalidad de Boltzmann era bastante compleja. Su estado de ánimo podía pasar de un desbordante optimismo al más negro pesimismo en cuestión de unas pocas horas. Era muy inquieto; él decía – medio en serio, medio en broma – que eso se debía a haber nacido en las bulliciosas horas finales de los alegres bailes del Martes de Carnaval, previas a los “duelos y quebrantos” (entonces) del Miércoles de Ceniza.
Su lamentable final, su suicidio en Duino (Trieste) el 5 de septiembre de 1906, muy probablemente no fue ajeno a esa retorcida personalidad, aunque su precaria salud física fue seguramente determinante a la hora de dar el trágico paso hacia el lado oscuro.
Uno de los problemas conceptuales más importantes de la física es cómo hacer compatible la evolución irreversible de los sistemas macroscópicos (el segundo principio de la termodinámica) con la mecánica reversible (las ecuaciones de Hamilton o la ecuación de Schrödinger) de las partículas (átomos o moléculas) que las constituyen. Desde que Boltzmann dedujo su ecuación en 1872, este problema ha dado lugar a muy amplios debates, y el origen de la irreversibilidad es, aún hoy en día, controvertido.
En una de sus primeras publicaciones, Boltzmann obtuvo en 1866 una expresión de la entropía, que había sido definida un año antes por Clausius, basado en conceptos mecánicos. Las limitaciones de este trabajo eran que su aplicación se restringía al estudio de los gases y que el sistema era periódico en el tiempo. Además, Boltzmann no pudo deducir de su definición de entropía la irreversibilidad del segundo principio de la termodinámica de Clausius. En 1868, basándose en las ideas probabilísticas de Maxwell, obtuvo la distribución de equilibrio de un gas de partículas puntuales bajo la acción de una fuerza que deriva de un potencial (distribución de Maxwell-Boltzmann).
En el Universo, considerado como sistema cerrado, la entropía crece y…
En 1.872 publicó la denominada ecuación de Boltzmann para cuya deducción se basó, aparentemente, en ideas mecánicas. Esta ecuación contiene, sin embargo, una hipótesis no mecánica (estadística) o hipótesis del caos molecular, que Boltzmann no apreció como tal, y cuya mayor consecuencia es que, cualquiera que sea la distribución inicial de velocidad de un gas homogéneo diluido fuera del equilibrio, ésta evoluciona irreversiblemente hacia la distribución de velocidad de Maxwell. A raíz de las críticas de Loschmidt (paradoja de la reversibilidad) y Zermelo (paradoja de la recurrencia), Boltzmann acabó reconociendo el carácter estadístico de su hipótesis, y en 1877 propuso una relación entre la entropía S de un sistema de energía constante y el número de estados dinámicos W accesibles al sistema en su espacio de fases; esto es, la conocida ecuación S = kB ln W, donde kB es la constante de Boltzmann. En esta nota, se hace una breve descripción de la ecuación de Boltzmann y de la hipótesis del caos molecular.
El comportamiento de los gases siempre dio a los físicos en qué pensar
La ecuación de Boltzmann describe la evolución temporal de un gas diluido de N partículas puntuales de masa m contenidas en un volumen V que interaccionan a través de un potencial de par central repulsivo V(r) de corto alcance a. Como simplificación adicional, considérese que sobre las partículas no actúan campos externos. Si f1(r,v,t) indica la densidad de partículas que en el tiempo t tienen un vector de posición r y velocidad v, que está normalizada en forma:
∫dr ∫dvƒ1(r,v,t) = N
Su evolución temporal es la suma de dos contribuciones. En ausencia de interacción, las partículas que en el tiempo t tienen vector de posición r y velocidad v se encuentran, después de un intervalo de tiempo Δt, en r + v Δt y tiene la misma velocidad. Como
f1(r + vΔt,v,t + Δt) = f1(r,v,t)
en el límite Δt → 0 (2) se escribe:
∂1 f1(r,v,t) = – v∂r f1(r,v,t)
Que es una ecuación invariante bajo el cambio t → – t y v → – v. La evolución es, por tanto, mecánica.
Se cumplieron más de cien años desde la muerte de Boltzmann y su trabajo sigue siendo recordado. No pienso que Boltzmann creyera en la existencia real de los átomos, pero sí en su utilidad e incluso en su necesidad para comprender las leyes macroscópicas y la evolución irreversible de los fenómenos macroscópicos desde una base más fundamental que el nivel fenomenológico. Pero había quien (con autoridad) no creía ni en la existencia ni en su utilidad. Este debate no era ajeno a las tendencias ideológicas, religiosas y usos sociales de aquella época porque, en general, la ciencia es parte de la cultura y depende del momento histórico que viven los científicos, al fin y al cabo, seres humanos como los demás, influenciables por su entorno en una gran medida.
Por el siglo XIX, e incluso antes, ya se hablaba de “átomos”* y una rudimentaria teoría cinética de los gases gozaba de aceptación y utilidad científica (recordemos los trabajos de Benoulli, Dalton, Laplace, Poisson, Cauchy, Clausius, Krönig… y Maxwell). Pero fue Boltzmann quien definitivamente profundizó en la cuestión, para el estudio del equilibrio y, sobre todo, intentando explicar mecánicamente (mecano-estadísticamente) la evolución termodinámica irreversible y la descripción de los procesos de transporte ligados a ella. Y, nuevamente (por su enorme importancia) no podemos dejar de mencionar la muy singular labor que hicieron Gibbs, Einstein, Planck, Fermi y otros. Sin la motivación ideológica de Boltzmann, Gibbs elaboró una bellísima, útil y hoy dominante formulación (cuerpo de doctrina) de la termodinámica y física estadística.
Lorentz
Fue Lorentz quien primero utilizó la ecuación de Boltzmann y lo hizo para describir la corriente eléctrica en sólidos dando un paso significativo por encima del pionero Drude. Lorentz introdujo un modelo opuesto al browniano donde partículas ligeras como viento (electrones) se mueven chocando entre sí y con árboles gordos (tales como iones en una red cristalina); un modelo del que se han hecho estudios de interés tanto físico como matemático. Enskog (inspirándose en Hilbert) y Chapman (inspirándose en Maxwell) enseñaron cómo integrar la ecuación de Boltzmann, abriendo vías a otras diversas aplicaciones (hidrodinámica, propagación del sonido, difusión másica, calor, fricción viscosa, termoelectricidad, etc.). Recordemos que Boltzmann encontró como solución de equilibrio de su ecuación una distribución de velocidades antes descubierta por Maxwell (hoy, como reseñé anteriormente, de Maxwell-Boltzmann), por lo que concluyó que así daba base microscópica mecánica (teorema H mecano-estadístico) al segundo principio de la termodinámica (estrictamente, evolución de un sistema aislado hacia su “desorden” máximo)*.
Está claro que ningún físico que se precie de serlo puede visitar Viena sin visitar el parque Zentralfriedhof para ver la tumba de Boltzmann. Yo sí me pasé por allí. Me senté junto a la tumba; el lugar estaba desierto, y cerrando los ojos traté de conectar con la conciencia del genio. La sensación, extraña y agradable, seguramente fue creada por mi imaginación, pero creo que charlé con él en el interior de mi mente – la fuerza más potente del universo– y aquellos sentimientos, aquel momento, compensaron el esfuerzo del viaje.
En la tumba, sobre una gran lápida de mármol de color blanco con los nombres Ludwig Boltzmann y de los familiares enterrados con él, sobre el busto de Boltzmann, se puede leer la inscripción, a modo de epitafio:
Esta sencilla ecuación es la mayor aportación de Boltzmann y una de las ecuaciones más importantes de la física. El significado de las tres letras que aparecen (aparte la notación del logaritmo) es el siguiente:
- S es la entropía de un sistema.
- W es el número de microestados posibles de sus partículas elementales.
- k es una constante de proporcionalidad que hoy recibe el nombre de Constante de Boltzmann, de valor 1’3805 × 10-23 J/K (si el logaritmo se toma en la base natural)
S = k log W
¿Qué secretos se encierran aquí? ¿Cómo nos lleva a estos pensamientos?
En esta breve ecuación se encierra la conexión entre el micro-mundo y el macro-mundo, y por ella se reconoce a Boltzmann como el padre de la rama de la física conocida como mecánica estadística.
Como todas las ecuaciones sencilla de gran trascendencia en la física (como la famosa E = mc2), hay un antes y un después de su formulación: sus consecuencias son de un calado tan profundo que cambiaron la forma de entender el mundo, y en particular, de hacer física a partir de ellas. De hecho, la sutileza de la ecuación es tal que hoy, cien años después de la muerte de su creador, se siguen investigando sus nada triviales consecuencias. Creo que lo mismo ocurrirá con α = 2πe2/ħc que, en tan reducido espacio y con tan pocos símbolos, encierra los misterios del electromagnetismo (el electrón), de la constante de Planck (la mecánica cuántica), y de la luz (la relatividad de Einstein), todo ello enterrado profundamente en las entrañas de un número: 137.
Bueno, a pesar de todo lo anterior, Schrödinger nos decía:
“La actitud científica ha de ser reconstruida, la ciencia ha de rehacerse de nuevo”
¡Lo grande y lo pequeño! ¡Son tantos los secretos de la Naturaleza!
Siempre hemos tenido consciencia de que en física, había que buscar nuevos paradigmas, nuevos caminos que nos llevaran más lejos. Es bien conocida la anécdota de que a finales del siglo XIX un destacado físico de la época William Thomson (1824-1907) conocido como Lord Kelvin, se atrevió a decir que solo dos pequeñas “nubecillas” arrojaban sombras sobre el majestuoso panorama de conocimiento que había construido la física clásica desde Galileo y Newton hasta ese momento: el resultado del experimento de Michelson-Morley, el cual había fallado en detectar la existencia del supuesto éter luminífero; y la radiación del cuerpo negro, i.e la incapacidad de la teoría electromagnética clásica de predecir la distribución de la energía radiante emitida a diferentes frecuencias emitidas por un radiador idealizado llamado cuerpo negro. Lo que Lord Kelvin no puedo predecir es que al tratar de disipar esas dos “nubecillas”, la física se vería irremediablemente arrastrada a una nueva física: la física moderna fundada sobre dos revoluciones en ciernes: la revolución relativista y la revolución cuántica con dos científicos como protagonistas: Planck y Albert Einstein. Sin embargo, ha pasado un siglo y seguimos con esas dos únicas guías para continuar el camino y, resultan insuficientes para llegar a la meta que… ¡Está tan lejos!
emilio silvera