Sep
17
¡Conocer la Naturaleza! Hoy sólo un sueño ¿Realidad mañana?
por Emilio Silvera ~ Clasificado en Física ~ Comments (6)
“A partir de sus principios en Sumeria alrededor del 3500 a. C., en Mesopotamia, los pueblos del norte comenzaron a intentar registrar la observación del mundo con datos cuantitativos y numéricos sumamente cuidados. Pero sus observaciones y medidas aparentemente fueron tomadas con otros propósitos más que la ley científica. Un caso concreto es el del teorema de Pitágoras, que fue registrado, aparentemente en el siglo XVIII a. C.: la tabla Mesopotámica Plimpton 322 registra un número de trillizos pitagóricos (3,4,5) (5,12,13)…., datado en el 1900 a. C., posiblemente milenios antes de Pitágoras,1 pero no era una formulación abstracta del teorema de Pitágoras.
Los avances significativos en el Antiguo Egipto son referentes a la astronomía, a las matemáticas y a la medicina.2 Su geometría era una consecuencia necesaria de la topografía, con el fin de intentar conservar la disposición y la propiedad de las tierras de labranza, que fueron inundadas cada año por el Nilo. La regla del triángulo rectángulo y otras reglas básicas sirvieron para representar estructuras rectilíneas, el pilar principal de la arquitectura dintelada egipcia. Egipto era también el centro de la química y la investigación para la mayor parte del Mediterráneo.”
Torres del Río, villa jacobea
sabel Pérez Arellano y Róbinson Torres Villa, publicaron un artículo en 2009, sobre la física moderna y sus paradigmas y, comenzaban diciendo:
“Desde siempre el hombre ha intentado dar respuesta a los interrogantes más profundos que lo inquietan; preguntas que van desde ¿Quién soy?, ¿de dónde vengo? ¿y hacia dónde voy?, hasta los intentos por explicar el origen y final universo en qué vive. Muchas son las prepuestas que se han dado a esos interrogantes, dependiendo de la corriente de pensamiento seguida por quien aborda esas preguntas; es así como se ven aproximaciones místicas, esotéricas, religiosas y científicas entre otras; pero todas con el objetivo de dilucidar alguna respuesta a esas preguntas fundamentales.
Desde el punto de vista científico y concretamente de la física moderna, se han planteado algunas explicaciones del universo en el que vivimos que algunas veces rozan con lo fantástico, dado el nivel de abstracción o especulación que llevan implícito, todo obviamente avalado por sofisticados modelos matemáticos que al parecer soportan las hipótesis planteadas.”
Si repasamos la historia de la ciencia, seguramente encontraremos muchos motivos para el optimismo. Por mencionar a un científico de nuestro tiempo, escojamos a E. Witten que está convencido de que la ciencia será algún día capaz de sondear hasta las energías de Planck. Como ya he contado en otras ocasiones, él dijo:
¿Podremos verificar algún día la Teoría de cuerdas
“No siempre es tan fácil decir cuáles son las preguntas fáciles y cuáles las difíciles. En el siglo XIX, la pregunta de por qué el agua hierve a 100 grados era desesperadamente inaccesible. Si usted hubiera dicho a un físico del siglo XIX que hacia el siglo XX sería capaz de calcularlo, le habría parecido un cuento de hadas… La teoría cuántica de campos es tan difícil que nadie la creyó completamente durante 25 años.”
Dicen que para la verificación de la Teoría de cuerdas, se nec4esitaría disponer de la energía de Planck. es decir, 1019 GeV, una energía que sólo estaba presente en el momento de la creación.
En su opinión, las buenas ideas siempre se verifican. Los ejemplos son innumerables: la gravedad de Newton, el campo eléctrico de Faraday y el electromagnetismo de Maxwell, la teoría de la relatividad de Einstein en sus dos versiones y su demostración del efecto fotoeléctrico, la teoría del electrón de Paul Dirac, el principio de incertidumbre de Heisenberg, la función de ondas de Schrödinger, y tantos otros. Algunos de los físicos teóricos más famosos, sin embargo, protestaban de tanto empeño en la experimentación.
Para probar la teoría, sería necesario fotografiar estrellas cerca del Sol y luego tomarlas en el mismo lugar por la noche. Después, medir su posición en el cielo en cada momento. El escenario ideal para eso es un eclipse total, el momento en que la sombra de la Luna alcanza la Tierra y esconde el Sol
Negativo y positivo del eclipse de Sol de 1919, obtenido por Sir Arthur Eddington en la expedición para verificar si la luz procedente de las estrellas próximas a la corona solar era ligeramente desviada por el campo gravitatorio del Sol, de acuerdo con la Teoría de la Relatividad.
El astrónomo arthur Eddington se cuestionaba incluso si los científicos no estaban forzando las cosas cuando insistían en que todo debería ser verificado. El premio Nobel Paul dirac incluso llegó a decir de forma más categórica: “Es más importante tener belleza en las ecuaciones que tener experimentos que se ajusten a ellas“, o en palabras del físico John Ellis del CERN, “Como decía en una envoltura de caramelos que abrí hace algunos años, «Es sólo el optimista el que consigue algo en este mundo».“
Yo, como todos ustedes, un hombre normal y corriente de la calle, escucho a unos y a otros, después pienso en lo que dicen y en los argumentos y motivaciones que les han llevado a sus respectivos convencimientos, y finalmente, también decido según mis propios criterios y emito mi opinión de cómo es el mundo que, no obligatoriamente, coincidirá con alguna de esas opiniones, y que en algún caso, hasta difieren radicalmente.
Suponiendo que algún físico brillante nos resuelva la teoría de campos de cuerdas y derive las propiedades conocidas de nuestro universo, con un poco de suerte, podría ocurrir en este mismo siglo, lo que no estaría nada mal considerando las dificultades de la empresa. El problema fundamental es que estamos obligando a la teoría de supercuerdas a responder preguntas sobre energías cotidianas, cuando su “ámbito natural” está en la energía de Planck. Esta fabulosa energía fue liberada sólo en el propio instante de la creación, lo que quiere decir que la teoría de supercuerdas tiene su explicación allí, en aquel lugar y tiempo donde se produjeron las mayores energías conocidas en nuestro Universo y que, nosotros, no podemos alcanzar -de momento-.
Fuimos capaces de predecir que el Big Bang produjo un “eco” cósmico reverberando en el universo y que podría ser mesurable por los instrumentos adecuados. De hecho, Arno Penzias y Robert Wilson de los Bell Telephone Laboratories ganaron el premio Nobel en 1.978 por detectar este eco del Big Bang, una radiación de microondas que impregna el universo conocido.
Como una onda, podemos detectar el eco del Big Bang. Las ondas gravitacionales comprimen y expanden el tiempo y el espacio a medida que se desplazan a la velocidad de la luz, y así distorsionan el fondo de radiación cósmica, también llamado el eco del Big Bang.
El que el eco del Big Bang debería estar circulando por el universo miles de millones de años después del suceso fue predicho por primera vez por George Gamow y sus discípulos Ralpher y Robert Herman, pero nadie les tomó en serio. La propia idea de medir el eco de la creación parecía extravagante cuando la propusieron por primera vez poco después de la segunda guerra mundial. Su lógica, sin embargo, era aplastante. Cualquier objeto, cuando se calienta, emite radiación de forma gradual. Ésta es la razón de que el hierro se ponga al rojo vivo cuando se calienta en un horno, y cuanto más se calienta, mayor es la frecuencia de radiación que emite. Una fórmula matemática exacta, la ley de Stefan-Boltzmann, relaciona la frecuencia de la luz (o el color en este caso) con la temperatura. De hecho, así es como los científicos determinan la temperatura de la superficie de una estrella lejana; examinando su color. Esta radiación se denomina radiación de cuerpo negro.
Podemos ver en plena oscuridad
Esta radiación, ¡cómo no!, ha sido aprovechada por los ejércitos, que mediante visores nocturnos pueden operar en la oscuridad. De noche, los objetos relativamente calientes, tales como soldados enemigos o los carros de combate, pueden estar ocultos en la oscuridad, pero continúan emitiendo radiación de cuerpo negro invisible en forma de radiación infrarroja, que puede ser captada por gafas especiales de infrarrojo. Ésta es también la razón de que nuestros automóviles cerrados se calientes en verano, ya que la luz del Sol atraviesa los cristales del coche y calienta el interior. A medida que se calienta, empieza a emitir radiación de cuerpo negro en forma de radiación infrarroja. Sin embargo, esta clase de radiación no atraviesa muy bien el vidrio, y por lo tanto queda atrapada en el interior del automóvil, incrementando espectacularmente la temperatura y, cuando regresamos para proseguir el camino… ¿Quién es el guapo que entra?
Análogamente, la radiación de cuerpo negro produce el efecto invernadero. Al igual que el vidrio, los altos niveles de dióxido de carbono en la atmósfera, causados por la combustión sin control de combustibles fósiles, pueden atrapar la radiación de cuerpo negro infrarroja en la Tierra, y de este modo calentar gradualmente el planeta.
Gamow razonó que el Big Bang era inicialmente muy caliente, y que por lo tanto sería un cuerpo negro ideal emisor de radiación. Aunque la tecnología de los años cuarenta era demasiado primitiva para captar esta débil señal de la creación, Gamow pudo calcular la temperatura de dicha radiación y predecir con fiabilidad que un día nuestros instrumentos serían lo suficientemente sensibles como para detectar esta radiación “fósil”.
La lógica que había detrás de su razonamiento era la siguiente: alrededor de 300.000 años después del Big Bang, el universo se enfrió hasta el punto en el que los átomos pudieron empezar a componerse; los electrones, entonces, pudieron empezar a rodear a los protones y neutrones formando átomos estables, que ya no serían destruidos por la intensa radiación que estaba impregnando todo el universo. Antes de este momento, el universo estaba tan caliente que los átomos eran inmediatamente descompuestos por esa radiación tan potente en el mismo acto de su formación. Esto significa que el universo era opaco, como una niebla espesa absorbente e impenetrable.
Pasados 300.000 años, la radiación no era tan potente; se había enfriado y por lo tanto la luz podía atravesar grades distancias sin ser dispersada. En otras palabras, el universo se hizo repentinamente negro y transparente.
Terminaré esta parte comentando que un auténtico cuerpo negro es un concepto imaginario; un pequeño agujero en la pared de un recinto a temperatura uniforme es la mejor aproximación que se puede tener de él en la práctica. La radiación de cuerpo negro es la radiación electromagnética emitida por un cuerpo negro. Se extiende sobre todo el rango de longitudes de onda y la disminución de energías sobre este rango tiene una forma característica con un máximo en una cierta longitud de onda, desplazándose a longitudes de onda más cortas al aumentar las temperaturas*.
Hablar, sin más especificaciones, de radiación, es estar refiriéndonos a una energía que viaja en forma de ondas electromagnéticas o fotones por el universo. También nos podríamos estar refiriendo a un chorro de partículas, especialmente partículas alfa o beta de una fuente radiactiva o neutrones de un reactor nuclear.
Radiación y magnetismo presentes en todas partes
La radiación actínida es la electromagnética que es capaz de iniciar una reacción química. El término es usado especialmente para la radiación ultravioleta que emiten las estrellas jóvenes y azuladas en las bellas nebulosas.
Muchos son los tipos conpocidos: Radiación blanda, radiación cósmica, radiación de calor, radiación de fondo, de fondo de microondas, radiación dura, electromagnética, radiación gamma, infrarroja, ionizante, monocromática, policromática, de sincrotón, ultravioleta, de la teoría cuántica, de radiactividad… y, como se puede ver, la radiación en sus diversas formas es un universo en sí misma.
El físico alemán Max Planck (1.858 – 1.947), responsable entre otros muchos logros de la ley de radiación de Planck, que da la distribución de energía radiada por un cuerpo negro. Introdujo en física el concepto novedoso de que la energía es una cantidad que es radiada por un cuerpo en pequeños paquetes discretos, en vez de una emisión continua. Estos pequeños paquetes se conocieron como cuantos y la ley formulada es la base de la teoría cuántica.
Einstein se inspiró en este trabajo para a su vez presentar el suyo propio sobre el efecto fotoeléctrico, donde la energía máxima cinética del fotoelectrón, Em, está dada por la ecuación que lleva su nombre: Em = hf – Φ.
En 1905 Einstein publicó cinco trabajos que le llevaron a la cúspide de la Física (fue su sño Mirabilis)
- Efecto fotoeléctrico. …
- Determinación de las dimensiones moleculares. …
- Movimiento browniano. …
- Electrodinámica de los cuerpos en movimiento o “relatividad especial” …
- Equivalencia de la masa y energía.
Planck publicó en 1.900 un artículo sobre la radiación de cuerpo negro que sentó las bases para la teoría de la mecánica cuántica que más tarde desarrollaron otros, como el mismo Einstein, Heisenberg, Schrödinger, Dirac, Feymann, etc. Todos los físicos son conocedores de la enorme contribución que Max Planck hizo en física: la constante de Planck, radiación de Planck, longitud de Planck, unidades de Planck, etc. Es posible que sea el físico de la historia que más veces ha dado su nombre a conceptos de física. Pongamos un par te ejemplos de su ingenio:
1. Esta escala de longitud ( 10-35 m ) veinte órdenes de magnitud menor que el tamaño del protón, de 10-15 m, es a la que la descripción clásica de gravedad cesa de ser válida y debe ser tenida en cuenta la mecánica cuántica. En la fórmula que la describe, G es la constante gravitacional, ħ es la constante de Planck racionalizada y c en la velocidad de la luz.
2. Es la masa de una partícula cuya longitud de onda Compton es igual a la longitud de Planck. En la ecuación, ħ es la constante de Planck racionalizada, c es la velocidad de la luz y G es la constante gravitacional.
La descripción de una partícula elemental de esta masa, o partículas que interaccionan con energías por partículas equivalentes a ellas (a través de E = mc2), requiere de una teoría cuántica de la gravedad. Como la masa de Planck es del orden de 10-8 Kg (equivalente a una energía de 1019 GeV) y, por ejemplo, la masa del protón es del orden de 10-27 Kg y las mayores energías alcanzables en los aceleradores de partículas actuales son del orden de 14 TeV, los efectos de gravitación cuántica no aparecen en los laboratorios de física de partículas.
Únicamente en un laboratorio aparecieron partículas que tenían energías del orden de la masa de Planck: en el universo primitivo, de acuerdo con la teoría del Big Bang, motivo éste por el que es necesaria una teoría cuántica de la gravedad para estudiar aquellas condiciones. Esta energía de la que estamos hablando, del orden de 1019 GeV (inalcanzable para nosotros), es la que necesitamos para verificar la teoría de supercuerdas.
Siempre, desde que puedo recordar, me llamó la atención los misterios y secretos encerrados en la naturaleza, y la innegable batalla mantenida a lo largo de la historia por los científicos para descubrirlos.
Emilio silvera V.
Sep
16
¡Conocer la Naturaleza! No será nada fácil
por Emilio Silvera ~ Clasificado en Física Cuántica ~ Comments (1)
Insectos que pueden andar por el agua (tensión superficial)
Sus dimensiones y masa le permiten ¡lo imposible! para nosotros. La tensión superficial es una consecuencia de que todas las moléculas y los átomos se atraen unos a otros con una que nosotros llamamos fuerza de Van der Vaalls. esta fuerza tiene un alcance muy corto. para ser más precisos, diremos que la intensidad de esta fuerza a una distancia r es proporcional a 1/r7. Esto significa que si se reduce la distancia entre dos átomos a la mitad, la fuerza de Van der Vaalls con la que se atraen uno a otro se hace 2 x 2 x 2 x 2 x 2 x 2 x 2 = 128 veces más intensa. Cuando los átomos y las moléculas se acercan mucho unos a otros quedan unidos muy fuertemente a través de esta fuerza.
La mecánica cuántica domina en el micro-mundo de los átomos y de las partículas “elementales”. Nos enseña que en la naturaleza cualquier masa, por sólida o puntual que pueda parecer, tiene un aspecto ondulatorio. Esta onda no es como una onda de agua. Se parece más a una ola de histeria que se expande: es una onda de . Nos indica la probabilidad de detectar una partícula. La longitud de onda de una partícula, la longitud cuántica, se hace menor cuanto mayor es la masa de esa partícula.
Por ello , la relatividad general era siempre necesaria cuando se trataba con situaciones donde algo viaja a la velocidad de la luz, o está muy cerca o donde la gravedad es muy intensa. Se utiliza para describir la expansión del universo o el comportamiento en situaciones extremas, como la de agujeros negros.
Sin embargo, la gravedad es muy débil comparada con las fuerzas que unen átomos y moléculas y demasiado débil para tener cualquier efecto sobre la estructura del átomo o de partículas subatómicas, se trata con masas tan insignificantes que la incidencia gravitatoria es despreciable. Todo lo contrario que ocurre en presencia de masas considerables como planetas, estrellas y galaxias, donde la presencia de la gravitación curva el y distorsiona el tiempo.
Las Funciones de Onda del electrón en un átomo de hidrógeno en diferentes niveles de energía. La mecánica cuántica no puede predecir la ubicación exacta de una partícula en el espacio, solo la probabilidad de encontrarla en diferentes lugares. Las áreas más brillantes representan una mayor probabilidad de encontrar el electrón.
Einstein tenía razón: la teoría de la relatividad general fue comprobada a escala galáctica “con exquisita precisión”
Como resultado de estas propiedades antagónicas, la teoría cuántica y la teoría relativista gobiernan reinos diferentes, muy dispares, en el universo de lo muy pequeño o en el universo de lo muy grande. Nadie ha encontrado la manera de unir, sin fisuras, estas dos teorías en una sola y nueva de Gravedad-Cuántica.
Las unidades de Planck son las únicas combinaciones de dichas constantes que pueden formarse en dimensiones de masa, longitud, tiempo y temperatura.
A distancias comparables con la longitud de Planck, se cree que están sucediendo cosas muy curiosas que rebasan ampliamente los límites de nuestra imaginación.
Mp = | (hc/G)½ = | 5’56 × 10-5 gramos |
Lp = | (Gh/c3) ½ = | 4’13 × 10-33 centímetros |
Tp = | (Gh/c5) ½ = | 1’38 × 10-43 segundos |
Temp.p = | K-1 (hc5/G) ½ = | 3’5 × 1032 ºKelvin |
Estas formulaciones con la masa, la longitud, el tiempo y la temperatura de Planck incorporan la G (constante de gravitación), la h (la constante de Planck) y la c, la velocidad de la luz. La de la temperatura incorpora además, la K de los grados Kelvin.
¿Cuáles son los límites de la teoría cuántica y de la teoría de la relatividad de Einstein? Afortunadamente, hay una respuesta y las unidades de Planck nos dicen cuales son. En realidad, es la propia Naturaleza la que marca esos límites que Stoney-Planck, supieron plasmar en ecuaciones que los marcan.
mp = 2.17644·10-8 Kilogramos
Supongamos que tomamos toda la masa del universo visible y determinamos su longitud de cuántica. Podemos preguntarnos en qué momento esta longitud de onda cuántica del universo visible superará su tamaño. La respuesta es: cuando el universo sea más pequeño en tamaño que la longitud de Planck, es decir, 10-33 de centímetros, más joven que el tiempo de Planck, 10-43 segundos y supere la temperatura de Planck de 1032 grados. Las unidades de Planck marcan la frontera de de nuestras teorías actuales. Para comprender en que se parece el mundo a una escala menor que la longitud de Planck tenemos que comprender plenamente cómo se entrelaza la incertidumbre cuántica con la gravedad. Para entender lo que podría haber sucedido del suceso que estamos tentados a llamar el principio del universo, o el comienzo del tiempo, tenemos que penetrar la barrera de Planck. Las constantes de la naturaleza marcan las fronteras de nuestro conocimiento existente y nos dejan al descubierto los límites de nuestras teorías.
En los intentos más recientes de crear una teoría nueva para describir la naturaleza cuántica de la gravedad ha emergido un nuevo significado para las unidades naturales de Planck. Parece que el concepto al que llamamos “” tiene un profundo significado en el universo. Estamos habituados a vivir en lo que llamamos “la edad de la información”. La información puede ser empaquetada en formas electrónicas, enviadas rápidamente y recibidas con más facilidad que nunca antes. Nuestra evolución en el proceso rápido y barato de la información se suele en una forma que nos permite comprobar la predicción de Gordon Moore, el fundador de Intel, llamada ley de Moore, en la que, en 1.965, advirtió que el área de un transistor se dividía por dos aproximadamente cada 12 meses. En 1.975 revisó su tiempo de reducción a la mitad hasta situarlo en 24 meses. Esta es “la ley de Moore” cada 24 meses se obtiene una circuitería de ordenador aproximadamente el doble, que corre a velocidad doble, por el mismo precio, ya que, el coste integrado del circuito viene a ser el mismo, constante.
La velocidad de la luz en el vacío es por definición una constante universal de valor 299.792.458 m/s (suele aproximarse a 3·108 m/s), o lo que es lo mismo 9,46·1015 m/año; la segunda cifra es la usada para definir al intervalo llamado año luz. La se transmitirá a esa velocidad como máximo, nuestro Universo, no permite mayor rapidéz, al menos, por los métodos convencionales.
Los límites últimos que podemos esperar para el almacenamiento y los ritmos de procesamiento de la información están impuestos por las constantes de la naturaleza. En 1.981, el físico israelí, Jacob Bekenstein, hizo una predicción inusual que estaba inspirada en su estudio de los agujeros negros. Calculó que hay una cantidad máxima de información que puede almacenarse dentro de cualquier volumen. Esto no debería sorprendernos.
(Longitud de Planck que al cuadrado sería de 10-66 cm2)
Lo que debería hacerlo es que el valor máximo está precisamente determinado por el área de la superficie que rodea al volumen, y no por el propio volumen. El máximo de bits de información que puede almacenarse en un volumen viene dado precisamente por el cómputo de su área superficial en unidades de Planck. Supongamos que la región es esférica. Entonces su área superficial es precisamente proporcional al cuadrado de su radio, mientras que el área de Planck es proporcional a la longitud de Planck al cuadrado, 10-66 cm2. Esto es muchísimo mayor que cualquier capacidad de almacenamiento de producida hasta ahora. Asimismo, hay un límite último sobre el ritmo de procesamiento de información que viene impuesto por las constantes de la naturaleza.
No debemos descartar la posibilidad de que seamos capaces de utilizar las unidades de Planck-Stoney para clasificar todo el abanico de estructuras que vemos en el universo, desde el mundo de las partículas elementales hasta las más grandes estructuras astronómicas. Este fenómeno se puede representar en un que recree la escala logarítmica de tamaño desde el átomo a las galaxias.
Todas las estructuras del universo porque son el equilibrio de fuerzas dispares y competidoras que se detienen o compensan las unas a las otras; la atracción y la repulsión. Ese es el equilibrio de las estrellas donde la repulsión termonuclear tiende a expandirla y la atracción (contracción) de su propia masa tiende a comprimirla; así, el resultado es la estabilidad de la estrella. En el caso del planeta Tierra, hay un equilibrio entre la fuerza atractiva de la gravedad y la repulsión atómica que aparece cuando los átomos se comprimen demasiado juntos. Todos estos equilibrios pueden expresarse aproximadamente en términos de dos números puros creados a partir de las constantes e, h, c, G y mprotón
“Tras medir alfa en unas 300 galaxias lejanas, vimos un patrón constante: este número, que nos dice la fuerza del electromagnetismo, no es igual en otras partes que en la Tierra, y parecer variar de forma continua a lo largo de un eje”. Algunos se empeñan en variar la constante de estructura fina y, si eso llegara a producirse… las consecuencias serían funestas para nosotros. Otros nos dicen que esa constante, no ha variado a lo largo de los miles de millones de años del Universo y, así debe ser, o, si varió, lo hizo en una escala ínfima.
α = 2πe2 / hc ≈ 1/137 |
αG = (Gmp2)2 / hc ≈ 10-38 |
Si varían algunas de las dos en sólo una diezmillonésima, muchas de las cosas que conforman el Universo serían imposible y, la consecuencia sería, la ausencia de vida. La identificación de constantes adimensionales de la naturaleza como a (alfa) y aG, junto con los números que desempeñan el mismo papel definitorio para las fuerzas débil y fuerte de la naturaleza, nos anima a pensar por un momento en mundos diferentes del nuestro. Estos otros mundos pueden estar definidos por leyes de la naturaleza iguales a las que gobiernan el universo tal como lo conocemos, pero estarán caracterizados por diferentes valores de constantes adimensionales. Estos cambios numéricos alterarán toda la fábrica de los mundos imaginarios. Los átomos pueden tener propiedades diferentes. La gravedad puede tener un papel en el mundo a pequeña escala. La naturaleza cuántica de la realidad puede intervenir en lugares insospechados.
Las constantes universales hace posible la Vida en el Universo
En estas nubes se fraguan los mundos merced a la dinámica del universo que lo hace cambiante y evolutivo. Nada permanece y todo se transforma. Las cosas ocurren de cierta manera que puede ser prvista al aplicar esas fuerzas y esas constantes que hacen de nuestro “mundo” lo que podemos observar y, de esa manera, porque esas constantes univerdsales son como las conocemos, la vida está presente y, si la carga del electrón o la masa del protón cambiara aunque solo fuese una diezmillonésima, ya la vida no sería posible tal como la conocemos.
Lo único que en la definición del mundo son los valores de las constantes adimensionales de la naturaleza (así lo creían Einstein y Planck). Si se duplica el valor de todas las masas no se puede llegar a saber, porque todos los números puros definidos por las razones de cualquier par de masas son invariables.
α (Alfa), la Constante de estructura fina equivalente a 1/137
¿Por qué el número 137 es el mayor misterio de la física? El número 137 es el valor de la constante de estructura fina. Esta constante es la que representa la fuerza de la interacción electromagnética. Es decir que tan fuerte se dan a cabo todas las interacciones electromagnéticas del universo.
“Todos los físicos del mundo, deberían tener un letrero en el lugar más visible de sus casas, para que al mirarlo, les recordara lo que no saben. En el cartel sólo pondría esto: 137. Ciento treinta y siete es el inverso de algo que lleva el de constante de estructura fina”
Lederman
Este guarda relación con la posibilidad de que un electrón emita un fotón o lo absorba. La constante de estructura fina responde también al nombre de “alfa” y sale de dividir el cuadrado de la carga del electrón, por el de la velocidad de la luz y la constante de Planck. Tanta palabrería y numerología no significan otra cosa sino que ese solo numero, 137, encierra los misterios del electromagnetismo (el electrón, e–), la relatividad (la velocidad de la luz, c), y la teoría cuántica (la constante de Planck, h).
Todo eso está relacionado: leyes fundamentales, constantes, materia y espacio tiempo… ¡nosotros!
Emilio Silvera V.
Sep
12
¿El Modelo Estándar? ¡La perfección imperfecta!
por Emilio Silvera ~ Clasificado en Física ~ Comments (0)
Equilibrio, estabilidad: el resultado de dos fuerzas contrapuestas
Demos una vuelta por el Modelo Estándar.
Hablar de todo esto nos lleva a recorrer un largo camino
Con el título que arriba podemos leer de “La perfección imperfecta”, me quiero referir al Modelo estándar de la física de partículas y de las interacciones fundamentales y, algunos, han llegado a creer que sólo faltan algunos detalles técnicos y, con ellos, la física teórica está acabada. Tenemos un modelo que engloba todo lo que deseamos saber acerca de nuestro mundo físico. ¿Qué más podemos desear? Los pobres ilusos no caen en la cuenta de que el tal Modelo, al que no podemos negarle su valía como una herramienta muy valiosa para la física, no deja de estar incompleto y, además, ha sido construido con algunos parámetros aleatorios (unos veinte) que no tienen justificación. Uno de ellos era el Bosón de Higgs y, según nos han contado los del LHC, ha sido hallado. Sin embargo, esperamos que nos den muchas explicaciones que no han estado presente en todas las algaradas y fanfarrias que dicho “hallazgo” ha producido, incluidos los premios Principe de Asturias y el Nobel. ¡Veremos en que queda todo esto al final!
Bueno, lo que hasta el momento hemos logrado no está mal del todo pero, no llega, ni con mucho, a la perfección que la Naturaleza refleja y que, nosotros perseguimos sin llegar a poder agarrar sus múltiples entrecijos y parámetros que conforman ese todo en el que, sin ninguna clase de excusas, todo debe encajar y, de momento, no es así. Muchos son los flecos sueltos, muchas las incógnitas, múltiples los matices que no sabemos perfilar.
Es cierto que, el Modelo estándar, en algunos momento, nos produce y nos da la sensación de que puede ser perfecto. Sin embargo, esa ilusoria perfección, no es permanente y en algunas casos efímera. En primer lugar, podríamos empezar a quejarnos de las casi veinte constantes que no se pueden calcular. Pero si esta fuese la única queja, habría poco que hacer. Desde luego, se han sugerido numerosas ideas para explicar el origen de estos números y se han propuesto varias teorías para “predecir” sus valores. El problema con todas estas teorías es que los argumentos que dan nunca llegan a ser convincentes.
¿Por qué se iba a preocupar la Naturaleza de una fórmula mágica si en ausencia de tal fórmula no hubiera contradicciones? Lo que realmente necesitamos es algún principio fundamental nuevo, tal como el proncipio de la relatividad, pero nos resistimos a abandonar todos los demás principios que ya conocemos; ¡esos, después de todo, han sido enormemente útiles en el descubrimiento del Modelo estándar! una herramienta que ha posibilitado a todos los físicos del mundo para poder construir sus trabajos en ese fascinante mundo de la mecánica cuántica, donde partículas infinitesimales interactúan con las fuerzas y podemos ver, como se comporta la materia en determinadas circunstancias. El mejor lugar para buscar nuevos principios es precisamente donde se encuentran los puntos débiles de la presente teoría.
“Colisión del Bosón de Higgs desintegrándose en fermiones”. Primeras evidencias de un nuevo modo de desintegración del bosón de Higgs. Las primeras evidencias de la desintegración del recién descubierto bosón de Higgs en dos partículas denominadas tau, pertenecientes a la familia de partículas que compone la materia que vemos en el Universo. Hasta ahora los experimentos del LHC habían detectado la partícula de Higgs mediante su desintegración en otro tipo de partículas denominadas bosones, portadoras de las fuerzas que actúan en la Naturaleza, mientras las evidencias de desintegraciones en fermiones no eran concluyentes. Esta es la primera evidencia clara de este nuevo modo de desintegración del bosón de Higgs.”
La regla universal en la física de partículas es que cuando las partículas chocan con energías cada vez mayores, los efectos de las colisiones están determinados por estructuras cada vez menores, más pequeñas en el espacio y en el tiempo. Supongamos por un momento que tenemos a nuestra disposición un Acelerador de Partículas 10.000 veces más potente que el LHC, donde las partículas pueden adquirir esas tantas veces más energías de las alcanzadas actualmente. Las colisiones que tendrían lugar nos dirían algo acerca de los detalles estructurales de esas partículas que ahora no conocemos, que serían mucho más pequeñas que las que ahora podemos contemplar. En este punto se me ocurre la pregunta: ¿Seguiría siendo correcto el Modelo estándar? 0, por el contrario, a medida que nos alejemos en las profundidades de lo muy pequeño, también sus normas podrían variar al mismo tiempo que varían las dimensiones de los productos hallados. Recordad que, el mundo no funciona de la misma manera en nuestro ámbito macroscópico que ante ese otro “universo” cuántico de lo infinitesimal.
¿Podeis imaginar conseguir colisiones a 70.000 TeV? ¿Qué podríamos ver? Y, entonces, seguramente, podríamos oir en los medios la algarada de las protestas de algunos grupos: “Ese monstruo creado por el hombre puede abrir en el espacio tiempo agujeros de gusano que se tragará el mundo y nos llevará hacia otros universos” Comentarios así estarían a la orden del día. Los hay que siempre están dispuestos a protestar por todo y, desde luego, no siempre llevan razón, toda vez que, la mayoría de las veces, ignoran de qué están hablando y juzgan si el conocimiento de causa necesario para ello. De todas las maneras, sí que debemos tener sumo cuidado con el manejo de fuerzas que… ¡no siempre entendemos! Cuando el LHC se vuelva a poner en marcha, se utilizarán energías que llegan hasta los 14 TeV, y, esas son palabras mayores.
¿Justifica el querer detectar las partículas que conforman la “materia oscura”, o, verificar si al menos, podemos vislumbrar la sombra de las “cuerdas” vibrantes de esa Teoría del Todo, el que se gasten ingentes cantidades de dinero en esos artilugios descomunales? Bueno, a pesar de todos los pesares, la respuesta es que SÍ, el rendimiento y el beneficio que hemos podido recibir de los aceleradores de partículas, justifica de manera amplia todo el esfuerzo realizado, toda vez que, no solo nos ha llevado a conocer muchos secretos que la Naturaleza celosamente guardaba, sino que, de sus actividades hemos tenido beneficios muy directos en ámbitos como la medicina, las comunicaciones y otros que la gente corriente desconocen.
Hoy, el Modelo estándar es una construcción matemática que predice sin ambigüedad cómo debe ser el mundo de las estructuras aún más pequeñas. Pero tenemos algunas razones para sospechar que tales predicciones resultan estar muy alejadas de la realidad, o, incluso, ser completamente falsas. Cuando tenemos la posibilidad de llegar más lejos, con sorpresa podemos descubrir que aquello en lo que habíamos creído durante años, era totalmente diferente. El “mundo” cambia a medida que nos alejamos más y más de lo grande y nos sumergimos en ese otro “mundo” de lo muy pequeño, allí donde habitan los minúsculos objetos que conforman la materia desde los cimientos mismos de la creación.
Encendamos nuestro super-microscopio imaginario y enfoquémoslo directamente en el centro de un protón o de cualquier otra partícula. Veremos hordas de partículas fundamentales desnudas pululando. Vistas a través del supermicroscopio, el modelo estándar que contiene veinte constantes naturales, describen las fuerzas que rigen la forma en que se mueven. Sin embargo, ahora esas fuerzas no sólo son bastante fuertes sino que también se cancelan entre ellas de una forma muy especial; están ajustadaspara conspirar de tal manera que las partículas se comportan como partículas ordinarias cuando se vuelven a colocar el microscopio en la escala de ampliación ordinaria. Si en nuestras ecuaciones matemáticas cualquiera de estas constantes fueran reemplazadas por un número ligeramente diferente, la mayoría de las partículas obtendrían inmediatamente masas comparables a las gigantescas energías que son relevantes en el dominio de las muy altas energías. El hecho de que todas las partículas tengan masa que corresponden a energías mucho menores repentinamente llega a ser bastante poco natural.
¿Implica el ajuste fino un diseño con propósito? ¿Hay tantos parámetros que deben tener un ajuste fino y el grado de ajuste fino es tan alto, que no parece posible ninguna otra conclusión?
Antes decía: “El hecho de que todas las partículas tengan masa que corresponden a energías mucho menores repentinamente llega a ser bastante poco natural”. Es lo que se llama el “problema del ajuste fino”. Vistas a través del microscopio, las constantes de la Naturaleza parecen estar cuidadosamente ajustadas sin ninguna otra razón aparente que hacer que las partículas parezcan lo que son. Hay algo muy erróneo aquí. Desde un punto de vista matemático, no hay nada que objetar, pero la credibilidad del Modelo estándar se desploma cuando se mira a escalas de tiempo y longitud extremadamente pequeñas o, lo que es lo mismo, si calculamos lo que pasaría cuando las partículas colisionan con energías extremadamente altas.
¿Y por qué debería ser el modelo válido hasta ahí? Podrían existir muchas clases de partículas súper pesadas que no han nacido porque se necesitan energías aún inalcanzables, ellas podrían modificar completamente el mundo que Gulliver planeaba visitar. Si deseamos evitar la necesidad de un delicado ajuste fino de las constantes de la Naturaleza, creamos un nuevo problema:
Es cierto que nuestra imaginación es grande pero… No pocas veces ¡la realidad la supera!
¿Cómo podemos modificar el modelo estándar de tal manera que el ajuste-fino no sea necesario? Está claro que las modificiaciones son necesarias , lo que implica que muy probablemente hay un límite más allá del cual el modelo deja de ser válido. El Modelo estándar no será más que una aproximación matemática que hemos sido capaces de crear, tal que todos los fenómenos observados hasta el presente están de acuerdo con él, pero cada vez que ponemos en marcha un aparato más poderoso, debemos esperar que sean necesarias nuevas modificaciones para ir ajustando el modelo, a la realidad que descubrimos.
¿Cómo hemos podido pensar de otra manera? ¿Cómo hemos tenido la “arrogancia” de pensar que podemos tener la teoría “definitiva”? Mirando las cosas de esta manera, nuestro problema ahora puede muy bien ser el opuesto al que plantea la pregunta de dónde acaba el modelo estándar: ¿cómo puede ser que el modelo estándar funcione tan extraordinariamente bien? y ¿por qué aún no hemos sido capaces de percibir nada parecido a otra generación de partículas y fuerzas que no encajen en el modelo estándar? La respuesta puede estar en el hecho cierto de que no disponemos de la energía necesaria para poder llegar más lejos de lo que hasta el momento hemos podido viajar con ayuda de los aceleradores de partículas.
Ella se encargó de hacer la presentación de los resultados del experimento ATLAS, durante el seminario del Centro Europeo de Física de Partículas (CERN) para presentar los resultados de los dos experimentos paralelos que buscan la prueba de la existencia de la “partícula de Higgs, base del modelo estándar de física.
La pregunta “¿Qué hay más allá del Modelo estándar”? ha estado facinando a los físicos durante años. Y, desde luego, todos sueñan con llegar a saber, qué es lo que realmente es lo que conforma el “mundo” de la materia, qué partículas, cuerdas o briznas vibrantes. En realidad, lo cierto es que, la Física que conocemos no tiene que ser, necesariamente, la verdadera física que conforma el mundo y, sí, la física que conforma “nuestro mundo”, es decir, el mundo al que hemos podido tener acceso hasta el momento y que no necesariamente tiene que coincidir con el mundo real que no hemos podido alcanzar.
O, como decía aquél: ¡Que mundo más hermoso, parece de verdad!
Siempre hay más de lo que el ojo ve
No todo lo que vemos es, necesariamente, un reflejo de la realidad de la Naturaleza que puede tener escondidos más allá de nuestras percepciones, otros escenarios y otros objetos, a los que, por ahora, no hemos podido acceder, toda vez que, físicamente tenemos carencias, intelectualmente también, y, nuestros conocimientos avanzar despacio para conseguir, nuevas máquinas y tecnologías nuevas que nos posibiliten “ver” lo que ahora nos está “prohibido” y, para ello, como ocurre siempre, necesitamos energías de las que no disponemos.
Hay dos direcciones a lo largo de las cuales se podría extender el Modelo estándar, tal lo conocemos actualmente, que básicamente se caracterizan así:
– Nuevas partículas raras y nuevas fuerzas extremadamente débiles, y
– nuevas partículas pesadas y nuevas estructuras a muy altas energías.
Podrían existir partículas muy difíciles de producir y de detectar y que, por esa razón, hayan pasado desapaercibidas hasta. La primera partícula adicional en la que podríamos pensar es un neutrinorotando a derecha. Recordaremos que si se toma el eje de rotación paralelo a la dirección del movimiento los neutrinos sólo rotan a izquierdas, pero… ¡esa sería otra historia!
Los neutrinos siempre me han fascinado. Siempre se han manifestado como si tuvieran masa estrictamente nula. Parece como si se movieran exactamente con la velocidad de la luz. Pero hay un límite para la precisión de nuestras medidas. Si los neutrinos fueran muy ligeros, por ejemplo, una cienmillonésima de la masa del electrón, seríamos incapaces de detectar en el laboratorio la diferencia éstos y los neutrinos de masa estrictamente nula. Pero, para ello, el neutrino tendría que tener una componente de derechas.
En este punto, los astrónomos se unen a la discusión. No es la primera vez, ni será la última, que la astronomía nos proporciona información esencial en relación a las partículas elementales. Por ejemplo, debido a las interacciones de corriente neutra (las interacciones débiles originadas por un intercambio Zº), los neutrinos son un facto crucial en la explosión supernova de una estrella. sabemos que debido a las interacciones por corriente neutra, pueden colisionar con las capas exteriores de la estrella y volarlas con una fuerza tremenda.
Neutrinos, la clave para entender el poder del sol
Un grupo de científicos que participa en el experimento Borexino, en Italia, reveló los resultados de su trabajo en la edición virtual de la conferencia Neutrino 2020
El Sol produce neutrinos constantemente, cada vez que convierte hidrógeno en helio, que es la reacción que le hace emitir energía. El flujo de neutrinos solares es enorme: cada segundo, una superficie de un centímetro cuadrado es atravesada por 60.000 millones de neutrinos.
En realidad, los neutrinos nos tienen mucho que decir, todavía y, no lo sabemos todo acerca de ellos, sino que, al contrario, son muchos los y fenómenos que están y subyacen en ellos de los que no tenemos ni la menor idea que existan o se puedan producir. Nuestra ignorancia es grande, y, sin embargo, no nos arredra hablar y hablar de cuestiones que, la mayoría de las veces…ni comprendemos.
Aquí lo dejar´ñe por hoy, el tema es largo y de una fascinación que te puede llevar a lugares en los que no habías pensado al comenzar a escribir, lugares maravillosos donde reinan objetos exóticos y de fascinante porte que, por su pequeñez, pueden vivir en “mundos” muy diferentes al nuestro en los que, ocurren cosas que, nos llevan el asombro y también, a ese mundo mágico de lo fascinante y maravilloso.
Parece que el Modelo estándar no admite la cuarta fuerza y tendremos que buscar más profundamente, en otras teorías que nos hablen y describan además de las partículas conocidas de otras nuevas que están por nacer y que no excluya la Gravedad. Ese es el Modelo que necesitamos para conocer mejor la Naturaleza.
Emilio Silvera V.
Sep
10
El “universo” de las Partículas II
por Emilio Silvera ~ Clasificado en Física ~ Comments (3)
El movimiento rotacional puro se da cuando cada partícula del cuerpo se mueve en un círculo alrededor de una sola línea. Esta línea se llama eje de rotación. En consecuencia, los radios vectores desde el eje a todas las partículas experimentan el mismo desplazamiento angular al mismo tiempo.
Estamos hablando de las partículas y no podemos dejar a un lado el tema del movimiento rotatorio de las mismas. Usualmente se ve cómo la partícula gira sobre su eje, a semejanza de un trompo, o como la Tierra o el Sol, o nuestra galaxia o, si se me permite decirlo, como el propio universo. En 1.925, los físicos holandeses George Eugene Uhlenbeck y Samuel Abraham Goudsmit aludieron por primera vez a esa rotación de las partículas. Éstas, al girar, generan un minúsculo campo electromagnético; tales campos han sido objeto de medidas y exploraciones, principalmente por parte del físico alemán Otto Stern y el físico norteamericano Isaac Rabi, quienes recibieron los premios Nobel de Física en 1.943 y 1.944 respectivamente, por sus trabajos sobre dicho fenómeno.
Esas partículas (al igual que el protón, el neutrón y el electrón), que poseen espines que pueden medirse en números mitad, se consideran según un sistema de reglas elaboradas independientemente, en 1.926, por Fermi y Dirac; por ello, se las llama y conoce como estadísticas Fermi-Dirac. Las partículas que obedecen a las mismas se denominan fermiones, por lo cual el protón, el electrón y el neutrón son todos fermiones.
Hay también partículas cuya rotación, al duplicarse, resulta igual a un número par. Para manipular sus energías hay otra serie de reglas, ideadas por Einstein y el físico indio S. N. Bose. Las partículas que se adaptan a la estadística Bose-Einstein son bosones, como por ejemplo la partícula alfa.
Las reglas de la mecánica cuántica tienen que ser aplicadas si queremos describir estadísticamente un sistema de partículas que obedece a reglas de esta teoría en vez de los de la mecánica clásica. En estadística cuántica, los estados de energía se considera que están cuantizados. La estadística de Bose-Einstein se aplica si cualquier número de partículas puede ocupar un estado cuántico dad. Dichas partículas (como dije antes) son bosones, que tienden a juntarse.
Los bosones tienen un momento angular nh/2π, donde n es 0 o un entero, y h es la constante de Planck. Para bosones idénticos, la función de ondas es siempre simétrica. Si sólo una partícula puede ocupar un estado cuántico, tenemos que aplicar la estadística Fermi-Dirac y las partículas (como también antes dije) son los fermiones que tienen momento angular (n + ½)h / 2π y cualquier función de ondas de fermiones idénticos es siempre antisimétrica. La relación entre el espín y la estadística de las partículas está demostrada por el teorema espín-estadística.
El espacio euclidiano bidimensional o simplemente espacio bidimensional (también conocido como espacio 2D o plano euclidiano) es un entorno geométrico en el que se requieren dos valores (llamados parámetros) para determinar la posición de un elemento (es decir, punto) en el plano.
En un espacio de dos dimensiones es posible que haya partículas (o cuasipartículas) con estadística intermedia entre bosones y fermiones. Estas partículas se conocen con el nombre de aniones; para aniones idénticos, la función de ondas no es simétrica (un cambio de fase de +1) o antisimétrica (un cambio de fase de -1), sino que interpola continuamente entre +1 y -1. Los aniones pueden ser importantes en el análisis del efecto Hall cuántico fraccional y han sido sugeridos como un mecanismo para la superconductividad de alta temperatura.
Este principio es el que permite que existan estrellas enanas blancas y de neutrones
Debido al principio de exclusión de Pauli, es imposible que dos fermiones ocupen el mismo estado cuántico (al contrario de lo que ocurre con los bosones). La condensación Bose-Einstein es de importancia fundamental para explicar el fenómeno de la superfluidez. A temperaturas muy bajas (del orden de 2×10-7K) se puede formar un condensado de Bose-Einstein, en el que varios miles de átomos dorman una única entidad (un super-átomo). Este efecto ha sido observado con átomos de rubidio y litio. Como ha habréis podido suponer, la condensación Bose-Einstein es llamada así en honor al físico Satyendra Nath Bose (1.894 – 1.974) y a Albert Einstein. Así que, el principio de exclusión de Pauli tiene aplicación no sólo a los electrones, sino también a los fermiones; pero no a los bosones.
Si nos fijamos en todo lo que estamos hablando aquí, es fácil comprender cómo forma un campo magnético la partícula cargada que gira, pero ya no resulta tan fácil saber por qué ha de hacer lo mismo un neutrón descargado. Lo cierto es que cuando un rayo de neutrones incide sobre un hierro magnetizado, no se comporta de la misma forma que lo haría si el hierro no estuviese magnetizado. El magnetismo del neutrón sigue siendo un misterio; los físicos sospechan que contiene cargas positivas y negativas equivalente a cero, aunque por alguna razón desconocida, logran crear un campo magnético cuando gira la partícula.
El momento magnético del neutrón
En unidades SI, el momento magnético del neutrón es aproximadamente −9.6623640 × 10−27 J/T
Particularmente creo que, si el neutrón tiene masa, si la masa es energía (E = mc2), y si la energía es electricidad y magnetismo (según Maxwell), el magnetismo del neutrón no es tan extraño, sino que es un aspecto de lo que en realidad es materia. La materia es la luz, la energía, el magnetismo, en definitiva, la fuerza que reina en el universo y que está presente de una u otra forma en todas partes (aunque no podamos verla).
Sea como fuere, la rotación del neutrón nos da la respuesta a esas preguntas:
Partículas, antipartículas, fuerzas… :
Blog de Emilio Silvera V.
¿Qué es el antineutrón? Pues, simplemente, un neutrón cuyo movimiento rotatorio se ha invertido; su polo sur magnético, por decirlo así, está arriba y no abajo. En realidad, el protón y el antiprotón, el electrón y el positrón, muestran exactamente el mismo fenómeno de los polos invertidos.
Es indudable que las antipartículas pueden combinarse para formar la antimateria, de la misma forma que las partículas corrientes forman la materia ordinaria.
La primera demostración efectiva de antimateria se tuvo en Brookhaven en 1.965, donde fue bombardeado un blanco de berilio con 7 protones BeV y se produjeron combinaciones de antiprotones y antineutrones, o sea, un anti-deuterón. Desde entonces se ha producido el antihelio 3, y no cabe duda de que se podría crear otros anti-núcleos más complicados aún si se abordara el problema con más interés.
Pero, ¿existe en realidad la antimateria? ¿Hay masas de antimateria en el universo? Si las hubiera, no revelarían su presencia a cierta distancia. Sus efectos gravitatorios y la luz que produjeran serían idénticos a los de la materia corriente. Sin embargo, cuando se encontrasen las masas de las distintas materias, deberían ser claramente perceptibles las reacciones masivas del aniquilamiento mutuo resultante del encuentro. Así pues, los astrónomos observan especulativamente las galaxias, para tratar de encontrar alguna actividad inusual que delate interacciones materia-antimateria.
No parece que dichas observaciones fuesen un éxito. ¿Es posible que el universo esté formado casi enteramente por materia, con muy poca o ninguna antimateria? Y si es así, ¿por qué? Dado que la materia y la antimateria son equivalente en todos los aspectos, excepto en su oposición electromagnética, cualquier fuerza que crease una originaría la otra, y el universo debería estar compuesto de iguales cantidades de la una y de la otra.
Aquí detectaron lograron encontrar la anti-materia por primera vez
Este es el dilema. La teoría nos dice que debería haber allí antimateria, pero las observaciones lo niegan, no lo respaldan. ¿Es la observación la que falla? ¿Y qué ocurre con los núcleos de las galaxias activas, e incluso más aún, con los quásares? ¿Deberían ser estos fenómenos energéticos el resultado de una aniquilación materia-antimateria? ¡No creo! Ni siquiera ese aniquilamiento parece ser suficiente, y los astrónomos prefieren aceptar la noción de colapso gravitatorio y fenómenos de agujeros negros, como el único mecanismo conocido para producir la energía requerida.
Así es por dentro la única fábrica de antimateria del mundo, donde los científicos crean la sustancia más explosiva del universo para entender por qué existimos.
Con esto de la antimateria me ocurre igual que con el hecho, algunas veces planteado, de la composición de la materia en lugares lejanos del universo. “Ha caído una nave extraterrestre y nuestros científicos han comprobado que está hecha de un material desconocido, casi indestructible”. Este comentario se ha podido oír en alguna película de ciencia ficción. Podría ser verdad (un material desconocido), sin embargo, no porque la nave esté construida por una materia distinta, sino porque la aleación es distinta y más avanzada a partir de los materiales conocidos del universo. En cualquier parte del universo, por muy lejana que pueda estar, rigen los mismos principios y las mismas fuerzas: la materia y la energía son las mismas en cualquier parte. Lo único que puede diferir es la forma en que se utilice, el tratamiento que se le pueda dar, y sobre todo, el poseer el conocimiento y la tecnología necesarios para poder obtener el máximo resultado de las propiedades que dicha materia encierra, porque, en última instancia, ¿es en verdad inerte la materia?
“Ha sido en uno de ellos, en un experimento que se desarrolla desde hace veinte años en el Centro Europeo de Física de Partículas (CERN), que los investigadores han conseguido un logro que puede ayudar a desentrañar el misterio. Por primera vez en la historia, se ha conseguido observar el espectro de luz de la antimateria, en concreto, del anti-hidrógeno.
No se trata de un descubrimiento sencillo. El hidrógeno, al contar con un solo protón y un único electrón, es el átomo del Universo que mejor se conoce y el más abundante, pero a su opuesto, el anti-hidrógeno, se le entiende de manera muy limitada y producirlo en condiciones de laboratorio es extremadamente difícil.”
Todo lo que podemos ver en el Universo, sin excepción, está hecho de materia mientras que no se demuestre lo contrario. Dicen que si pudiéramos ver una galaxia de antimateria, nos parecería igual a las otras de materia.
Tiene y encierra tantos misterios la materia que estamos aún a años luz de saber y conocer sobre su verdadera naturaleza. Nos podríamos preguntar miles de cosas que no sabríamos contestar. Nos maravillan y asombran fenómenos naturales que ocurren ante nuestros ojos, pero que tampoco sabemos, en realidad, a qué son debidas. Sí, sabemos ponerles etiquetas como la fuerza nuclear débil, la fisión espontánea que tiene lugar en algunos elementos como el protactinio o el torio, y con mayor frecuencia, en los elementos que conocemos como trans-uránidos. (Más allá del Uranio).
A medida que los núcleos se hacen más grandes, la probabilidad de una fisión espontánea aumenta. En los elementos más pesados de todos (einstenio, fermio y mendelevio), esto se convierte en el método más importante de su ruptura, sobrepasando a la emisión de partículas alfa. ¡Parece que la materia está viva! Son muchas las cosas que desconocemos, y nuestra curiosidad nos empuja continuamente a buscar esas respuestas.
El electrón y el positrón son notables por sus pequeñas masas (sólo 1/1.836 de la del protón, el neutrón, el antiprotón o el antineutrón), y por lo tanto, han sido denominados leptones (de la voz griega leptos, que dignifica “delgado”).
Aunque el electrón fue descubierto en 1.897 por el físico británico Joseph John Thomson (1.856 – 1.940), el problema de su estructura, si la hay, aún no está resuelto. Conocemos su masa y su carga negativa que responden a 9’1093897 (54) × 10-31 Kg la primera, y 1’60217733 (49) × 10-19 culombios la segunda, y también su radio clásico r0 igual a e2/(mc2) = 2’82 × 10-13 cm. No se ha descubierto aún ninguna partícula que sea menos masiva que el electrón (o positrón) y que lleve una carga eléctrica, sea la que fuese (sabemos cómo actúa y cómo medir sus propiedades, pero aún no sabemos qué es), que tenga asociada un mínimo de masa.
Lo cierto es que el electrón es una maravilla en sí mismo. El universo no sería como lo conocemos si el electrón fuese distinto a como es; bastaría un cambio infinitesimal para que, por ejemplo, nosotros no pudiéramos estar aquí ahora.
Muchos granos de arena conforman una inmensa playa
¡No por pequeño se es insignificante!
Claro que, no debemos olvidarnos de que, ¡Todo lo grande está hecho de cosas pequeñas! Una inmensa galaxia se conforma de un conjunto inmenso de átomos …
En realidad, existen partículas que no tiene asociada ninguna masa en absoluto, es decir, ninguna masa en reposo. Por ejemplo, las ondas de luz y otras formas de radiación electromagnética se comportan como partículas (Einstein en su efecto fotoeléctrico y De Broglie en la difracción de electrones*). Esta manifestación en forma de partículas de lo que, de ordinario, concebimos como una onda, se denomina fotón, de la palabra griega que significa “luz”.
El fotón tiene una masa de 1, una carga eléctrica de 0, pero posee un espín de 1, por lo que es un bosón. ¿Cómo se puede definir lo que es el espín? Los fotones toman parte en las reacciones nucleares, pero el espín total de las partículas implicadas antes y después de la reacción deben permanecer inmutadas (conservación del espín). La única forma de que esto suceda en las reacciones nucleares que implican a los fotones radica en suponer que el fotón tiene un espín de 1. El fotón no se considera un leptón, puesto que este término se reserva para la familia formada por el electrón, el muón y la partícula tau, con sus correspondiente neutrinos: υe, υμ y υτ.
Existen razones teóricas para suponer que cuando las masas se aceleran (como cuando se mueven en órbitas elípticas en torno a otra masa o llevan a cabo un colapso gravitacional), emiten energía en forma de ondas gravitaciones. Esas ondas pueden, así mismo, poseer aspecto de partícula, por lo que toda partícula gravitacional recibe el nombre de gravitón.
La forma gravitatoria es mucho, mucho más débil que la fuerza electromagnética. Un protón y un electrón se atraen gravitacionalmente con sólo 1/1039 de la fuerza en que se atraen electromagnéticamente. El gravitón (aún sin descubrir) debe poseer, correspondientemente, menos energía que el fotón, y por tanto, ha de ser inimaginablemente difícil de detectar.
No será fácil detectar gravitones
De todos modos, el físico norteamericano Joseph Weber emprendió en 1.957 la formidable tarea de detectar el gravitón. Llegó a emplear un par de cilindros de aluminio de 153 cm de longitud y 66 de anchura, suspendidos de un cable en una cámara de vacío. Los gravitones (que serían detectados en forma de ondas) desplazarían levemente esos cilindros, y se empleó un sistema para detectar el desplazamiento que llegase a captar la cien-billonésima parte de un centímetro. Las débiles ondas de los gravitones, que proceden del espacio profundo, deberían chocar contra todo el planeta, y los cilindros separados por grandes distancias se verán afectados de forma simultánea. En 1.969, Weber anunció haber detectado los efectos de las ondas gravitacionales. Aquello produjo una enorme excitación, puesto que apoyaba una teoría particularmente importante (la teoría de Einstein de la relatividad general). Desgraciadamente, nunca se pudo comprobar mediante las pruebas realizadas por otros equipos de científicos que duplicaron el hallazgo de Weber.
Dibujo 20150310 de stuart marongwe – mathematical model nexus gravitón
En cualquier caso, no creo que a estas alturas alguien pueda dudar de la existencia de los gravitones, el bosón mediador de la fuerza gravitatoria. La masa del gravitón es 0, su carga es 0, y su espín es 2. Como el fotón, no tiene antipartícula; ellos mismos hacen las dos versiones.
Solo de una cosa estoy seguro: Conocemos muy poco del Universo, nuestra ignorancia es…. ¡Infinita!
Emilio Silvera V.
Sep
10
Nuestro universo es dinámico, todo cambia, nada permanece
por Emilio Silvera ~ Clasificado en Física ~ Comments (0)
Partículas y campos, clásicos y cuánticos. Las nociones clásicas de partícula y campo comparadas con su contrapartida cuántica. Una partícula cuántica está deslocalizada: su posición se reparte en una distribución de probabilidad. Un campo cuántico es equivalente a un colectivo de partículas cuánticas.
El concepto de “Campo” está muy ligado a los experimentos de Faraday. Históricamente fue introducido para explicar la acción a distancia de las fuerzas magnéticas, eléctricas y, más tarde de gravedad. Con el tiempo y los nuevos conocimientos, su significado se ha extendido substancialmente, para describir variaciones de temperatura, tensiones mecánicas en un cuerpo, propagación de ondas…, y otros fenómenos a los que le son de aplicación el concepto de “campo”.
En física, condensado de Bose-Einstein es el estado de la materia que se da en ciertos materiales a temperaturas cercanas a 0 K (cero absoluto). La propiedad que lo caracteriza es que una cantidad macroscópica de las partículas del material pasan al nivel de mínima energía, denominado estado fundamental
Efecto Túnel y Salto Cuántico
En el Interior del Sol
Esquema de una estrella tipo Sol
Hoy en día, disponemos de dos herramientas muy potentes para el estudio del interior solar: Los neutrinos solares y la helio-sismología. Bethe y Chitchfield (1938) propusieron un ciclo de reacciones de fusión nuclear para explicar la generación de energía en el caso de estrellas de masa pequeña como el Sol. El balance final de dicho ciclo de reacciones, Ciclo p-p, es:
4p → He4 + 2e+ +2ѵe +energía.
¿Cómo podemos estar seguros de que este es, efectivamente, el mecanismo dominante de generación de energía que utilizan algunas estrellas y, en particular el Sol? Sorprendentemente, la respuesta es que podemos “observar” el interior del Sol mediante detectores situados en el interior de la Tierra.
Laboratorio estelar, la cuna de los mundos.
me sumerjo en los misterios y maravillas que encierra el universo, no puedo dejar de sorprenderme por sus complejas y bellas formaciones, la inmensidad, la diversidad, las fuerzas que están presentes, los objetos que lo pueblan, y, esa presencia invisible que permea todo el espacio y que se ha dado en denominar océano y campos de Higgs, allí donde reside esa clase de energía exótica, ese “éter” que, en definitiva hace que el Universo funcione tal como lo podemos ver. Existen muchos parámetros del Cosmos que aún no podemos comprender y de los que sólo podemos presentir, es como si pudiéramos ver la sombra de algo que no sabemos lo que es.
Todo el Universo conocido nos ofrece una ingente cantidad de objetos que se nos presentan en formas de estrellas y planetas, extensas nebulosas formadas por explosiones de supernovas y que dan lugar al nacimiento de nuevas estrellas, un sin fin de galaxias de múltiples formas y colores, extraños cuerpos que giran a velocidades inusitadas y que alumbran el espacio como si de un faro cósmico se tratara, y, objetos de enormes masas y densidades “infinitas” que no dejan escapar ni la luz que es atrapada por la fuerza de gravedad que generan.
Ya nos gustaría saber qué es todo lo que observamos en nuestro Universo
Sin embargo, todo eso, está formado por minúsculos e infinitesimales objetos que llamamos quarks y leptones, partículas elementales que se unen para formar toda esa materia que podemos ver y que llamamos Bariónica pudiendo ser detectada porque emite radiación. Al contrario ocurre con esa otra supuesta materia que llamamos oscura y que, al parecer, impregna todo el universo conocido, pero ni emite radiación ni sabemos a ciencia cierta de qué podrá estar formada, y, al mismo tiempo, existe una especie de energía presente también en todas partes de la que tampoco podemos explicar mucho.
Pensemos por ejemplo que un átomo tiene aproximadamente 10-8 centímetros de diámetro. En los sólidos y líquidos ordinarios los átomos están muy juntos. La densidad de los sólidos y líquidos ordinarios depende por tanto del tamaño exacto de los átomos, del grado de empaquetamiento y del peso de los distintos átomos.
Isaac Asimov en uno de sus libros nos explicó que, los sólidos ordinarios, el menos denso es el hidrógeno solidificado, con una densidad de 0’076 gramos por cm3. El más denso es un metal raro, el osmio, con una densidad de 22’48 gramos/cm3. Si los átomos fuesen bolas macizas e incompresibles, el osmio sería el material más denso posible, y un centímetro cúbico de materia jamás podría pesar ni un kilogramo, y mucho menos toneladas.
Ese puntito blanco del centro de la Nebulosa planetaria, es mucho más denso que el osmio, es una enana blanca, y, sin embargo, no es lo más denso que en el Universo podemos encontrar. Cualquier estrella de neutrones es mucho más densa y, no hablemos de los agujeros negros, de su singularidad.
los átomos no son macizos. El físico neozelandés experimentador por excelencia, Ernest Ruthertord, demostró en 1909 que los átomos eran en su mayor parte espacio vacío. La corteza exterior de los átomos contiene sólo electrones ligerísimos, mientras que el 99’9% de la masa del átomo está concentrada en una estructura diminuta situada en el centro: el núcleo atómico.
El núcleo atómico tiene un diámetro de unos 10-15 cm (aproximadamente 1/100.000 del propio átomo). Si los átomos de una esfera de materia se pudieran estrujar hasta el punto de desplazar todos los electrones y dejar a los núcleos atómicos al desnud0, el diámetro de la esfera disminuiría hasta un nivel de 1/100.000 de su tamaño original. De manera análoga, si se pudiera comprimir la Tierra hasta dejarla reducida a un balón de núcleos atómicos, toda su materia quedaría reducida a una esfera de unos 130 metros de diámetro. En esas mismas condiciones, el Sol mediría 13’7 km de diámetro en lugar de los 1.392.530 km que realmente mide. Y si pudiéramos convertir toda la materia conocida del universo en núcleos atómicos obtendríamos una esfera de sólo algunos cientos de miles de km de diámetro, que cabría cómodamente dentro del cinturón de asteroides del Sistema Solar.
El calor y la presión que reinan en el centro de las estrellas rompen la estructura atómica y permiten que los núcleos atómicos empiecen a empaquetarse unos junto a otros. Las densidades en el centro del Sol son mucho más altas que la del osmio, pero los núcleos atómicos se mueven de un lado a otro sin impedimento alguno, el material sigue siendo un gas. Hay estrellas que se componen casi por entero de tales átomos destrozados. La compañera de la estrella Sirio es una “enana blanca” no mayor que el planeta Urano, y sin embargo tiene una masa parecida a la del Sol.
Los núcleos atómicos se componen de protones y neutrones. Ya hemos dicho que todos los protones tienen carga eléctrica positiva y se repelen, de modo que en un lugar dado no se pueden reunir más de un centenar de ellos. Los neutrones, por el contrario, no tienen carga eléctrica y en adecuadas pueden estar juntos y empaquetados un número enorme de ellos para formar una “estrella de neutrones”. Los púlsares, según se cree, son estrellas de neutrones en rápida rotación.
Estas estrellas se forman las estrellas de 2 – 3 masas solares, agotado el combustible nuclear, no pueden fusionando el hidrógeno en helio, el helio en oxígeno, el oxigeno en carbono, etc, y explotan en supernovas. Las capas exteriores se volatilizan y son expulsados al espacio; el resto de la estrella (su mayor parte), al quedar a merced de la fuerza gravitatoria, es literalmente aplastada bajo su propio peso hasta tal punto que los electrones se funden con los protones y se forman neutrones que se comprimen de manera tan increíble que se degeneran (como consecuencia de que son fermiones y están afectados por el principio de exclusión de Pauli) y emiten una fuerza que contrarresta la gravedad, quedándose estabilizada como estrella de neutrones.
El Gran Telescopio Canarias (GTC), instalado en el Observatorio del Roque de los Muchachos (La Palma), ha obtenido imágenes de una profundidad “sin precedentes” de una estrella de neutrones del magnetar, de las que se conocen pocos ejemplares. Si el Sol se convirtiera en una estrella de neutrones, toda su masa quedaría concentrada en una pelota cuyo diámetro sería de 1/100.000 del actual, y su volumen (1/100.000)3, o lo que es lo mismo 1/1.000.000.000.000.000 (una milmillonésima) del actual. Su densidad sería, por tanto, 1.000.000.000.000.000 (mil billones) de veces superior a la que tiene ahora.
La densidad global del Sol hoy día es de 1’4 gramos/cm3. Una estrella de neutrones a partir del Sol tendría una densidad que se reflejaría mediante 1.400.000.000.000.000 gramos por cm3. Es decir, un centímetro cúbico de una estrella de neutrones llegar a pesar 1.400.000.000 (mil cuatrocientos millones de toneladas). ¡Qué barbaridad!
Imagen captada por el telescopio Hubble de la galaxia NGC 3393. El núcleo de la galaxia, donde se encuentra la pareja de agujeros negros se ver encuadrado (NASA). Está claro que lo que se dice ver a los agujeros negros… Nadie los ha podido ver y, sólo hemos podido captar su presencia por los fenómenos que a su alrededor ocurren en la emisión inusual de radiación y el comportamiento de la materia circundante.
Poemos decir que objetos tan fascinantes éstos (estrellas enanas blancas, de neutrones y agujeros negros), son los que nos muestran estados de la materia más densos que hemos podido llegar a conocer y que se forjan en la propia Naturaleza mediante transiciones de fase que se producen mediante los mecanismos de las fuerzas que todo lo rigen. Cuando hablamos de las cosas del universo estamos hablando de cosas muy grandes. Cualquiera se podría preguntar, por ejemplo: ¿ cuándo podrá mantener el Sol la vida en la Tierra? Está claro que podrá hacerlo mientras radie energía y nos envie luz y calor que la haga posible tal como la conocemos. Cuando agote su combustible nuclear de fusión, su vida se apagará y se convertirá en gigante roja primero y enana blanca después.
Como ya explicamos antes, la radiación del Sol proviene de la fusión del hidrógeno en helio. Para producir la radiación vertida por el sol se necesita una cantidad ingente de fusión: segundo tienen que fusionarse 4.654.600.000 toneladas de hidrógeno en 4.650.000 toneladas de helio (las 4.600.000 toneladas restantes se convierten en energía de radiación y las pierde el Sol para siempre. La ínfima porción de energía que incide sobre la Tierra basta mantener toda la vida en nuestro planeta).
Los rayos del Sol que envían al planeta Tierra su luz y su calor para hacer posible la vida en un planeta maravilloso que es el habitats de millones de especies, unas más inteligentes que otras en relación al roll que, a cada una, le tocó desempañar en el escenario de este gran teatro que llamaos mundo.
Nadie diría que con consumo tan alto de hidrógeno por segundo, el Sol pudiera durar mucho tiempo, pero es que ese cálculo no tiene en cuenta el enorme tamaño del Sol. Su masa totaliza 2.200.000.000.000.000. 000.000.000.000 (más de dos mil cuatrillones) de toneladas. Un 53% de esta masa es hidrógeno, lo cual significa que el Sol contiene en la actualidad una cantidad de 1.166.000.000.000.000.000.0000.0000.000 toneladas.
Para completar diré que el resto de la masa del Sol es casi todo helio. Menos del 0’1 por 100 de su masa está constituido por átomos más complicados que el helio. El helio es más compacto que el hidrógeno. En condiciones idénticas, un dado de átomos de helio tiene una masa cuatro veces mayor el mismo número de átomos de hidrógeno. O dicho de otra manera: una masa dada de helio ocupa menos espacio que la misma masa de hidrógeno. En función del volumen – el espacio ocupado –, el Sol es hidrógeno en un 80 por ciento.
Este podría ser nuestro Sol en el pasado sólo era una protoestrella que se estaba formando
Si suponemos que el Sol fue en origen todo hidrógeno, que siempre ha convertido hidrógeno en helio al ritmo dicho de 4.654 mil toneladas por segundo y que lo seguirá haciendo hasta el final, se calcula que ha radiando hace unos 4.000 millones de años y que seguirá haciéndolo durante otros cinco mil millones de años más. Pero las cosas no son tan simples. El Sol es una estrella de segunda generación, constituida a partir de gas y polvo cósmico desperdigado por estrellas que se habían quemado y explotado miles de millones de años atrás. Así pues, la materia prima del Sol contenía ya mucho helio el principio, lo que nos lleva a pensar que el final puede estar algo más cercano.
Por otra , el Sol no continuará radiando exactamente al mismo ritmo que . El hidrógeno y el helio no están perfectamente entremezclados. El helio está concentrado en el núcleo central y la reacción de fusión se produce en la superficie del núcleo. Cuando el Sol se convierta en gigante roja… Nosotros tendremos que haber podido buscar la manera de salir de la Tierra unicarnos en otros mundos, dado que, dicha fase del Sol, no permitirá la vida en nuestro planeta.
Los planetas interiores serán engullidos por nuestro Sol y, la Tierra, quedará calcinada, sus océanos se evaporarán y toda la vida, desaparecerá.
Las estrellas, todo en nuestro universo, tienen un principio y un final. La que en la imagen de arriba podemos contemplar, ha llegado al final de su ciclo, y, agotado su combustible nuclear, quedará a merced de la fuerza de la Gravedad que la convertirá en un objeto distinto del que fue durante su larga vida. Dependiendo de su masa, las estrellas se convierten en enanas blancas -el caso del Sol-, estrella de neutrones o Agujeros negros.
La atracción gravitatoria de la Luna sobre la Tierra hace subir el nivel de los océanos a ambos lados de nuestro planeta y crea así dos abultamientos. A medida que la Tierra gira de oeste a , estos dos bultos – de los cuales uno mira la Luna y el otro en dirección contraria – se desplazan de este a oeste alrededor de la Tierra. Al efectuar este desplazamiento, los dos bultos rozan contra el fondo de los mares poco profundos, como el de Bering o el de Irlanda. Tal rozamiento convierte energía de rotación en calor, y este consumo de la energía de rotación terrestre hace que el movimiento de rotación de la Tierra alrededor de su eje vaya disminuyendo poco a poco. Las mareas actúan como freno sobre la rotación de la Tierra, y como consecuencia de ello, los días terrestres se van alargando un segundo mil años.
Pero no es sólo el agua del océano lo que sube de nivel en respuesta a la gravedad lunar. La corteza sólida de la Tierra también acusa el efecto, aunque en medida notable. El resultado son dos pequeños abultamientos rocosos que van girando alrededor de la Tierra, el uno mirando la Luna y el otro en la cara opuesta de nuestro planeta. Durante ese desplazamiento, el rozamiento de una capa rocosa contra otra va minando también la energía de rotación terrestre. (Los bultos, claro está, no se mueven físicamente alrededor del planeta, sino que a medida que el planeta gira, remiten en un lugar y se forman en otro, según qué porciones de la superficie pasen por debajo de la Luna y sean atraídas por su fuerza de gravedad).
La Luna no tiene mares ni mareas en el sentido corriente. Sin embargo, la corteza sólida de la luna acusa la fuerte atracción gravitacional de la Tierra, y no hay que olvidar que ésta es 80 veces más grande que la Luna. El abultamiento provocado en la superficie lunar es mucho mayor que el de la superficie terrestre. Por tanto, si la Luna rotase en un periodo de 24 horas, estaría sometida a un rozamiento muchísimo mayor que la Tierra. Además, nuestro satélite tiene una masa mucho menor que la Tierra, su energía total de rotación sería, ya de entrada, periodos de rotación iguales, mucho menor.
Así pues, la Luna, con una reserva inicial de energía muy pequeña, socavada rápidamente por los grandes bultos provocados por la Tierra, tuvo que sufrir una disminución relativamente rápida de su periodo de rotación. Hace seguramente muchos millones de años debió de decelerarse el punto de que el día lunar se igualó con el mes lunar. De ahí en adelante, la Luna siempre mostraría la misma cara el planeta Tierra.
Esto, a su vez, congela los abultamientos en un aposición fija. Unos de ellos miran hacia la Tierra el centro mismo de la cara lunar que nosotros vemos, mientras que el otro está apuntando en dirección contraria desde el centro mismo de la cara lunar que no podemos ver. Puesto que las dos caras no cambian de posición a medida que la Luna gira alrededor de la Tierra, los bultos no experimentan ningún cambio ni tampoco se produce rozamiento alguno que altere el periodo de rotación del satélite. La luna continuará mostrándonos la misma cara indefinidamente; lo cual, como veis, no es ninguna coincidencia, sino la consecuencia inevitable de la gravitación y del rozamiento.
Durante unos ochenta años, por ejemplo, se pensó que Mercurio (el planeta más cercano al Sol y el más afectado por la fuerza gravitatoria solar) ofrecía siempre la misma cara al Sol, por el mismo motivo que la Luna ofrece siempre la misma cara a la Tierra. Pero se ha comprobado que, en el caso de planeta, los efectos del rozamiento producen un periodo estable de rotación de 58 días, que es justamente dos tercios de los 88 días que constituyen el período de revolución de Mercurio alrededor del Sol.
Hay tantas cosas que aprender que el corto tiempo que se nos permite estar aquí es totalmente insuficiente conocer todo lo que nos gustaría. ¿Hay algo más penoso que la ignorancia? Continuemos pues aprendiendo cosas nuevas.
Entropía del Universo
Entropía de los seres humanos: Padre con su hijo y su nieto
En alguna ocasión dejé una reseña de lo que se entiende por entropía y así sabemos que la energía sólo ser convertida en trabajo cuando dentro del sistema concreto que se esté utilizando, la concentración de energía no es uniforme. La energía tiende entonces a fluir desde el punto de mayor concentración al de menor concentración, hasta establecer la uniformidad. La obtención de trabajo a partir de energía consiste precisamente en aprovechar este flujo.
El agua de un río está más alta y tiene más energía gravitatoria en el manantial del que mana en lo alto de la montaña y energía en el llano en la desembocadura, donde fluye suave y tranquila. Por eso fluye el agua río abajo el mar (si no fuese por la lluvia, todas las aguas continentales fluirían montaña abajo el mar y el nivel del océano subiría ligeramente. La energía gravitatoria total permanecería igual, pero estaría distribuida con mayor uniformidad).
Una rueda hidráulica gira gracias al agua que corre ladera abajo: ese agua realizar un trabajo porque crea energía . El agua sobre una superficie horizontal no puede realizar , aunque esté sobre una meseta muy alta y posea una energía gravitatoria excepcional. El factor crucial es la diferencia en la concentración de energía y el flujo hacia la uniformidad.
Y lo mismo reza para cualquier clase de energía. En las máquinas de vapor hay un de calor que convierte el agua en vapor, y otro depósito frío que vuelve a condensar el vapor en agua. El factor decisivo es esta diferencia de temperatura. Trabajando a un mismo y único nivel de temperatura no se puede extraer ningún , por muy alta que sea aquella.
Nada es eterno, todo tiene un principio y un final. En los sistemas cerrados, la energía se va perdiendo con el transcurso del Tiempo.
En realidad, la Entropía no debe resultarnos tan extraña como esa imagen de arriba, la Entropía está presente en nuestras vidas cotidianas y por todo el Universo, es algo que nació con el Tiempo al que acompaña y, cuando éste transcurre, aquella deja sentir sus efectos. Nos dice que nada es Eterno, que lo que nace muere, que todo cambia.
El término “entropía” lo introdujo el físico alemán Rudolf J. E. Clausius en 1.849 representar el grado de uniformidad con que está distribuida la energía, sea de la clase que sea. Cuanto más uniforme, mayor la entropía. Cuando la energía está distribuida de manera perfectamente uniforme, la entropía es máxima para el sistema en cuestión. El Tiempo, podríamos decir que es el portador de una compañera que, como él mismo, es inexorable. La entropía lo cambia todo y, en un Sistema cerrado (pongamos el Universo), la entropía siempre crece mientras que la energía es vez menor. Todo se deteriora con el paso del tiempo.
Marzo de 2009, Carolina del Sur, Estados Unidos. Lo que vemos son los desechos de cenizas de carbón en una planta generadora de electricidad. Foto: J. Henry Fair/Cortesía: Galería Gerald Peters. De la misma manera, en el Universo, se producen transiciones de fase que desembocan en el deterioro de los objetos que lo pueblan. Nunca será lo mismo una estrella de 1ª generación que una de 3ª y, el material del que están compuestas las últimas serán más complejos y cada vez, tendrán menor posibilidad de convertirse en Nebulosas que sean capaces de crear nuevas estrellas.
Clausius observó que cualquier diferencia de energía dentro de un sistema tiende siempre a igualarse por sí sola. Si colocamos un objeto caliente junto a otro frío, el calor fluye de manera que se transmite del caliente al frío que se igualan las temperaturas de ambos cuerpos. Si tenemos dos depósitos de agua comunicados sí y el nivel de uno de ellos es más alto que el otro, la atracción gravitatoria hará que el primero baje y el segundo suba, hasta que ambos niveles se igualen y la energía gravitatoria quede distribuida uniformemente.
Considerado Sistema Cerrado, la Entropía no deja de aumentar en nuestro Universo a medida que el Tiempo transcurre
Clausius afirmó, por tanto, que en la naturaleza era regla general que las diferencias en las concentraciones de energía tendían a igualarse. O dicho de otra manera: que la entropía aumenta con el tiempo. El estudio del flujo de energía puntos de alta concentración a otros de baja concentración se llevó a cabo de modo especialmente complejo en relación con la energía térmica. Por eso, el estudio del flujo de energía y de los intercambios de energía y recibió el de “termodinámica”, que en griego significa “movimiento de calor”.
Con anterioridad se había llegado ya a la conclusión de que la energía no podía ser destruida ni creada. regla es tan fundamental que se la denomina “primer principio de la termodinámica”. Sin embargo, cuando la entropía ataca, la energía quedar congelada e inservisble. La idea sugerida por Clausius de que la entropía aumenta con el tiempo es una regla general no básica, y que denomina “segundo principio de la termodinámica.”
Según segundo principio, la entropía aumenta constantemente, lo cual significa que las diferencias en la concentración de energía también van despareciendo. Cuando todas las diferencias en la concentración de energía se han igualado por completo, no se puede extraer más , ni pueden producirse cambios.
¿Está degradándose el universo?
Bueno, todos sabemos que el Universo evoluciona y, como todo, con el paso del tiempo cambia. Lo que hoy es, mañana no será. Existe una pequeña ecuación: S = k log W que, aunque pequeña y sencilla, es la mayor aportaciópn de Boltzmann y una de las ecuaciones más importantes de la Física. El significado de las tres letras que aparecen (aparte la notación el logaritmo es el siguiente: S es la entropía de un Sistema; W el de microestados posibles de sus partículas elementales y k una constante de proporcionalidad que hoy día recibe el de constante de Boltzmann y cuyo valor es k = 1,3805 x 10-23 J(K (si el logaritmo se toma en base natural). En esta breve ecuación se encierra la conexión del micromundo y el macromundo, y por ella se reconoce a Boltzmann como el padre de la rama de la Física comocida como Mecánica Estadistica.
Pero esa, es otra historia.
Emilio Silvera V.