Oct
19
¡Imaginación! Un gran tesoro
por Emilio Silvera ~ Clasificado en Rumores del Saber ~ Comments (0)
Séneca, filósofo estoico romano del siglo primero, dejó para la posteridad una buena muestra de su ingenio
“Llegará un tiempo en los últimos años en que el Océano aflojará los lazos en los que hemos estado atados, en que se revelará una tierra inmensa…y Tule ya no será el más remoto de los paises. Así se expresaba Séneca y quería significar que los lazos que nos atan a nuestro planeta serán rotos algún día, cuando en posesión del conocimiento necesario, podamos volar hacia las lejanas estrellas, a otros mundos, otras “Tierras”, otras gentes y, el concepto de lo remoto, no tendrá sentido entonces, ya que, todo será lo mismo y el aquí y allí, formarán parte de un todo simplemente más grande y sin limitaciones.”
El nuevo despertar de la indagación inteligente de la Naturaleza del espacio cosmológico que asociamos con el Renacimiento tuvo sus raíces en una época de exploraciones terrestres que se inició aproximadamente en el tiempo de las aventuras de Marco Polo en China, en el siglo XIII, y culminó doscientos años más tarde con el (re) descubrimiento de América por Cristobal Colón. La Astronomía y la exploración de la Tierra, por supuesto, estaban relacionadas desde hacía tiempo. Durante milenios los navegantes se habían guiado por las estrellas utilizando sus entonces rísticos instrumentos.
Así lo prueba la costumbre china de llamar “balsas estelares” a sus juncos de mar abierto y la leyenda de que Jasón el argonauta fue el primer hombre que recurrió a las constelaciones para memorizar el cielo nocturno. Cuando Magallanes cruzó el Pacífico, su flota siguió una estrella artificial que consistía en una antorcha encendida colocada en la popa de su barco, y navegó por aguas que habían atravesado miles de años antes los colonizadores de Micronesia, Australia y Nueva Guinea, aventureros tripulantes de canoas que llevaban sus mapas estelares en su cabeza. Virgilio puso de relieve la importancia de observar las estrellas en su relato de la fundación de Roma por Eneas
Y todavía la noche, impulsada por las horas,
No había llegado a la mitad de su curso: de su lecho
Se levanta Palinuro, siempre vigilante,
Examina todos los vientos y capta en su oido
Las brisas; en los cielos silenciosos
Observa las estrellas que los atraviesan,
Arturo, y las lluviosas Híades.
Y las Osas gemelas y Orion cubierta de oro.
Y cuando todo lo que ve está en calma en el cielo despejado,
Da desde la popa la clara señal.
Levantamos el campo, reiniciamos nuestro camino
Ydesplegamos nuestrasa velas.
Y ya el Alba el cielo
Enrojecía mientras huían las estrellas,
Cuando a lo lejos contmplamos las sombreadas colinas
Y abajo Italia. “¡Italia!”
Los exploradores terrestres y los indios también se guiaban por las estrellas, cuando perdidos en el bosque, se reconfortaban mirando el cielo cuyas manos eran la gan endidura que divide la región del Cisne y Sagittario, y a los esclavos que huían hacia el norte a través de los pinos achaparrados de Georgia y el Mississippi se les aconsejaba seguir la calabaza para beber, que se refería a la Osa Mayor. Tolomeo usó su considerable conocimiento de la geografía como apoyo de sus estudios en astronomía; su afirmación de que la Tierra sólo es un punto comparada con la esfera celeste se basaba en parte en el testimonio de viajeros que se aventuraron en dirigirse al sur, en África central, o al norte, hacia Tule, e informaron no haber visto ninguna prueba de que sus desplazamientos los hubiera acercado ni en un mínimo grado a las estrellas en esos parajes del cielo.
La latitud ha sido un parámetro el cual tomaban para guiarse a partir de la polaris y junto con el uso del instrumento llamado sextante. Por la noche, la única guía para los marineros la constituía la esfera del firmamento estrellado. Para el observador terrestre, los astros parecen estar situados sobre la superficie de una gran esfera.
Esta “ esfera” era lo que los antiguos navegantes creían una superficie esférica imaginaria sobre la cual situaban los astros. Esta creencia que sostenian los antiguos marineros reforzaba la idea de que nosotros eramos en centro del universo por miles de años. Las estrellas mas importantes en esta bodeda celeste y que ocupaban para guiarse eran la estrella polar, la cruz del sur, kochab y la canope. tuvieron que aprovechar las constelaciones como las únicas acompañantes nocturnas.
Así, aunque el principal motivo de aquella oleada de exploraciones europeas era económico -aquellos aventureros esperaban obtener grandes fortunas y conquistar grandes tesoros- y se lanzaban al océano esperando poder orientarse, navegando por la ruta oceánica hacia el Este guiado por las estrellas -no es sorprendente enterarse de que uno de sus instigadores fue un astrónomo. Era un florentino llamado Paolo Pozzo Toscanelli, quien subrayaba que en el Este se encontraría conocimiento tanto como riqueza-. En Asia, Toscanelli le escribió tentadoramente a Colón:
En su carta, Toscanelli le decía a Colón:
“…es digna de ser buscada por los latinos, no sólo porque permitiría adquirir una enorme riqueza en forma de oro, plata, gemas preciosas de toda clase y especias que nunca llegan a nosotros, sino también por los hombres eruditos, los sabios filósofos y astrólogos mediante cuyo genio y artes son gobernados esos poderosos y magnificos paises”
Buena parte del atractivo novelesco que coloreaban la imagen Occidental del Este provenían del extraordinario libro de Marco Polo que relataban sus igualmente extraordinarios viajes en China. Marco venía de Venecia, que no era ningún lugar atrasado, pero nada lo había preparado para algo como Hangzhou, que visitó en 1276 y de cuyo impacto nunca se recuperó totalmente. “La más grande ciudad del mundo” -la llamó- donde pueden encontrarse tantos placeres que uno cree estar en el Paraiso”.
Hangzhou estaba a orillas de un lago y en medio de montañas difusas y brumosas, cuya pintira fiel por pintores paisajistas Sung aún sorprende a los ojos occidentales como algo casi demasiado bello para ser verdadero, Marco Polo informaba.
“En medio del lago hay dos islas, en cada una de las cuales se eleva un palacio con un número increíble de grandes habitaciones y pabellones separados. Y cuando alguien desea celebrar una fiesta matrimonial o dar un gran banquete, solía hacerlo en uno de esos pabellones. Y allí se encontraba todo lo necesario para ello gracias a la contribución de todos los ciudadanos que habían contribuído en la medida de sus posibilidades para que, cuando alguien lo necesitara, los pudiera utilizar en esos bellos palacios.”
El espíritu de ese nuevo epicentro aventurero era Segres, una punta terrestre del extremo suroccidental de Europa que penetra en el Océano como un Cabo Cañaveral del Renacimiento. Alli, en 1419, el Principe Enrique el Navegante creo una especie de puerto espacial. En la Biblioteca de Segres se contenía una edición de Marco Polo (traducida por su vagabundo hermano Pedro) y una serie de otros libros que estimulñaron la creencia de muchos de aquellos navegantes aventureros que llegaron a abrior una rura hacia el Este circunnavegando África y abriendo una nueva ruta marina.
Herodoto, Euxodo, Cízico, Estrabón…todos nos hablaron de aquellos viajeros que llegaron más allá de las Columnas de Hércules, en la lejana Tule, esa región en la que Platón sitúo a la Atlántida.
Pero eso es otra historia y, me tengo que preguntar cómo he podido llegar hasta aquí…¡Yo sólo quería hablar de Astronomía!
emilio silvera
Oct
19
¡La Física! Que en su apartado cuántico…¡es extraña!
por Emilio Silvera ~ Clasificado en Física Cuántica ~ Comments (0)
Sí, muy extraña pero…funciona. Cuando nos sumergimos en el mundo cuántico somos conscientes de que todo ese mundo fantástico de lo muy pequeño va contra la intuición, en nada se parece a nuestro mundo macroscópico y, allí, suceden cosas que nos parecen imposibles. Allí, en el “universo cuántico” se sustituye la continuidad por lo discreto. Se podría decir que no es el agua compacta que forma un todo, sino que, es como la fina arena que está formada por muchos granos que logran pasar desapercibidos en ese conjunto total.
¿Cómo podríamos suponer el carácter fantasmagórico del experimento de la doble rendija?
“El experimento de Young, también denominado experimento de la doble rendija, fue realizado en 1801 por Thomas Young, en un intento de discernir sobre la naturaleza corpuscular u ondulatoria de la luz. Young comprobó un patrón de interferencias en la luz procedente de una fuente lejana al difractarse en el paso por dos rejillas, resultado que contribuyó a la teoría de la naturaleza ondulatoria de la luz.
Posteriormente, la experiencia ha sido considerada fundamental a la hora de demostrar la dualidad onda corpúsculo, una característica de la mecánica cuántica. El experimento también puede realizarse con electrones, protones o neutrones, produciendo patrones de interferencia similares a los obtenidos cuando se realiza con luz.”
Otro fenómeno que va contra la intuición es el “efecto túnel”. Los electrones son capaces de atravesar un túnel a través de una barrera de potencial estrecha hacia una región que estaría prohibida si los electrones fuesen tratados como partículas clásicas. El que haya una probabilidad finita de que un electrón haga un túnel entre una región clásicamente permitida a otra surge como consecuencia de la mecánica cuántica. El efecto túnel es usado en el diodo túnel. La desintegración alfa es un ejemplo de proceso de efecto túnel.
Nuestra descripción de lo que les pasa a los electrones que se dirigren hacia una barrera de energía o a un electrón atrapado entre dos barreras debe tener en cuenta las ondas probabilistas. Hay una probabilidad finita de que la partícula atrapada aparezca fuera de la trampa. Esto no sólo va contra la intuición, sino que se puede considerar una paradoja de orden mayor, pues el electrón a su paso por la barrera debía tener una energía cinética negativa, lo que, desde el punto de vista clásico, es absurdo.
Claro que, cuando se desarrolla la intuición cuántica, uno puede responder que la condición de que el electrón “esté en el túnel” no mes aobservable y por lo tanto no es un problema de la física. Lo que uno observa es que se sale fuera. Este fenómeno, el paso por efecto túnel, se utilizó (como ya he dicho) para explicar la radiactividad Alfa. Por fantasmagórico que sea, este “efecto túnel” les es esencial a los ordenadores modernos y a otros muchos dispositivos electrónicos.
Partículas puntuales, paso por efecto túnel, radiactividad, la tortura de la rendija doble: todo esto contribuyó a las nuevas intuiciones que los físicos cuánticos necesitaron a medida que fue posible desplegar todo su armamento intelectual a la búsqueda de fenómenos inexplicables.
Todo son átomos: Los mundos con sus ríos y montañas, los seres vivos, las estrellas y las galaxias, todo sin excepción… ¡átomos! Y, lo sorprendente es que, nosotros, hayamos podido llegar tan lejos y conocer lo que la materia es (al menos en parte), poder dilucidar entre esos dos “universo” de lo grande y lo pequeño.
Gracias a los acontecimientos que están recogidos en el período que va desde 1923 a 1927, se pudo comprender el átomo. Aún así, en esos días previos a los ordenadores, sólo se podían utilizar adecuadamente los átomos simples -el hidrógeno, el helio, el litio y los átomos a los que se les han quitado algunos electrones (ionizado)-. Aquí, no cabe más remedio que reconocer el gran avance debido a Wolfgan Pauli, él entendió la mecánica cuántica desde muy joven, con 19 años ya era todo un experto y supo, intuir, dónde estaba la “materia perdida”.
Los físicos se vieron durante mucho tiempo turbados por el hecho de que a menudo, la partícula beta emitida en una desintegración del núcleo no alberga energía suficiente para compensar la masa perdida por el núcleo. En realidad, los electrones no eran igualmente deficitarios. Emergían con un amplio espectro de energías, y el máximo (conseguido por muy pocos electrones), era casi correcto, pero todos los demás no llegaban a alcanzarlo en mayor o menor grado. Las partículas alfa emitidas por un nucleido particular poseían iguales energías en cantidades inesperadas. En ese caso, ¿qué era errónea en la emisión de partículas beta? ¿Qué había sucedido con la energía perdida?
Todo parece indicar que los neutrinos…¡sí tienen masa!
En 1.922, Lise Maitner se hizo por primera vez esta pregunta, y, hacia 1.930, Niels Bohr estaba dispuesto a abandonar el gran principio de conservación de la energía, al menos en lo concerniente a partículas subatómicas. En 1.931, Wolfgang Pauli sugirió una solución para el enigma de la energía desaparecida.
Tal solución era muy simple: junto con la partícula beta del núcleo se desprendía otra, que se llevaba la energía desaparecida. Esa misteriosa segunda partícula tenía propiedades bastante extrañas. No poseía carga ni masa. Lo único que llevaba mientras se movía a la velocidad de la luz era cierta cantidad de energía. A decir verdad, aquello parecía un cuerpo ficticio creado exclusivamente para equilibrar el contraste de energías.
Sin embargo, tan pronto como se propuso la posibilidad de su existencia, los físicos creyeron en ella ciegamente. Y esta certeza se incrementó al descubrirse el neutrón y al saberse que se desintegraba en un protón y se liberaba un electrón, que, como en la decadencia beta, portaba insuficientes cantidades de energía. Enrico Fermi dio a esta partícula putativa el nombre de “neutrino”, palabra italiana que significa “pequeño neutro”.
“Las partículas gamma son radiaciones electromagnéticas de la misma naturaleza que los rayos X pero de menor longitud de onda. Su poder de penetración es muy elevado frente al de las partículas alfa o beta, pudiendo atravesar el cuerpo humano. Quedan frenadas con espesores de 1 m de hormigón o unos pocos cm de plomo, por lo que cuando se utilizan fuentes radiactivas que emiten este tipo de radiación, hay que utilizar blindajes adecuados.”
Pero sigamos con nuestro trabajo de hoy. El neutrón dio a los físicos otra prueba palpable de la existencia del neutrino. Como ya he comentado en otras ocasiones, casi todas las partículas describen un movimiento rotatorio. Esta rotación se expresa, más o menos, en múltiples de una mitad según la dirección del giro. Ahora bien, el protón, el neutrón y el electrón tienen rotación de una mitad. Por tanto, si el neutrón con rotación de una mitad origina un protón y un electrón, cada uno con rotación de una mitad, ¿qué sucede con la ley sobre conservación del momento angular? Aquí hay algún error. El protón y el electrón totalizan una mitad con sus rotaciones (si ambas rotaciones siguen la misma dirección) o cero (si sus rotaciones son opuestas); pero sus rotaciones no pueden sumar jamás una mitad. Sin embargo, por otra parte, el neutrino viene a solventar la cuestión.
Supongamos que la rotación del neutrón sea +½. Y admitamos también que la rotación del protón sea +½ y la del electrón -½, para dar un resultado neto de o. Demos ahora al neutrino una rotación de +½, y la balanza quedará equilibrada.
+½(n)=+½(p)-½(e)+½(neutrino)
Pero aun queda algo por equilibrar. Una sola partícula (el neutrón) ha formado dos partículas (el protón y el electrón), y, si incluimos el neutrino, tres partículas. Parece más razonable suponer que el neutrón se convierte en dos partículas y una antipartícula. En otras palabras: lo que realmente necesitamos equilibrar no es un neutrino, sino un antineutrino.
“25 noviembre 2011. Físicos investigadores trabajando en el experimento Double Chooz han detectado la desaparición de antineutrinos electrónicos durante su recorrido desde el núcleo de los reactores hasta el detector situado a algo mas de 1 Km de distancia.
Este resultado, que ha sido presentado en la Conferencia LowNu de Seul, en Corea, servirá para determinar el valor del hasta ahora desconocido ángulo de mezcla q13, que es un parametro fundamental con importantes implicaciones para la física de partículas y de astropartículas.”
Pero sigamos con lo nuestro. El propio neutrino surgiría de la conversación de un protón en un neutrón. Así, pues, los productos serían un neutrón (partícula), un positrón (antipartícula) y un neutrino (partícula). Esto también equilibra la balanza.
En otras palabras, la existencia de neutrinos y antineutrinos debería salvar no una, sino tres, importantes leyes de conservación: la conservación de la energía, la de conservación del espín y la de conservación de partícula/antipartícula.
Es importante conservar esas leyes puesto que parece estar presentes en toda clase de reacciones nucleares que no impliquen electrones o positrones, y sería muy útil si también se hallasen presentes en reacciones que incluyesen esas partículas.
Las más importantes conversiones protón–neutrón son las relaciones con las reacciones nucleares que se desarrollan en el Sol y en los astros. Por consiguiente, las estrellas emiten radiaciones rápidas de neutrinos, y se calcula que tal vez pierdan a causa de esto el 6 u 8 % de su energía. Pero eso, sería meternos en otra historia y, por mi parte, con la anterior explicación solo trataba de dar una muestra del ingenio del hombre que, como habréis visto, no es poco.
Desde que puedo recordar, he sido un amante de la Física. Me asombran cuestiones como la luz, su naturaleza de un conglomerado de colores, ondas y partículas, su velocidad que nos marca el límite del máximo que podemos correr en nuestro Universo, y en fin, muchos otros misterios que encierra esa cosa tan cotidiana que nos rodea y lo inunda todo haciendo posible que podamos ver por donde vamos, que las plantas vivan y emitan oxígeno o que nos calentemos. Realmente, sin luz, nuestra vida no sería posible.
Entonces, ¿qué es realmente la luz?
Sí, hemos llegado a saber muchas cosas pero… lo que realmente es la luz…queda lejos aún
Generalmente es sabido que “todos” opinan que la luz, es algo inmaterial. Los objetos materiales, grandes o muy pequeños como las galaxias o los electrones, son materia. La luz, sin embargo, se cree que es inmaterial, dos rayos de luz se cruzan sin afectarse el uno al otro. Sin embargo, yo opino que la luz es simplemente una forma de energía lumínica, otra forma en la que se puede presentar la materia. Ya nos lo dijo Einstein: E = mc2, y, si materia es energía y energía materia… ¿qué es el fotón?
Está claro que, los estudiosos de la época antigua y medieval estaban por completo a oscuras acerca de la naturaleza de la luz. Especulaban sobre que consistía en partículas emitidas por objetos relucientes o tal vez por el mismo ojo. Establecieron el hecho de que la luz viajaba en línea recta, que se reflejaba en un espejo con un ángulo igual a aquel con el que el rayo choca con el espejo, y que un rayo de luz se inclina (se refracta) cuando pasa del aire al cristal, al agua o a cualquier otra sustancia transparente.
Cuando la luz entra en un cristal, o en alguna sustancia transparente, de una forma oblicua (es decir, en un ángulo respecto de la vertical), siempre se refracta en una dirección que forma un ángulo menor respecto de la vertical. La exacta relación entre el ángulo original y el ángulo reflejado fue elaborada por primera vez en 1.621 por el físico neerlandés Willerbrord Snell. No publicó sus hallazgos y el filósofo francés René Descartes descubrió la ley, independientemente, en 1.637.
Los primeros experimentos importantes acerca de la naturaleza de la luz fueron llevados a cabo por Isaac Newton en 1.666, al permitir que un rayo de luz entrase en una habitación oscura a través de una grieta e las persianas, cayendo oblicuamente sobre una cara de un prisma de cristal triangular. El rayo se refracta cuando entra en el cristal y se refracta aún más en la misma dirección cuando sale por una segunda cara del prisma. (Las dos refracciones en la misma dirección se originan por que los dos lados del prisma de se encuentran en ángulo en vez de en forma paralela, como sería el caso en una lámina ordinaria de cristal.)
Newton atrapó el rayo emergente sobre una pantalla blanca para ver el efecto de la refracción reforzada. Descubrió que, en vez de formar una mancha de luz blanca, el rayo se extendía en una gama de colores: rojo, anaranjado, amarillo, verde, azul, y violeta, en este orden.
Newton dedujo de ello que la luz blanca corriente era una mezcla de varias luces que excitaban por separado nuestros ojos para producir las diversas sensaciones de colores. La amplia banda de sus componentes se denominó spectrum (palabra latina que significa “espectro” fantasma). Newton llegó a la conclusión de que la luz se componía de diminutas partículas (“corpúsculos”), que viajaban a enormes velocidades.
Le surgieron y se planteó algunas inquietudes cuestiones. ¿Por qué se refractaban las partículas de luz verde más que los de luz amarilla? ¿Cómo se explicaba que dos rayos de luz se cruzaran sin perturbase mutuamente, es decir, sin que se produjeran colisiones entre partículas?
En 1.678, el físico neerlandés christian Huyghens (un científico polifacético que había construido el primer reloj de péndulo y realizado importantes trabajos astronómicos. Hoy, la sonda en Titán, lleva su nombre) propuso una teoría opuesta: la de que la luz se componía de minúsculas ondas. Y si sus componentes fueran ondas, no sería difícil explicar los diversos difracciones de los diferentes tipos de luz a través de un medio refractante, siempre y cuando se aceptara que la luz se movía más despacio en ese medio refractante que en el aire. La cantidad de refracción variaría con la longitud de las ondas: cuanto más corta fuese tal longitud, tanto mayor sería la refracción. Ello significaba que la luz violeta (la más sensible a este fenómeno) debía de tener una longitud de onda mas corta que la luz azul, ésta, más corta que la verde, y así sucesivamente.
Lo que permitía al ojo distinguir los colores eran esas diferencias entre longitudes de onda. Y, como es natural, si la luz estaba integrada por ondas, dos rayos podrían cruzarse sin dificultad alguna. (Las ondas sonoras y las del agua se cruzan continuamente sin perder sus respectivas identidades.)
Pero la teoría de Huyqhens sobre las ondas tampoco fue muy satisfactoria. No explicaba por qué se movían en línea recta los rayos luminosos; ni por qué proyectaban sobras recortadas; ni aclaraba por qué las ondas luminosas no podían rodear los obstáculos, del mismo modo que pueden hacerlo las ondas sonoras y de agua. Por añadidura, se objetaba que si la luz consistía en ondas, ¿cómo podía viajar por el vacío, ya que cruzaba el espacio desde el Sol y las Estrellas? ¿Cuál era esa mecánica ondulatoria?
Muchos otros han tratado de profundizar en la naturaleza de la Luz, y, aunque sabemos bastante de ella, no por eso podemos decir a ciencia cierta: ¡Sabemos lo que la luz es!, ya que, la Naturaleza, escondealgunos secretos que tenemos que desvelar y, al igual que nos pasa con nuestras mentes, no hemos podido resolver el problema, principalmente, porque nosotros somos parte integrante de él:
¡Somos Universo, Somos luz, Somos Pensamientos!
Pero, ¿no estaba hablando de los extraños fenómenos de la mecánica cuántica? No puedo remediarlo, veo pasar una idea por delante de mi mente y…la sigo. Como nos decía el inolvidable Richard Feyman;
“Creo que es justo decir que nadie comprende la mecánica cuántica. No siga diciéndose a sí mismo, si puede evitarlo, “¿pero cómo puede ser así?” porque usted se meterá “hasta el fondo” en un callejón sin salida del que nadie ha escapado. Nadie sabe como puede ser eso”. De hecho, a menudo se ha dicho que de todas las teorías propuestas en el siglo XX, la más absurda es la teoría cuántica. Algunos dicen que la única cosa que la teoría tiene a su favor es que “es indudablemente correcta”.
La física cuántica empezó a enseñarnos que no debemos estar tan seguros de las reglas del espacio y del tiempo, que hasta ese entonces parecían muy confiables e invariables.
Hace algún tiempo que salió la noticia un descubrimiento en la universidad de Oxford que confirma una polémica teoría sobre el espacio y el tiempo. La teoría de los Muchos Mundos, presentada a la comunidad científica hace exactamente 50 años, proponía que existen un número infinito de realidades: una para cada posible escenario producto de cada decisión que cada ser viviente toma en cada momento de su vida.
Esto nos lleva a un escenario con tantos universos como decisiones e interacciones posibles, multiplicado por tantos seres vivientes como existan. La teoría de los Muchos Mundos se planteó como una respuesta al extraño comportamiento que tiene la materia a nivel subatómico. En la primera mitad del siglo XX la ciencia permitió por primera vez observar lo muy pequeño, y la realidad a ese nivel dejó perplejos a los científicos.
En esas dimensiones hay paradojas que chocan contra el sentido común, como por ejemplo el hecho de que una partícula subatómica puede estar en dos sitios al mismo tiempo. Esta revista puede estar en sus manos o en el librero, pero no puede estar en sus manos y en el librero al mismo tiempo. La física cuántica empezó a enseñarnos que no debemos estar tan seguros de las reglas del espacio y del tiempo, que hasta ese entonces parecían muy confiables e invariables.
Es difícil comprender que podamos estar, al mismo tiempo, en este mundo y en otro mucho más lejano que, situado en otra galaxia, nos pueda estar dando acogida al mismo tiempo que lo hace la Vía Láctea. Sin embargo, en el caso de las partículas subatómicas y, según la extraña mecánica cuántica, eso sería posible.
Sí, amigo Jackie Chan, esto puede volver loco a cualquiera… ¡También a mi!
emilio silvera
Oct
19
La Física es imaginativa
por Emilio Silvera ~ Clasificado en Física ~ Comments (1)
Para no viajar muy atrás en el tiempo, fijaremos el punto de partida en 1687, fecha en que salió a la luz la Obra de Newton, sus Principas. El tiempo transcurrió hasta 1900, fecha en la que Planck publicó un artículo de ocho páginas con su idea del cuanto que sería la semilla que daría lugar al nacimiento de la mecánica cuántica. En 1905, aquel joven de la Oficina de Patentes de Berna, sorprendió al mundo de la Física con su Teoría de la Relatividad Especial. Se produjeron muchos desarrollos importantes para nuestras imágenes de la Física Fundamental. Uno de los mayores cambios ocurrido en ese período fue la comprensión, básicamente mediante los trabajos de Faraday y Maxwell en el siglo XIX, de que cierta noción de campo físico, que permea en el espacio, debe cohexistir con la previamente aceptada “realidad newtoniana” de las partículas individuales que interaccionan por medio de fuerzas instantáneas.
Mundos que giran alrededor de una estrella formando sistemas planetarios, galaxias que forman inmensos cúmulos, fuerzas electromagnéticas y de gravedad que hacen posibles fenómenos que ponen en marcha los mecanismos del universo visible y, con su presencia “invisible”, hacen sin embargo posible una serie de resultados físicos que en la vida cotidiana tenemos y constatamos a nuestro alrededor.
La noción de “campo” se convirtió también en un ingrediente crucial de la teoría de la Gravedad en un espaciotiempo curvo a la que llegó Einstein en 1915. Lo que ahora denominamos campos clásicos son el Campo Electromagnético de Maxwell y el Campo Gravitatorio de Einstein.
Estamos inmersos en un Universo regido por cuatro fuerzas fundamentales que hacen posible, entre otras cosas, que estemos aquí.
La presencia del campo gravitatorio de una masa afecta al tiempo y al espacio. La gravedad hace que dos relojes atrasen. Un reloj en la superficie de la Tierra atrasa con respecto a un reloj en la Luna, toda vez que el campo gravitatorio de la Tierra es más potente. De la misma manera, nos podríamos preguntar ¿por qué la gravedad actúa sobre el espacio y alarga el tamaño de los objetos (estirándolos). ¿Dónde podríamos crecer más, si viviéramos en la Tierra o en la Luna?
Pero sigamos. Hoy día sabemos que hay mucho más en la Naturaleza del mundo físico que la sola física clásica. Ya en 1900 -como decimos antes- Max Planck había reveleado los primeros indicios de la necesidad de una “teoría cuántica”, aunque se necesitó un cuarto de siglo más antes de que pudiera ofrecerse una teoría bien formulada y global. También debería quedar claro que, además de todos estos profundos cambios que se han producido en los fundamentos “newtonianos” de la física, ha habido otros desarrollos importantes, tanto previos a dichos cambios como coexistentes con algunos de ellos en forma de poderosos avances matemáticos, dentro de la propia teoría newtoniana.
En 1905 un desconocido Albert Einstein publicaría unos espectaculares estudios sobre la teoría de la relatividad, pero muy pocos científicos, entre ellos Planck, reconocerían inmediatamente la relevancia de esta nueva teoría científica. Tanta fue su importancia que incluso Planck contribuyo a ampliarla.
Pero igualmente, la hipótesis de Einstein sobre la ligereza del quantum (el fotón), basada en el descubrimiento de Philipp Lenard de 1902 sobre el efecto fotoeléctrico fue rechazada por Planck, al igual que la teoría de James Clerk Maxwell sobre la electrodinámica.
En 1910 Einstein desafía la explicación de la física clásica poniendo el ejemplo del comportamiento anómalo del calor específico en bajas temperaturas. Planck y Nernst decidieron organizar la primera Conferencia de Solvay, para clarificar las contradicciones que aparecían en la física. En esta reunión celebrada en Bruselas en 1911, Einstein consiguió convencer a Planck sobre sus investigaciones y sus dudas, lo que hizo forjar una gran amistad entre ambos científicos, y conseguir ser nombrado profesor de física en la universidad de Berlín mientras que Planck fue decano.
Otra área importante de avance sobre la que había que llamar la atención es la termodinámica (y su refinamiento conocido como mecánica estadística). Esta estudia el comportamiento de sistemas de un gran número de cuerpos, donde los detalles de los mocimientos no se consideran importantes y el comportamiento del sistema se describe en términos de promedios de las magnitudes adecuadas. Esta fue una empresa iniciada entre mediados del XIX y principios del XX, y los nombres de Carnot Clausius, Maxwell, Boltzmann, Gibbs y Einstein son los protagonistas.
Termodinámica.- Parte de la física que estudia las relaciones existentes entre los fenómenos dinámicos y los caloríficos. Trata de la transformación de la energía mecánica en calor y del calor en trabajo. También describe y relaciona las propiedades físicas de sistemas macroscópicos de materia y energía. La termodinámica estudia los sistemas que se encuentran en equilibrio. Esto significa que las propiedades del sistema—típicamente la presión, la temperatura, el volumen y la masa— son constantes.
Un concepto esencial de la termodinámica es el de sistema macroscópico, que se define como un conjunto de materia que se puede aislar espacialmente y que coexiste con un entorno infinito e imperturbable. El estado de un sistema macroscópico en equilibrio puede describirse mediante propiedades medibles como la temperatura, la presión o el volumen, que se conocen como variables termodinámicas. Es posible identificar y relacionar entre sí muchas otras variables (como la densidad, el calor específico, la compresibilidad o el coeficiente de expansión térmica), con lo que se obtiene una descripción más completa de un sistema y de su relación con el entorno. Cuando un sistema macroscópico pasa de un estado de equilibrio a otro, se dice que tiene lugar un proceso termodinámico. Las leyes o principios de la termodinámica, descubiertos en el siglo XIX a través de meticulosos experimentos, determinan la naturaleza y los límites de todos los procesos termodinámicos.
¿Cuales son los Principios de la Termodinámica?
Cuando dos sistemas están en equilibrio mutuo, comparten una determinada propiedad. Esta propiedad puede medirse, y se le puede asignar un valor numérico definido. Una consecuencia de ese hecho es el principio cero de la termodinámica, que afirma que si dos sistemas distintos están en equilibrio termodinámico con un tercero, también tienen que estar en equilibrio entre sí. Esta propiedad compartida en el equilibrio es la temperatura. Si uno de estos sistemas se pone en contacto con un entorno infinito situado a una determinada temperatura, el sistema acabará alcanzando el equilibrio termodinámico con su entorno, es decir, llegará a tener la misma temperatura que éste.
Primer Principio.-
La cantidad de calor entregado a un sistema es igual al trabajo realizado por el sistema más la variación de su energía interna. Cuando un sistema se pone en contacto con otro más frío que él, tiene lugar un proceso de igualación de las temperaturas de ambos. Para explicar este fenómeno, los científicos del siglo XVIII conjeturaron que una sustancia que estaba presente en mayor cantidad en el cuerpo de mayor temperatura fluía hacia el cuerpo de menor temperatura. El primer principio es una ley de conservación de la energía. Afirma que, como la energía no puede crearse ni destruirse —dejando a un lado las posteriores ramificaciones de la equivalencia entre masa y energía— la cantidad de energía transferida a un sistema en forma de calor más la cantidad de energía transferida en forma de trabajo sobre el sistema debe ser igual al aumento de la energía interna del sistema. A veces, el primer principio se enuncia como la imposibilidad de la existencia de un móvil perpetuo de primera especie.
Flujo de la energía en los ecosistemas. En los ecosistemas se cumplen pues el primer y segundo principio de la termodinámica.
Segundo Principio.-
El segundo dice que solamente se puede realizar un trabajo mediante el paso del calor de un cuerpo con mayor temperatura a uno que tiene menor temperatura. Al respecto, siempre se observa que el calor pasa espontáneamente de los cuerpos calientes a los fríos hasta quedar a la misma temperatura. La segunda ley afirma que la entropía, o sea, el desorden, de un sistema aislado nunca puede decrecer. Por tanto, cuando un sistema aislado alcanza una configuración de máxima entropía, ya no puede experimentar cambios: ha alcanzado el equilibrio. La naturaleza parece pues ‘preferir’ el desorden y el caos. Puede demostrarse que el segundo principio implica que, si no se realiza trabajo, es imposible transferir calor desde una región de temperatura más baja a una región de temperatura más alta. El segundo principio impone una condición adicional a los procesos termodinámicos. No basta con que se conserve la energía y cumplan así el primer principio. Una máquina que realizara trabajo violando el segundo principio se denomina “móvil perpetuo de segunda especie”, ya que podría obtener energía continuamente de un entorno frío para realizar trabajo en un entorno caliente sin coste alguno. A veces, el segundo principio se formula como una afirmación que descarta la existencia de un móvil perpetuo de segunda especie.
Tercer principio de termodinámica o principio onfalóscópico, (mirarse el ombligo): La televisión se retroalimenta a sí misma. Se hace televisión para hablar sobre televisión.
Tercer Principio.-
El cero absoluto es el cero en la escala Kelvin, el equivalente a -273,15º C, pero… ¿qué significa? ¿la ausencia de calor? ¿la temperatura más baja posible?
El tercer principio de la termodinámica afirma que el cero absoluto no puede alcanzarse por ningún procedimiento que conste de un número finito de pasos. Es posible acercarse indefinidamente al cero absoluto, pero nunca se puede llegar a él.
Ciclos termodinámicos.-
Todas las relaciones termodinámicas importantes empleadas en ingeniería se derivan del primer y segundo principios de la termodinámica. Resulta útil tratar los procesos termodinámicos basándose en ciclos: procesos que devuelven un sistema a su estado original después de una serie de fases, de manera que todas las variables termodinámicas relevantes vuelven a tomar sus valores originales. En un ciclo completo, la energía interna de un sistema no puede cambiar, puesto que sólo depende de dichas variables. Por tanto, el calor total neto transferido al sistema debe ser igual al trabajo total neto realizado por el sistema. Un motor térmico de eficiencia perfecta realizaría un ciclo ideal en el que todo el calor se convertiría en trabajo mecánico. El científico francés del siglo XIX Sadi Carnot, que concibió un ciclo termodinámico que constituye el ciclo básico de todos los motores térmicos, demostró que no puede existir ese motor perfecto. Cualquier motor térmico pierde parte del calor suministrado. El segundo principio de la termodinámica impone un límite superior a la eficiencia de un motor, límite que siempre es menor del 100%. La eficiencia límite se alcanza en lo que se conoce como ciclo de Carnot.
- Gravitación
- Luz
- Atracción y repulsión eléctricas
- Atracción y repulsión magnéticas
Pero sigamos con el objeto principla de este trabajo del que, como siempre me pasa, me he desviado a la termodinámica (veo pasar una mosca y la sigo). Aquí hablamos de los “campos clásicos” y, sobre las teorías físicas de campos de Maxwell y Einstein: la física “clásica” ¿Cómo pudieron hablar y describir a la perfección suscesos que el ojo no podía ver, y, simplemente con la imaginación, lo hicieron posible, hasta tal punto que, cuando hablamos de campos electromagnéticos o gravitatorios, en nuestras mentes se instalan las imágenes de unos y otros que podemos “ver” con toda precisión.
La teoría del electromagnetismo desempeña también un papel importante en la teoría cuántica, pues proporciona el “campo” arquetípico para el desarrollo posterios de la teoría cuántica de campos. Por el contrario, el enfoque cuántico apropiado del campo gravitatorio sigue siendo enigmático, escurridizo y controvertido y, abordar ahora aquí estas complejas cuestiones, seguramente daría lugar a explicaciones farragosas debido a mi ignorancia profunda en esos conocimientos y a la levedad de los que puedo poseer.
Los campos de fuerza de Faraday han dado lugar a que, la imaginación se desboque y corriendo hacia el futuro, haya imaginado inmensas ciudades que, situadas en lugares imposibles, sostienen sin problema a sus habitantes que, resguardados por un “campo de fuerza” están al resguardo de cualquier peligro que del exterior les pueda venir.
Por ahí arriba me refería al hecho de que ya en el siglo XIX se había iniciado un cambio profundo en los fundamentos newtonianos, antes de las revoluciones de la relatividad y la teoría cuántica en el siglo XX. El primer indicio de que sería necesario un cambio semejante se produjo con los maravillosos descubriumientos experimentales de Faraday (del que hablamos hoy) hacia 1833, y de las representaciones de la realidad que encontró necesarias para acomodar dichos descubrimientos. Básicamente, el cambio fundamental consistió en considerar que las “partículas newtonianas” y las fuerzas” que actúan entre ellas no son los únicos habitantes de nuestro universo.
A partir de ahí había que tomar en serio la idea de un “campo” con una existencia propia incorpórea. Y, fue entonces cuando se produjo la providencial llegada de Maxwell que, al contrario de Faraday, él si entendía bien el complejo mundo de las matemáticas y, en 1864, formuló las ecuaciones que debe satisfacer este “campo” incorpóreo, y quien demostró que estos campos pueden transportar energía de un lugar a otro.
¿ Transmutando energía?
Las ecuaciones de Maxwell unificaban el comportamiento de los campos eléctricos, los campos magnéticos e incluso la luz, y hoy día son conocidas como las ecuaciones de Maxwell, las primeras entre las ecuaciones de campo relativistas. Desde la perspectiva del siglo XX se han hecho profundos cambios y se ha producido profundos avances en las técnicas matemáticas, las ecuaciones de Maxwell parecen tener una naturalidad y simplicidad concincentes que nos hacen preguntarnos cómo pudo considerarse alguna vez que el campo electromagnético pudiera obedecer a otras leyes. Pero semejante perspectiva ignora el hecho de que fueron las propias ecuaciones de Maxwell las que llevaron a muchos de estos desarrollos matemáticos. Fue la forma de estas ecuaciones la que indujo a Lorentz, Poincaré y Einstein a las transformaciones espaciotemporales de la relatividad especial, que, a su vez, condujeron a la concepción de Minkowaki del espaciotiempo.
¡La Mente Humana! ¿Hasta donde podrá llegar? ¿Qué limite tendrá impuesto? La respuesta es sencilla: ¡No hay límites! Y, aunque dicha afirmación la repita en muchos de mis escritos, y, aunque a algunos les parezca un sueño…, esa es….amigos míos, la realidad.
emilio silvera
Oct
19
Y… ¡Seguiremos imaginando! Cómo es, el Universo
por Emilio Silvera ~ Clasificado en El Universo de Ayar y el Universo de Hoy ~ Comments (1)
Desde Ptolomeo con su modelo del universo de esferas cristalinas, hasta el más reciente modelo de los universos burbujas. Desde los modelos geocéntrico, estacionario, infinito, inflacionario… Siempre hemos tenido modelos de universos que nuestras mentes han creado según nos han ido dictando los siempre escasos conocimientos que del universo hemos tenido y, a medida que estos conocimientos fueron avanzando, el modelo se hizo mejor pero…, no definitivo.
Precisamente por eso me choca ver y escuchar como pretendidos “expertos” en la materia, dicen que ellos conocen lo que es el Universo, o, lo que pasó en los primeros tres minutos a partir del supuesto Big Bang. Hablan con desparpajo y “seguridad” de todo ello a la audiciencia que, no siempre en posesión del conocimiento requerido para ello, es receptora de las palabras que pretenden ser esa verdad que, en realidad, nadie ha tenido nunca. Lo cierto es que, se están refiriendo a que tienen un modelo del Universo temprano, y que este modelo encaja con los resultados que hasta el momento han obtenido mediante observaciones y diversas comprobaciones.
Tycho Brahe
Está claro que el modelo de universo de los sumerios, babilónios y otros pueblos antiguos, era muy diferente al que ya nos dibujó Copérnico, Tycho Brahe o el mismo Einstein. Los modelos han ido evolucionando y, de la misma manera, el modelo que hoy tenemos y que denominamos Big Bang, será mejorado a medida que nuevos descubrimientos y nuevos conocimientos incrementen nuestro saber del mundo y, para ello, creamos esos modelos que nos ayudan para poder alcanzar ese saber que incansables perseguimos.
Los Modelos empíricos: Se sustentan en la identificación de relaciones estadísticamente significativas entre ciertas variables que se asumen como esenciales y suficientes para modelar el comportamiento del sistema. Con tal motivo, debe disponerse previamente de una base de datos de tamaño adecuado. Pueden subdividirse en tres categorías diferentes:
De Caja Negra: Sólo se analizan los datos de entrada y de salida del modelo.
De Caja Gris: Se explican algunos detalles del conocimiento existente sobre el comportamiento del sistema.
De Caja Blanca: Se conocen y explican todos los detalles del comportamiento del Sistema.
ESTOCÁSTICOS: Consisten en la generación de series de datos sintéticas a partir de las propiedades estadísticas de las poblaciones de datos existentes. Son muy útiles con objeto de generar secuencias de datos que alimenten a modelos empíricos o a los basados sobre leyes físicas, cuando tan sólo se dispone de información recogida durante periodos de observación breves.
DE SOPORTE FÍSICO: Elaborados con ecuaciones matemáticas al objeto de describir los procesos involucrados en el modelo, teniendo en cuenta las leyes de conservación de masas y energía, etc.
DIGITALES: Modelos estocásticos, de soporte físico, etc. Basados en el uso de ordenadores digitales capaces de procesar una gran cantidad de datos que desembocan en la recreación de Sistema que tratamos de descubrir.
Hoy podemos crear modelos para todo
No siempre los modelos científicos son una fiel imagen de la realidad. Los átomos y las moléculas que componen el aire que respiramos, por ejemplo, se pueden describir en términos de un modelo en el que imaginamos cada partícula como si fuera una pequeña esfera perfectamente elástica, con todas las pequeñas esferas rebotando unas contra otras y contra las paredes del recipiente que las contiene.
Esa es la imagen mental, pero es sólo la mitad del modelo; lo que lo hace modelo científico es describir el modo como se mueven las esferas y rebotan unas contra otras mediante un grupo de leyes físicas, escritas en términos de ecuaciones matemáticas. En este caso, éstas son esencialmente las leyes del movimiento descubiertas por Newton hace más de trescientos años. Utilizando estas leyes matemáticas es posible predecir, por ejemplo, que le pasará a la presión ejercida por un gas si se aplasta hasta la mitad de su volumen inicial. Si hacemos el experimento, y, el resultado que se obtiene encaja con la predicción del modelo, este será un buen modelo.
En la década de 1930, los físicos teóricos, en particular, Einstein, consideró la posibilidad de un modelo cíclico para el universo como una alternativa a la del Big Bang. Sin embargo, el trabajo de Richard Tolman reveló que estos primeros intentos fracasaron debido al problema que la entropía encumbra, que según la mecánica estadística, ésta aumenta debido a la segunda ley de la termodinámica. Esto implica que en sucesivos ciclos el universo crece más y más en cada ciclo. Y extrapolando hacia atrás en el tiempo, los ciclos antes de convertirse en el presente ciclo eran menores y más cortos, y en un punto hubo un ciclo iniciado por un Big Bang, no pudiendo eliminarlo de la teoría cíclica. Esta situación siguió siendo desconcertante para muchos, hasta las primeras décadas del siglo 21 cuando la recién descubierta energía oscura sembró una nueva esperanza para la cosmología cíclica.
Un nuevo modelo cíclico es el modelo basado en la cosmología de branas sobre la formación del universo, derivado del anterior modelo ecpirótico. Se propuso en 2001 por Paul Steinhardt de la Universidad de Princeton y Neil Turok de la Universidad de Cambridge. La teoría describe un universo emergiendo hacia la existencia no sólo una vez, sino en repetidas ocasiones a través del tiempo. La teoría podría explicar por qué una misteriosa forma repulsiva de energía conocida como la “constante cosmológica” está acelerando la expansión del universo, que es de varios órdenes de magnitud menor que la predicha por el modelo estándar del Big Bang.
El modelo Steinhardt–Turok
En este modelo cíclico basado en la cosmología de branas, rival del modelo inflacionario, dos láminas tridimensionales o 3-branas colisionan periódicamente. Según esta teoría la parte visible del universo de cuatro dimensiones representa una de esas branas, quedando la otra brana oculta a todas las fuerzas de la naturaleza excepto la gravedad. Cada ciclo consiste en que cada una de las branas dentro de un espacio-tiempo tetradimensional y separadas por una dimensión espacial muy corta y seis enrolladas chocan con cierta periodicidad creando condiciones parecidas a las del big bang del modelo inflacionario.
Según la teoría, después de millones de años, al aproximarse el final de cada ciclo la materia y la radiación se diluyen a casi cero debido a una expansión acelerada del universo alisando las dos branas pero con pequeños rizos o fluctuaciones cuánticas aún presentes que imprimirán en el próximo choque con no uniformidades que crearán grumos o cúmulos que generarán estrellas y galaxias.
Otro modelo: El Big Bounce ( gran rebote) es un modelo científico teórico relacionado con la formación del Universo conocido. Se deriva del modelo cíclico o Universo oscilante e interpreta el Big Bang como el primer evento cosmológico resultado del colapso de un universo anterior.
Según algunos teóricos de Universo oscilante, el Big Bang fue simplemente el comienzo de un período de expansión que siguió a un período de contracción. Desde este punto de vista, se podría hablar de un Big Crunch seguido por un Big Bang, o, más sencillamente, un Big Bounce. Esto sugiere que podría se estar viviendo en el primero de todos los universos, pero se tiene la misma probabilidad de estar viviendo en el universo 2 mil millones (o cualquier otro de una secuencia infinita de otros universos).
La idea principal detrás de la teoría cuántica del “gran rebote” es que, a medida que se acerca la densidad a lo infinito, el comportamiento de la espuma cuántica cambia. Todas las llamadas constantes físicas fundamentales, incluida la velocidad de la luz en el vacío, no eran tan constantes durante el Big Crunch, especialmente en el intervalo de estiramiento 10-43 segundos antes y después del punto de inflexión. (Una unidad de Tiempo de Planck es de aproximadamente 10-43 segundos.)
Si las constantes físicas fundamentales se determinaron en un quantum de forma mecánica durante el Big Crunch, entonces sus valores aparentemente inexplicables en este universo no serían tan sorprendentes, entendiendo que aquí un universo es lo que existe entre un Big Bang y su Big Crunch. Como podeis comprobar, por falta de modelos no podemos quejarnos. Sin embargo, todo esto nos lleva a plantear una pregunta: ¿Será alguno de estos modelos el que refleje la realidad?
La respuesta a la pregunta anterior es ¡NO! De hecho, todos los modelos científicos tienen aplicabilidad limitada. Ninguno de ellos es “la verdad”. Cuando un científico afirma, por ejemplo, que el núcleo de un átomo está compuesto por partículas denominadas protones y neutrones, lo que en realidad debería decir es que el núcleo de un átomo se comporta, bajo determinadas circunstancias, como si estuviera formado de protones y neutrones. Los mejores científicos toman el “como sí “, pero entienden que sus modelos son, efectivamente, sólo modelos; científicos menores a menudo olvidan esta diferencia crucial.
Los científicos menores, y muchos no-científicos, tienen otra idea equivocada. A menudo piensan que el papel de los científicos hoy en día es llevar a cabo experimentos que probarán la exactitud de sus modelos con una precisión cada vez mayor (hacia posiciones con más y más decimales). ¡En absoluto! La razón para llevar a cabo experimentos que demuestren predicciones previas no comprobadas es descubrir dónde fallan los modelos. Encontrar defectos en sus modelos es la esperanza abrigada por los mejores científicos, porque esos defectos destacarán los lugares donde necesitamos una nueva comprensión, con modelos mejores, para progresar.
El arquetípico ejemplo de esto es la gravedad. La ley de la gravedad de Isaac Newton se consideró la pieza clave de la física durante más de doscientos años, desde la década de 1680 hasta comienzos del siglo XX. Pero había unas pocas, aparentemente insignificantes, cosas que el modelo newtoniano no podía explicar o predecir, referente a la órbita del planeta mercurio y al modo como la luz se curva cuando pasa cerca del Sol. El modelo de gravedad de Albert Einstein, basado en su teoría general explica lo mismo que el modelo de Newton pero también explica esos detalles sutiles de órbitas planetarias y curvatura de la luz. En ese sentido, es un modelo mejor que el anterior, y hace predicciones correctas (en particular, sobre el Universo en general) que el viejo modelo no hace. Pero el modelo de Newton todavía es todo lo que se necesita si se está calculando el vuelo de una sonda espacial desde la Tierra a la Luna.
¿SABEMOS COMO COMENZÓ EL UNIVERSO?
Está ahora ampliamente aceptado -de manera provisional- que el Universo donde habitamos surgió a partir de una singularidad con densidad y energía “infinitas” que dio lugar a una bola de fuego caliente y densa a la que llamamos Big Bang. En los años veinte y treinta, los astrónomos descubrieron por primera vez que nuestra Galaxia es simplemente una isla de estrellas dispersa entre muchas galaxias similares, y que grupos de estas galaxias se están apartando las unas de las otras a medida que el espacio se expande. Esta idea del Universo en expansión fue realmente predicha por la teoría general de la relatividad de Einstein, terminada en 1916 pero no se tomó en serio hasta que los observadores hicieron sus descubrimientos. Cuando se tomó en serio los matemáticos descubrieron que las ecuaciones describían exactamente el tipo de expansión que observamos, con la implicación de que si las galaxias se van alejando con el tiempo entonces deberían haber estado más juntas en el pasado, y hace mucho tiempo toda la materia en el Universo debería estar acumulada en una densa bola de fuego.
Es la combinación de la teoría y de la observación la que hace que la idea del Big Bang sea tan convincente; en los años sesenta llegó una clara evidencia, con el descubrimiento de un siseo débil de ruído de radio, la radiación cósmica de fondo, que viene de todas las direcciones del espacio y se interpreta como la radiación restante del mismo Big-Bang.
El descubrimiento de la radiación cósmica de fondo (RCF) por Penzias y Wilson en 1965 fue definitivo para “probar” el origen caliente del universo. Sin embargo, después de estas mediciones aun permanecían algunas dudas por resolver. Si la radiación detectada por Penzias y Wilson proviene realmente del universo recién formado hace 14 mil millones de años, ésta debe mostrar ciertas características. Para poder afirmar con certeza que el origen de la RCF es cósmico se deben verificar las siguientes observaciones:
Como la expansión del Universo, la existencia de esta radiación de fondo fue predicha por la teoría antes de ser observada experimentalmente. A finales del siglo XX, la combinación de teoría y observaciones había establecido que el tiempo que ha pasado desde el Big Bang es de unos 14 mil millones de años, y que existen cientos de miles de millones de galaxias como la nuestra dispersas de un extremo al otro del Universo en expansión.
La pregunta a la que se están enfrentando ahora los cosmólogos es ¿cómo empezó el mismo Big Bang?
El punto de partida para enfrentarnos a esta pregunta es el modelo estándar propio de los cosmólogos, que combina todo lo que han aprendido de las observaciones del universo en expansión con el entendimiento teórico del espacio y el tiempo incorporado a la teoría general de Einstein. El establecimiento de este modelo se ha visto favorecido por el hecho de que cuanto más lejos miramos del Universo, más tiempo atrás vemos. Debido a que la luz viaja a una velocidad finita, cuando miramos galaxias alejadas millones de años luz, la vemos como si estuvieran presentes como eran millones de años antes, cuando salió la luz que llega ahora a nuestros telescopios.
Con telescopios potentes, los astrónomos pueden ver qué aspecto tenía el Universo cuando era más joven (y la radiación cósmica de fondo nos permite “ver”-con radiotelescopios- la última etapa de la bola de fuego que fue el Big bang).
Lo más atrás que hemos visto, el origen de la radiación de fondo corresponde a un tiempo unos pocos cientos de miles de años después del momento del Big Bang, cuando todo el Universo estaba lleno de gas caliente (conocido técnicamente como plasma) a aproximadamente la misma temperatura que la que tiene la superficie del Sol hoy en día, unos pocos miles de grados Celsius. En ese momento, lo que ahora es el Universo visible entero era solo una milésima parte de su tamaño actual y no había objetos individuales en la escala de las estrellas o galaxias en el remolino de material caliente.
Moviéndonos hacia delante en el tiempo, las irregularidades observadas en la radiación de fondo son justamente del tamaño y estructura correctos que podrían explicar el origen de las galaxias y de los grupos de galaxias, pudieran ser las semillas a partir de las cuáles creció la estructura que vemos en el Universo hoy.
Yendo hacia atrás en el tiempo, la estructura de las pequeñas irregularidades vistas en la radiación de fondo nos habla sobre el tipo de irregularidades que había en el Universo cuando era incluso más joven, justo hasta ese momento atrás en que la teoría general por sí misma se rompe y, no nos deja pasar más allá del Tiempo de Planck.
Lo primero, y más importante, que hay que decir sobre estas irregularidades en la radiación de fondo es que son diminutas. Son tan pequeñas que al principio era imposible medirlas, y la radiación parecía que viniera perfectamente uniforme desde todas las direcciones en el espacio (isotropía). Si la radiación fuera perfectamente uniforme, todo el modelo estándar del Universo se desbarataría, ya que si no hubiera habido irregularidades en la bola de fuego del Big Bang no habría habido semillas desde donde las galaxias pudieran crecer, y nosotros al no haberse formado las estrellas y fabricado en sus núcleos los materiales complejos de los que estamos hechos, no estaríamos aquí. El hecho de que los científicos estén tratando de resolver estas preguntas han convencido a los astrónomos de que debería haber irregularidades en la radiación de fondo, sólo había que desarrollar instrumentos sensibles para medirlas.
En este sentido podríamos citar el satélite de la NASA COBE que fue capaz de hacer medidas suficientemente sensibles para demostrar que había efectivamente minúsculas ondulaciones en la radiación de fondo. Las dos preguntas clave derivadas del descubrimiento son: ¿por qué la radiación de fondo es casi lisa?, ¿Qué crea las ondulaciones?
La primera pregunta es más profunda de lo que se pueda pensar, porque incluso hoy, 14 mil millones de años después, el Universo es todavía casi liso. Esto no es obvio si contrastamos la luminosidad de una galaxia como nuestra Vía Láctea con la oscuridad del espacio entre las galaxias pero enseguida se hace evidente a mayores escalas. El Universo no es exactamente uniforme, pero incluso en términos de distribución de las galaxias es uniforme en cierto sentido. Si tomamos una fotografía de las galaxias vistas en una pequeña zona del cielo se parecerá mucho a otra fotografía de una zona del mismo tamaño de otra parte del cielo. La radiación de fondo es incluso más uniforme, y parece exactamente la misma desde todos los puntos del espacio dentro de una fracción del 1 por ciento. La profundidad de esta observación descansa en el hecho de que no ha pasado el tiempo suficiente desde el Big Bang para que todas las diferentes partes del Universo interactúen unas con otras y deje de ser liso.
Esta homogeneidad está relacionada con otra característica extraña del Universo denominada subplanitud. La teoría general de la relatividad nos dice que el espacio (en sentido estricto, el espacio-tiempo) se puede curvar y deformar por la presencia de materia. Localmente, cerca de un objeto como el Sol o la Tierra, esta deformación del espacio-tiempo produce el efecto que llamamos gravedad. Cósmicamente, en el espacio entre las estrellas y las galaxias el efecto combinado de toda la materia en el universo puede producir una curva gradual en el espacio en uno de los dos sentidos.
Aquí tendríamos que continuar hablando de la densidad crítica y de la clase de universo que tendríamos en función de la cantidad de materia que este contenga. Sin embargo, dejaremos ese punto del universo cerrado, abierto o plano, ya que, en uno de los comentarios muy recientes de esta colaboración ya quedaron explicados de manera suficiente.
Sonda Planck – Crédito ESA
El explorador Planck fue una misión propuesta por la ESA que se puso en órbita en el año 2007 y operando en las bandas infrarroja y submilimétrica, tomó imágenes de las anisotropías de la radiación cósmica de fondo en todo el cielo con resolución y sensibilidad excepcionales.
Estudios cada vez más sofisticados de la radiación de fondo, que culminaron con las observaciones hechas por el satélite WAP de la NASA a principios de éste siglo XXI y del Planck Explorer de ESA un poco más tarde, mostraron que el Universo efectivamente está indistinguiblemente cerca de la plenitud, de modo que su densidad debería estar indistinguiblemente cerca de la Densidad crítica. Esto dio lugar al rompecabezas de donde estaba la masa “desaparecida” (esa que llamamos materia oscura que, nunca se ha visto, ni produce radiación, ni sabemos como se pudo formar, de qué clase de partículas está conformada -si es que son partículas- y, un sin fin de interrogantes más que, de momento, no sabemos contestar).
En realidad, la teoría de la inflación es todavía un trabajo en progreso, y, como en el caso de la GUT, existen diferentes variaciones o modelos sobre el tema. Lo que está claro de todo esto es que, no se puede negar, ni el esfuerzo realizado, ni el éxito alcanzado que, sin ser aún lo que se desea, sí es un paso importante en el conocimiento del Cosmos. Ahora sabemos de él muchísimo más que se sabía en los tiempos de Galileo, y, tanto la técnica, como las matemáticas y la física, han desarrollado la Astronomía y la Astrofísica, hasta unos niveles encomiables, teniendo en cuenta que estamos estudiando una cosa muy, muy grande y cuyos objetos están muy, muy lejos.
Estas galaxias están a más de 13.000 Millones de años-luz de nosotros
Sin embargo, podemos obtener imágenes de galaxias lejanas y de nebulosas que se encuentran a miles y miles de millones de años-luz de la Tierra y, mediante técnicas del estudio del espectro, saber, de que materiales están formados esos objetos cosmológicos que pueblan nuestro universo en regiones tan remotas que nuestras mentes, no pueden asimilar.
Es aún muy grande el espacio oscuro que tenemos que alumbrar para conocer en plenitud nuestro vasto Universo, son muchas las zonas que están en la penumbra, y, debemos y tenemos la obligación de continuar profundizando en el saber del Universo que nos acoge.
Yo, que me considero un simple aficionado -eso sí-, muy enamorado del Universo y apasionado de todas las maravillas que encierra y que producen en mi esa fascinación que me inunda de asombro y, también, de maravilla. A veces pienso que todo el vasto Universo podría haber surgido de una fluctuación cuántica del “vacío”, ese lugar misterioso que resulta estar lleno a rebosar y que, gracias a la combinación de inflación y a una curiosa propiedad de la gravedad, dio lugar a la creación de un nuevo universo de los muchos que podrían ser.
Esta curiosa propiedad de la gravedad es que guarda energía negativa. Cuando algo (¡cualquier cosa!) cae hacia debajo de un campo gravitacional (como el agua que se precipita desde la montaña) la energía es liberada………Pero eso, será otra historia que ya contaremos. Ahora, para no cerrar en falso el comentario, diré que, no existe ningún límite, en principio, en cuanta masa (en sentido estricto masa-energía, teniendo en mente E=mc2) puede tener una fluctuación cuántica, aunque cuanto más masiva sea una fluctuación, menos probable es que suceda.
Las ondas de luz normalmente tienen una densidad de energía positiva o cero en diferentes puntos del espacio (arriba). Pero en un estado comprimido, la densidad de la energía, en un instante determinado en el tiempo, puede llegar a ser negativa en algunos lugares (abajo). Para compensar esto, el pico de densidad positiva debe aumentar.
¡Son tántas, las cosas que no sabemos!
El cosmólogo americano Ed Tyron señaló que en principio una fluctuación cuántica que contiene la masa-energía de todo el Universo visible podría salir de la “nada”, y que aunque la masa-energía de tal fluctuación sería enorme, en las circunstancias correctas la energía gravitacional negativa del campo gravitacional asociado a toda esta masa equilibraría perfectamente esto, de modo que la energía total de la fluctuación sería cero.
La implicación, naturalmente, es que nuestro Universo nació (o brotó) de este modo desde el espacio-tiempo de otro universo, y que no hubo principio y no habrá final. Sólo un mar infinito de universos burbujas interconectados como han propuestos algunos.
emilio silvera
Oct
18
¡El Origen del Universo! ¿Cómo puedo saberlo yo?
por Emilio Silvera ~ Clasificado en El Universo ~ Comments (10)
¿Dónde estabas tú cuando yo puse los cimientos de la Tierra? Dilo si tienes entendimiento. Claro que a esta pregunta, lo único que podríamos contestar sería: ¿Quién sabe realmente? La especulación sobre el origen del universo es una vieja actividad humana que está sin resolver, ya que, pretendemos saber algo que no sabemos si llegó a ocurrir, toda vez que incluso, podría ser, que el universo esté aquí desde siempre. Y, si llegó como algo nuevo, tampoco sabemos, a ciencia cierta, cómo y de dónde lo hizo. Pero, nosotros, los humanos, no dejamos de especular con esta cuestión de compleja resolución y dejamos volar nuestra imaginación en forma de conjeturas y teorías que, no siempre son el fiel reflejo de lo que pudo pasar que, de momento, permanece en el más profundo anonimato.
Claro que, la Humanidad y el Universo están tan juntos, tan conectados que, sería imposible que no hablaran de él, y, sobre todo, que no tratataran de saber su comienzo (si es que lo hubo) y, hurgar en su dinñamica para poder entender nuestra presencia aquí junto con las estrellas de las que procedemos y de las galaxias que son las villas del Universo que alojan a cientos de millones de mundos habitados que, como la Tierra, tienen otras criaturas que tambien, ellas se preguntan por el principio y el final para poder conocer sus destinos.
Algunos nos dicen que el Universo surgió de la “Nada” y, está claro que la Nada no puede existir y, si surgió es porque había, con lo cual, la Nada queda invalidada. Pero, si hubo un suceso de creación, ¿que duda nos puede caber de que tuvo que haber una causa? Lo cierto es que, en las distintas teorías de la “creación” del universo, existen muchas reservas.
No obstante tales reservas, unos pocos científicos trataron de investigar la cuestion de cómo pudo haberse originado el universo, aunque admitiendo que sus esfuerzos quizás eran “prematuros”, como dijo Weinberg con suavidad. En el mejor de los casos, contemplado con una mirada alentadora, el trabajo realizado hasta el momento, parece haber encendido una lámpara en la antesala de la génesis. Lo que allí quedó iluminado era muy extraño, pero era, en todo caso, estimulante. No cabía descubir algo familiar en las mismas fuentes de la creación.
Hemos podido contemplar como en la Nebulosa del Águila nacen nuevas estrellas masivas. Sin embargo, no hemos llegado a poder saber, con certeza como surgió el Universo entero y de dónde y porqué lo hizo para conformar un vasto espacio-tiempo lleno de materia que evolucionaría hasta poder conformar las estrellas y los mundos en enormes galaxias, y, en esos mundos, pudieron surgir criaturas que, conscientes de SER, llegaron desde un nivel animal rudimentario, hasta los más sofisticados pensamientos que les hicieron preguntarse: ¿Quiénes somos, de dónde venimos, hacia dónde vamos? Y, esas preguntas, realizadas 14.000 millones de años después del comienzo del tiempo, y junto a la pregunta del origen del Universo, todavía, no han podido ser contestadas. Nuestro intelecto evoluciona pero, sus límites son patentes.
Una estrella que se forma en la Nebulosa comienza siendo protoestrellas y, cuando entra en la secuencia principal, brilla durante miles de millones de años dutante los cuales crea nuevos elementos a partir del más sencillo, el Hidrógeno. Los cambios de fase que se producen por fusión en el horno nuclear de las estrellas, son los que han permitido que existieran los materiales necesarios para la química de la vida que, al menos hasta donde sabemos, no apareció en nuestro planeta Tierra, hasta hace unos 4.o0o millones de años, y, desde entonces, ha estado evolucionando para que ahora, nosotros, podamos preguntas, por el origen del universo.
Los científicos han imaginado y han puesto sobre la mesa para su estudio, dos hipótesis, la llamada génesis del vacío, y la otra, génesis cuántica y ambas, parecían indicar mejor lo que el futuro cercano podía deparar al conocimiento humano sobre el origen del Universo.
La Génesis de vacío: El problema central de la cosmología es explicar como algo msurge de la nada. Por “algo” entendemos la totalidad de la materia y la energía, el espacio y el tiempo: el universo que habitamos. Pero la cuestión de lo que significa NADA es más sitíl. En la ciencia clásica, “nada” era un vacío, el espacio vacío que hay entre dos partículas de materia. Pero esta concepsión siempre planteaba problemas, como lo atestigua la prolongada indagación sobre si el espacio estana lleno de éter, y en todo caso no sobrevivió al advenimiento de la física cuántica.
El vacío cuántico nunca es realmente vacío, sino que resoba de partículas “virtuales”. Las partículas virtuales pueden ser concebidas como la posibilidad esbozada por el principio de indeterminación de Heisenberg de que una partícula “real” llegue en un tiempo determinado a un lugar determinado. Como las siluetas que salen de pronto en un campo de tiro policial, representan no sólo lo que es sino también lo que podría ser. Desde el punto de vista de la física cuántica, toda partícula “real” está rodeada por una corona de partículas y antipartículas virtuales que borbotean del vacío, interaccionan unas con otras y luego desaparecen.
Las ondas fluctúan de forma aleatoria e impredecible, con energía positiva momentáneamente aquí, energía negativa momentáneamente allí, y energía cero en promedio. El aspecto de partícula está incorporado en el concepto de partículas virtuales, es decir, partículas que pueden nacer en pares (dos partículas a un tiempo), viviendo temporalmente de la energía fluctuacional tomada prestada de regiones “vecinas” del espacio, y que luego se aniquilan y desaparecen, devolviendo la energía a esas regiones “vecinas”. Si hablamos de fluctuaciones electromagnéticas del vacío, las partículas virtuales son fotones virtuales; en el caso de fluctuaciones de la gravedad en el vacío, son gravitones virtuales.
Claro que, en realidad, sabemos poco de esas regiones vecinas de las que tales fluctuaciones toman la energía. ¿Qué es lo que hay allí? ¿Está en esa región la tan buscada partícula de Higgs? Sabemos que las fluctuaciones de vacío son, para las ondas electromagnéticas y gravitatorias, lo que los movimientos de degeneración claustrofóbicos son para los electrones. Si confinamos un electrón a una pequeña región del espacio, entonces, por mucho que uno trate de frenarlo y detenerlo, el electrón está obligado por las leyes de la mecánica cuántica a continuar moviéndose aleatoriamente, de forma impredecible. Este movimiento de degeneración claustrofóbico que produce la presión mediante la que una estrella enana blanca se mantiene contra su propia compresión gravitatoria o, en el mismo caso, la degeneración de neutrones mantiene estable a la estrella de neutrones, que obligada por la fuerza que se genera de la degeneración de los neutrones, es posible frenar la enorme fuerza de gravedad que está comprimiendo la estrella.
Una cosa sí sabemos, las reglas que gobiernan la existencia de las partículas virtuales se hallan establecidas por el principio de incertidumbre y la ley de conservación de la materia y de la energía.
En un nuevo estudio, un grupo de físicos ha propuesto que la gravedad podría disparar un efecto desbocado en las fluctuaciones cuánticas, provocando que crezcan tanto que la densidad de energía del vacío del campo cuántico podría predominar sobre la densidad de energía clásica. Este efecto de predominancia del vacío, el cual surge bajo ciertas condiciones específicas pero razonables, contrasta con la ampliamente sostenida creencia de que la influencia de la gravedad sobre los fenómenos cuánticos debería ser pequeña y subdominante.
Claro que, hablar aquí del vacío en relación al surgir del universo, está directamente asentado en la creencia de algunos postulados que dicen ser posible que, el universo, surgiera de una Fluctuación de vacío producida en otro universo paralelo y, desde entonces, funciona de manera autónoma como un nuevo universo de los muchos que son en el más complejo Metaverso.
Inmediatamente después de que la llamada espuma cuántica del espacio-tiempo permitiera la creación de nuestro Universo, apareció una inmensa fuerza de repulsión gravitatoria que fue la responsable de la explosiva expansión del Universo primigenio (inflación(*)).Las fluctuaciones cuánticas del vacío, que normalmente se manifiestan sólo a escalas microscópicas, en el Universo inflacionario en expansión exponencial aumentaron rápidamente su longitud y amplitud para convertirse en fluctuaciones significativas a nivel cosmológico.
En el Modelo corriente del big bang que actualmente prevalece y que, de momento, todos hemos aceptado al ser el que más se acerca a las observaciones realizadas, el universo surgió a partir de una singularidad, es decir, un punto de infinita densidad y de inmensa energía que, explosionó y se expansionó para crear la materia, el espacio y el tiempo que, estarían gobernados por las cuatro leyes fundamentales de la naturaleza:
Fuerzas nucleares débil y fuerte, el electromagnetismo y la Gravedad. Todas ellas, estarían apoyadas por una serie de números que llamamos las constantes universales y que hacen posible que nuestro universo, sea tal como lo podemos contemplar. Sin embargo, existen algunas dudas de que, realmente, fuera esa la causa del nacimiento del Universo y, algunos postulan otras causas como transiciones de fase en un universo anterior y otras, que siendo más peregrinas, no podemos descartar.
Nosotros, estamos confinados en el planeta Tierra que es un mundo suficientemente preparado para acoger nuestras necesidades físicas, pero, de ninguna manera podrá nunca satisfacer nuestras otras necesidades de la Mente y del intelecto que produce imaginación y pensamientos y que, sin que nada la pueda frenar, cual rayo de luz eyectado desde una estrella masiva refulgente, nuestros pensamientos vuelan también, hacia el espacio infinito y con ellos, damos rienda suelta a nuestra más firme creencia de que, nuestros orígenes están en las estrellas y hacia las estrellas queremos ir, allí, amigos míos, está nuestro destino.
El Universo es grande, inmenso, casi infinito pero, ¿y nosotros? Bueno, al ser una parte de él, al ser una creación de la Naturaleza, estamos formando parte de esta inmensidad y, precisamente, nos ha tocado desempeñar el papel de la parte que piensa, ¿tendrá eso algún significado?
Yo, no lo sé… Pero… ¿¡Quién sabe realmente!?
emilio silvera