viernes, 22 de noviembre del 2024 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR



RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

                  Parece que se llevan bien

El psicólogo Eric Ericsson llegó a proponer una teoría de estadios psicológicos del desarrollo. Un conflicto fundamental caracteriza cada fase. Si este conflicto no queda resuelto, puede enconarse e incluso provocar una regresión a un periodo anterior. Análogamente, el psicólogo Jean Piaget demostró que el desarrollo mental de la primera infancia tampoco es un desarrollo continuo de aprendizaje, sino que está realmente caracterizado por estadios discontinuos en la capacidad de conceptualización de un niño. En un mes, un niño puede dejar de buscar una pelota una vez que ha rodado fuera de su campo de visión, sin comprender que la pelota existe aunque no la vea. Al mes siguiente, esto resultará obvio para el niño.

Quinteto de Stephan

Los precesos siguen, las cosas cambian, el Tiempo inexorable transcurre, si hay vida vendrá la muerte, lo que es hoy mañana no será.

Esta es la esencia de la dialéctica. Según esta filosofía, todos los objetos (personas, gases, estrellas, el propio universo) pasan por una serie de estadios. Cada estadio está caracterizado por un conflicto entre dos fuerzas opuestas. La naturaleza de dicho conflicto determina, de hecho, la naturaleza del estadio. Cuando el conflicto se resuelve, el objeto pasa a un objetivo o estadio superior, llamado síntesis, donde empieza una nueva contradicción, y el proceso pasa de nuevo a un nivel superior.

Los filósofos llaman a esto transición de la “cantidad” a la “cualidad”.  Pequeños cambios cuantitativos se acumulan hasta que, eventualmente, se produce una ruptura cualitativa con el pasado. Esta teoría se aplica también a las sociedades o culturas. Las tensiones en una sociedad pueden crecer espectacularmente, como la hicieron en Francia a finales del siglo XVIII. Los campesinos se enfrenaban al hambre, se produjeron motines espontáneos y la aristocracia se retiró a sus fortalezas. Cuando las tensiones alcanzaron su punto de ruptura, ocurrió una transición de fase de lo cuantitativo a lo cualitativo: los campesinos tomaron las armas, tomaron París y asaltaron la Bastilla.

Las transiciones de fases pueden ser también asuntos bastante explosivos. Por ejemplo, pensemos en un río que ha sido represado. Tras la presa se forma rápidamente un embalse con agua a enorme presión. Puesto que es inestable, el embalse está en el falso vacío. El agua preferiría estar en su verdadero vacío, significando esto que preferiría reventar la presa y correr aguas abajo, hacia un estado de menor energía. Así pues, una transición de fase implicaría un estallido de la presa, que tendría consecuencias desastrosas.

También podría poner aquí el ejemplo más explosivo de una bomba atómica, donde el falso vacío corresponde al núcleo inestable de uranio donde residen atrapadas enormes energías explosivas que son un millón de veces más poderosas, para masas iguales, que para un explosivo químico.  De vez en cuando, el núcleo pasa por efecto túnel a un estado más bajo, lo que significa que el núcleo se rompe espontáneamente. Esto se denomina desintegración radiactiva. Sin embargo, disparando neutrones contra los núcleos de uranio, es posible liberar de golpe esta energía encerrada según la formula de Einstein E = mc2. Por supuesto, dicha liberación es una explosión atómica; ¡menuda transición de fase! De nefasto recuerdo por cierto.

Las transiciones de fase no son nada nuevo. Trasladémoslo a nuestras propias vidas. En un libro llamado Pasajes, el autor, Gail Sheehy, destaca que la vida no es un flujo continuo de experiencias, como parece, sino que realmente pasa por varios estadios, caracterizados por conflictos específicos que debemos resolver y por objetivos que debemos cumplir.

Fábricas de estrellas en el Universo lejano

Los contornos recubiertos muestran la estructura de la galaxia al ser reconstruida desde las observaciones hechas bajo el fenómeno de lente gravitatorio con el radiotelescopio Submillimeter Array. La formación de nuevas estrellas en el Universo es imparable y, la materia más sencilla se constituye en una estructura que la transformará en más compleja, más activa, más dispuesta para que la vida, también pueda surgir en mundos ignotos situados muy lejos del nuestro.

   Sí, todo cambia y nada permanece: transiciones de fases hacia la complejidad

Las nuevas características descubiertas por los científicos en las transiciones de fases es que normalmente van acompañadas de una ruptura de simetría. Al premio Nobel Abdus Salam le gusta la ilustración siguiente: consideremos una mesa de banquete circular, donde todos los comensales están sentados con una copa de champán a cada lado. Aquí existe simetría. Mirando la mesa del banquete reflejada en un espejo, vemos lo mismo: cada comensal sentado en torno a la mesa, con copas de champán a cada lado.  Asimismo, podemos girar la mesa de banquete circular y la disposición sigue siendo la misma.

Rompamos ahora la simetría. Supongamos ahora que el primer comensal toma la copa que hay a su derecha. Siguiendo la pauta, todos los demás comensales tomaran la copa de champán de su derecha. Nótese que la imagen de la mesa del banquete vista en el espejo produce la situación opuesta.  Cada comensal ha tomado la copa izquierda. De este modo, la simetría izquierda-derecha se ha roto.

El niño del espejo le da a su amiguito reflejado la mano derecha y aquel, le saluda, con la izquierda. ¡La simetría especular…! Así pues, el estado de máxima simetría es con frecuencia también un estado inestable, y por lo tanto corresponde a un falso vacío.

Con respecto a la teoría de supercuerdas, los físicos suponen (aunque todavía no lo puedan demostrar) que el universo decadimensional original era inestable y pasó por efecto túnel a un universo de cuatro y otro de seis dimensiones. Así pues, el universo original estaba en un estado de falso vacío, el estado de máxima simetría, mientras que hoy estamos en el estado roto del verdadero vacío.

Al principio, cuando el universo era simétrico, sólo existía una sola fuerza que unificaba a todas las que ahora conocemos, la gravedad, las fuerzas electromagnéticas y las nucleares débil y fuerte, todas emergían de aquel plasma opaco de alta energía que lo inundaba todo. Más tarde, cuando el universo comenzó a enfriarse, se hizo transparente y apareció la luz, las fuerzas se separaron en las cuatro conocidas, emergieron las primeras quarks para unirse y formar protones y neutrones, los primeros núcleos aparecieron para atraer a los electrones que formaron aquellos primeros átomos.  Doscientos millones de años más tarde, se formaron las primeras estrellas y galaxias. Con el paso del tiempo, las estrellas sintetizaron los elementos pesados de nuestros cuerpos, fabricados en supernovas que estallaron, incluso antes de que se formase el Sol. Podemos decir, sin temor a equivocarnos, que una supernova anónima explotó hace miles de millones de años y sembró la nube de gas que dio lugar a nuestro sistema solar, poniendo allí los materiales complejos y necesarios para que algunos miles de millones de años más tarde, tras la evolución, apareciéramos nosotros.

Cadena pp

Las estrellas evolucionan desde que en su núcleo se comienza a fusionar hidrógeno en helio, de los elementos más ligeros a los más pesados.  Avanza creando en el horno termonuclear, cada vez, metales y elementos más pesados. Cuando llega al hierro y explosiona en la forma explosiva de  una supernova. Luego, cuando este material estelar es otra vez recogido en una nueva estrella rica en hidrógeno, al ser de segunda generación (como nuestro Sol), comienza de nuevo el proceso de fusión llevando consigo materiales complejos de aquella supernova.

Puesto que el peso promedio de los protones en los productos de fisión, como el cesio y el kriptón, es menor que el peso promedio de los protones de uranio, el exceso de masa se ha transformado en energía mediante la conocida fórmula E = mc2. Esta es la fuente de energía que también subyace en la bomba atómica. Es decir, convertir materia en energía.

Así pues, la curva de energía de enlace no sólo explica el nacimiento y muerte de las estrellas y la creación de elementos complejos que también hicieron posible que nosotros estemos ahora aquí y, muy posiblemente, será también el factor determinante para que, lejos de aquí, en otros sistemas solares a muchos años luz de distancia, puedan florecer otras especies inteligentes que, al igual que la especie humana, se pregunten por su origen y estudien los fenómenos de las fuerzas fundamentales del universo, los componentes de la materia y, como nosotros, se interesen por el destino que nos espera en el futuro.

Cuando alguien oye por vez primera la historia de la vida de las estrellas, generalmente (lo sé por experiencia), no dice nada, pero su rostro refleja escepticismo. ¿Cómo puede vivir una estrella 10.000 millones de años? Después de todo, nadie ha vivido tanto tiempo como para ser testigo de su evolución y poder contarlo.

             Pero no parece que todo evolucione… algunas cosas siempre siguen igual… ¡A pesar de todo!

Pero volviendo a las cosas de la Naturaleza y de la larga vida de las estrellas, sí, tenemos los medios técnicos y científicos para saber la edad que tiene, por ejemplo, el Sol. Nuestro Sol, la estrella alrededor de la que giran todos los planetas de nuestro Sistema Solar, la estrella más cercana a la Tierra (150 millones de Km =  1 UA), con un diámetro de 1.392.530 Km, tiene una edad de 4.500 millones de años, y, como todo en el Universo, su discurrir la va desgantando, evoluciona hacia su imparable destino como gigante roja primero y enana blanca después.

     Una gigante roja engulle a un planeta cercano. La escena se repetirá con el Sol y la Tierra si nada lo remedia y las cosas naturales siguen su curso.

Cuando ese momento llegue, ¿dónde estaremos? Pues nosotros, si es que estamos, contemplaremos el acontecimiento desde otros mundos. La Humanidad habrá dado el gran salto hacia las estrellas y, colonizando otros planetas se habrá extendido por regiones lejanas de la Galaxia.

El Universo siempre nos pareció inmenso, y, al principio, aquellos que empezaron a preguntarse cómo sería, lo imaginaron como una esfera cristalina que dentro contenía unos pocos mundos y algunas estrellas, hoy, hemos llegado a saber un poco más sobre él. Sin embargo, dentro de unos cuantos siglos, los que detrás de nosotros llegaran, hablarán de universos en plural, y, cuando pasen algunos eones, estaremos de visita de un universo a otro como ahora vamos de una ciudad a otra.

¡Quién pudiera estar allí!

¡Es todo tan extraño! ¡Es todo tan complejo! y, sobre todo…¡sabemos tan poco!

       Todo lo grande está hecho de cosas pequeñas

Según lo que podemos entender y hasta donde han podido llegar nuestros conocimientos actuales, ahora sabemos donde están las fronteras: donde las masas o las energías superan 1019 veces la masa del protón, y esto implica que estamos mirando a estructuras con un tamaño de 10-33 centímetros.

Esta masa la conocemos con el nombre demasa de Planck y a la distancia correspondiente la llamamos distancia de Planck. La masa de Planck expresada en gramos es de 22 microgramos, que la es la masa de un grano muy pequeño de azúcar que, por otra parte, es el único número de Planck que parece más o menos razonable, ¡los otros números son totalmente extravagantes!.

Esto significa que tratamos de localizar una partícula con la precisión de una longitud de Planck, las fluctuaciones cuánticas darán tanta energía que su masa será tan grande como la masa de Planck, y los efectos de la fuerza gravitatoria entre partículas, así, sobrepasarán los de cualquier otra fuerza. Es decir, para estas partículas la gravedad es una interacción fuerte.

Lo cierto es que, esas unidades tan pequeñas, tan lejanas en las distancias más allá de los átomos, son las que marcan nuestros límites, los límites de nuestras teorías actuales que, mientras que no puedan llegar a esas distancias… No podrán avanzar en el conocimiento de la Naturaleza y, tampoco, como es natural, en la teoría de supercuerdas o en poder saber, lo que pasó en el primer momento del supuesto big bang, hasta esos lugares, nunca hemos podido llegar.

emilio silvera

Seguiremos desvelando secretos de la Naturaleza

Autor por Emilio Silvera    ~    Archivo Clasificado en Descubrir y aprender    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Rayos cósmicos

Los rayos cósmicos son impredecibles en cuanto a su energía aleatoria. Hace ya aproximadamente un siglo que fueron descubiertos por un padre jesuita de nombre Theodor Wolf en lo alto de la Torre Eiffel en París. Desde entonces, el conocimiento adquirido de estos rayos es bastante aceptable; se buscan y miden mediante el envio de contadores de radiación en cohetes e incluso en satélites a gran altura alrededor del planeta Tierra para minimizar agentes interceptores como los efectos atmosféricos que contaminan las señales. Cuando los rayos energéticos, altamente energéticos, inciden en la atmósfera, rompen los átomos que encuentran a su paso y los fragmentos que se forman caen a tierra donde son detectados por aparatos colocados al efecto en la superficie.

Supermassive black hole Sagittarius A

El detector de Utah, a unos 140 Km al suroeste de Salt Lake City, es lo suficientemente sensible como para detectar la procedencia, el origen de los rayos cósmicos más energéticos. Hasta el momento, Cygnus X-1, Hércules X-1 y Sagittarius A,  han sido identificados como poderosos emisores de rayos cósmicos.  Probablemente son grandes estrellas de neutrones, o incluso agujeros negros en rotación engullendo a sus estrellas vecinas que, inocentes, han osado traspasar el horizonte de sucesos. Cuando el material de la estrella traspasa ese punto de no regreso, crea un gran vórtice de energía y escupe cantidades gigantescas de radiación (por ejemplo, protones) al espacio exterior.

Grandes fuentes de rayos cósmicos están situadas en las radiogalaxias activas, en explosiones supernovas, en colisiones de estrellas de neutrones y en los agujeros negros. Es decir, los rayos cósmicos muy energéticos son partículas electricamente cargadas en un alto nivel que no se puede conseguir en ninguno de nuestros ingenios que, son juegos de niños comparados con la propia Naturaleza.

Hasta la fecha, el rayo cósmico más energético detectado tenía una energía de 1020 electrón voltios. Esta cifra supone una increíble energía diez millones de veces mayor de la que se pueda producir en el LHC. Dentro de este siglo, seguramente, será difícil alcanzar con nuestras máquinas, energías aproximadas. Aunque esta fantástica energía es todavía cien millones de veces menor que las energías necesarias para sondear la décima dimensión, se espera que energías producidas en el interior profundo de los agujeros negros en nuestra galaxia se acercaran a la energía de Planck. Con grandes naves espaciales en orbita deberíamos ser capaces (seremos) de sondear en lo más profundo de estas estructuras gigantescas de fuentes energéticas que, abundantemente, están repartidas a lo largo y ancho del universo.

                  El corazón de nuestra Galaxia: Lugar poco recomensable para instalarse

Según una teoría favorita, la mayor fuente de energía dentro de nuestra galaxia (mucho más allá de cualquier cosa imaginable), está en el mismo corazón de la Vía Láctea, en el centro, a 30.000 años luz de nuestro Sistema Solar, donde reside Sagittarius A, un agujero negro con millones de masas solares, un enorme mostruo estelar que engulle toda la materia que pueda acercarse al lugar emitiendo enormes ráfagas energías al espacio interestelar en forma de radiación cósmica.

En física nada se puede descartar, la inaccesibilidad de hoy a la energía de Planck se puede suplir por descubrimientos inesperados que, poco a poco, nos lleve cada vez más cerca de ella, hasta que finalmente tengamos el conocimiento y la tecnología necesarias para poder alcanzarla. Dicen los entendidos que de ser así, sí podríamos verificar de manera experimental, la Teoría de Cuerdas.

Incubadora de estrellas bebés, en la Nebulosa 30 Doradus / NASA

          30 Doradus, región de formación de estrellas nuevas que radian en intenso ultravioleta

No olvidemos que en el siglo XIX, algunos científicos declararon que la composición de las estrellas estaría siempre fuera del alcance del experimento, y que la única manera que tendríamos de conocerlas sería la de mirar al cielo y verlas allí, inalcanzables como puntos de luz brillantes y lejanos en la oscuridad del vacío del cosmos. Sin embargo, podemos decir hoy, a comienzos del siglo XXI, en los comienzos del año 2.013, que no sólo podemos saber la composición de las estrellas, sino también como nacen y mueren, en que se convierten al final de sus vidas -dependiendo de sus masas-, así como las distancias que las separan de nosotros y un sin fin de datos más que las hacen más familiares y cotidianas. ¡Lo imposible se hizo posible!

Los resultados de investigaciones científicas y los logros de múltiples proyectos, nos llevan a creer que, dentro de unos límites racionales, y razonables,  podremos, en un futuro no muy lejano, conseguir muchos de los sueños del pasado: alargar de manera considerable la media de vida, colonizar otros planetas y explotar recurso mineros en las lunas de nuestro Sistema Solar; los turistas irán al planeta Marte o a las lunas Ganímedes o Europa. Los transportes de hoy serán reliquias del pasado y nos trasladaremos mediante sistemas de transportes más limpios, rápidos y en ausencia de trágicas colisiones que evitarán censores que a tal efecto, llevarán incorporados los vehículos. Tendremos computadoras de cifrado cuántico que harán más seguras las comunicaciones y el intercambio de datos será realmente el de la velocidad de c, y, de esa manera, en todos los campos del saber humano.

    Mucho hemos avanzado ya desde entonces

Estamos inmersos en un avance exponencial imparable. La lista de ideas inverivicables cada vez será más corta. Otro ejemplo de una idea “inverificable” la tenemos en la existencia del átomo. En el siglo XIX, la hipótesis atómica se reveló como el paso decisivo en la comprensión de las leyes de la química y la termodinámica. Sin embargo, muchos físicos se negaban a creer que los átomos existieran realmente, los aceptaban como un concepto o herramienta matemática para operar en su trabajo que, por accidente, daba la descripción correcta del mundo.

Hoy somos todavía incapaces de tomar imágenes directas del átomo debido al principio de incertidumbre de Heisemberg, aunque ahora existen métodos indirectos. En 1905, Einstein proporcionó la evidencia más convincente, aunque indirecta, de la existencia de átomos cuando demostró que el movimiento browniano (es decir, el movimiento aleatorio de partículas de polvo suspendidas en un líquido) puede ser explicado como colisiones aleatorias entre las partículas y los átomos del líquido.

Por analogía, podríamos esperar la confirmación experimental de la física de la décima dimensión utilizando métodos indirectos que aún ni se han inventado o descubierto. En lugar de fotografiar el objeto que deseamos, quizá nos conformaríamos, de momento, con fotografiar la “sombra” del mismo.

También la existencia de los neutrinos, propuestos por Wolfgang Pauli en 1930 para dar cuenta de la energía perdida en ciertos experimentos sobre radiactividad que parecían violar la conservación de la materia y la energía, también digo, era inverificable (en aquel momento). Pauli comprendió que los neutrinos serían casi imposibles de observar experimentalmente, porque interaccionarían muy débilmente y, por consiguiente, muy raramente con la materia. La materia, toda la materia, si profundizamos en ella a niveles microscópicos, podremos comprobar el hecho de que en un 90% está constituida de espacios vacíos y, siendo así, los neutrinos pueden atravesarla sin rozar siquiera sus átomos; de hecho, pueden atravesar la Tierra como si ni siquiera existiera y, al mismo tiempo, también nosotros somos atravesados continuamente por billones de neutrinos emitidos por el sol, incluso por la noche.

Pauli admitió:

He cometido el pecado más grave, he predicho la existencia de una partícula que nunca puede ser observada”.

Pero incluso Pauli, con todos sus enormes conocimientos, se equivocaba, y el neutrino ha sido comprobado mediante distintos métodos que no dejan dudas de su existencia. Incluso producimos regularmente haces de neutrinos en colisionadores de átomos, realizamos experimentos con los neutrinos emitidos por reactores nucleares y detectamos su presencia en enormes depósitos de agua pesada colocados en profundas minas abandonadas en las entrañas de la Tierra. Cuando una espectacular supernova se iluminó en el cielo del hemisferio sur en 1987, los físicos registraron una ráfaga de neutrinos que atravesaron sus detectores situados, precisamente, en profundas minas.

Echando una larga mirada a la historia de la ciencia, creo que existen motivos para un moderado optimismo. Witten está convencido de que la ciencia sería algún día capaz de sondear hasta las energías de Planck.

E. Witten, padre de la versión más avanzada de la teoría de supercuerdas, la teoría M, dice:

“No siempre es tan fácil decir cuáles son las preguntas fáciles y cuáles las difíciles. En el siglo XIX, la pregunta de por qué el agua hierve a 100 grados era desesperadamente inaccesible. Si usted hubiera dicho a un físico del siglo XIX que hacia el  S. XX sería capaz de calcularlo, le habría parecido un cuento de hadas… La teoría cuántica de campos es tan difícil que nadie la creyó completamente durante veinticinco años.”

Lo mismo que otros muchos, espero que no tengamos que esperar un siglo antes de que nuestro ingenio y nuestras máquinas puedan sondear de manera indirecta la teoría de cuerdas, sería interesante saber si nos lleva a alguna parte, o, si por el contrario, estamos perdiendo el tiempo. De todas las maneras, parece que algunos resultados son esperanzadores. Esperémos que alguien sepa, durante ese periodo de tiempo, resolver esa teoría de campos de cuerdas o alguna otra fórmula no perturbativa. El problema es teórico, no experimental. Necesitamos alguien con el ingenio y la inteligencia necesaria (además de un enorme índice de observación), para saber “ver” lo que probablemente tenemos ante nuestras narices, utilizando para ello todos los datos e indicios existentes de gente como Einstein, Kaluza y Klein, Veneziano y Suzuki, el cuarteto de cuerdas de Princeton, Michio Kaku, Witten…, y tantos otros.

                       Si esas cuerdas vibrantes de cuyas resonancias nacen las partículas elementales están ahí…, ¡debemos encontrarlas!

Suponiendo que algún físico brillante resuelva la teoría de campos de cuerdas y derive las propiedades conocidas de nuestro universo, sigue existiendo el problema práctico de cuándo seríamos capaces de aprovechar el poder de la teoría del hiperespacio. Existen dos posibilidades:

  1. Esperar que nuestra civilización alcance la capacidad para dominar energías billones de veces mayores que las de hoy.
  2. Encontrar civilizaciones extraterrestres que, más avanzadas, hayan dominado el arte de manipular el hiperespacio.

Antes de que Edison y sus colaboradores aprovecharan los descubrimientos de Faraday y las ecuaciones de Maxwell sobre la electricidad y el magnetismo, para explotarlos de manera práctica pasaron unos setenta años. Todo en el Universo tiene marcado un tiempo, nada surge por arte de magia y, algunas veces, nuestra natural impaciencia, nos hace olvidar tan insignificante detalla y pretendemos que “el parto sea de 3 meses”. ¡Qué humanidad!

La civilización moderna depende crucialmente del aprovechamiento de esta fuerza. La fuerza nuclear fue descubierta casi con el cambio de siglo. Pasó todo el siglo XX y estamos en la primera década del XXI, han pasado 100 años y, sin embargo, todavía no tenemos medios de aprovecharla con éxito en reactores de fusión, la energía limpia que produce el Sol.

emilio silvera

La masa del universo, la inflación, el tamaño…

Autor por Emilio Silvera    ~    Archivo Clasificado en El Universo cambiante    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Encuentran la «masa perdida» del Universo

                                      UNIVERSIDAD DE MONASH
La Dra. Jasmina Lazendic-Galloway, Amelia Fraser-McKelvie y el Dr. Kevin Pimbblet. En mayo de 2.011, pudimos ller la noticia:

“Un estudiante de la Universidad Monash de Melbourne ha resuelto un problema que ha desconcertado a los astrofísicos durante décadas, el descubrimiento de parte de la llamada «masa perdida» del Universo.

El descubrimiento, publicado en la revista Monthly Notices de la Royal Astronomical Society, ha sido liderado por Amelia Fraser-McKelvie, de 22 años y becaria en la Escuela de Física de la facultad, que en una investigación con rayos X ha conseguido identificar en tres meses la conocida como «missing mass»”.

   Particularmente no creo que estemos preparados para encontrar -si es que existe- esa “masa perdida”

La idea de la masa perdida se introdujo porque la densidad observada de la materiaen el universo está cerca del valor crítico. Sin embargo, hasta comienzos de los ochenta, no hubo razón teórica firme para suponer que el universo tenía efectivamente la masa perdida. En 1981, Alan Guth -del que ya hablamos aquí-, publicó la primera versión de una teoría que desde entonces se ha conocido como “universo inflacionista”. Desde entonces, la teoría ha sufrido cierto número de modificaciones técnicas, pero los puntos centrales no han cambiado.

Para lo que aquí tratamos, el aspecto principal del universo inflacionista es que estableció por primera vez una fuerte presunción de que la masa del universo tenía realmente su valor crítico. Esta predicción viene de las teorías que describen la congelación de la fuerza fuerte en el segundo 10-35 del Big Bang.

Aquí se pretende representar el pasado y el futuro del universo que, se expandió primero de manera muy rápida, después más lenta, y de nuevo la velocidad aumentó, de manera tal que el recorrido represrenta una especie de S que nos habla del pasado y del futuro.

Entre los otros muchos procesos en marcha en aquellos primeros momentos del nacimiento del universo, en aquel tiempo, uno de los principales parámetros a tener en cuenta es el de la rápida expansión, ese proceso que ha venido a ser conocido como inflación. Es la presencia de la inflación la que nos conduce a la predicción de que el universo tiene que ser plano.

El proceso mediante el cual la fuerza fuerte se congela es un ejemplo de un cambio de fase, similar en muchos aspectos a la congelación del agua. Cuando el agua se convierte en hielo, se expande; todos hemos podido ver una botella de líquido explotar si alcanzanda la congelación, el contenido se expande y el recipiente no puede contenerlo. No debería sert demasiado sorprendente que el universo se expanda del mismo modo al cambiar de fase.

Claro que no es fácil explicar cómo a medida que el espacio crece debido a esa expansión, se hace más y más voluminoso cada vez y también, cada vez menos denso y más frío. Lo que realmente sorprende es la inmensa magnitud de la expansión. El tamaño del Universo aumentó en un factor no menor de 1060  longitudes de Planck. Acordáos de aquellos números que en aquel trabajo que titulé,  ¿Es viejo el Universo?, os dejaba aquí expuestos unos datos interesantes sobre nuestro universo. Volvamos a verlos:

 

 

 

 

La edad actual del universo visible ≈ 1060 tiempos de Planck

Tamaño actual del Universo visible ≈ 1060 longitudes de Planck

La masa actual del Universo visible ≈ 1060 masas de Planck

Vemos así que la bajísima densidad de materia en el universo es un reflejo del hecho de que:

Densidad actual del universo visible ≈10-120 de la densidad de Planck

Y la temperatura del espacio, a 3 grados sobre el cero absoluto es, por tanto

Temperatura actual del Universo visible ≈ 10-30 de la Planck

 

Estos números extraordinariamente grandes y estas fracciones extraordinariamente pequeñas nos muestran inmediatamente que el universo está estructurado en una escala sobrehumana de proporciones asombrosas cuando la sopesamos en los balances de su propia construcción. Lo cierto es que, son tan grandes y tan pequeñas esos números y fracciones que, para nosotros, no tienen significación  consciente, no las podemos asimilar al tratarse, como se dice más arriba, de medidas sobrehumanas. Si un átomo aumentara en esa proporción de 1060 no tendría canbida en el Universo, el átomo sería mayor.

Decíamos que en 10-35 segundos, el universo pasó de algo con un radio de curvatura mucho menor que la partícula elemental más pequeña a algo con el tamaño de una naranja. No debe sorprendernos pués, que el nombre inflación esté ligado a este proceso. Es cierto que cuando oímos por primera vez este proceso inflacionista, podamos tener alguna dificultad con el índice de inflación que se expone sucedió en el pasado. Nos puede llevar, en un primer momento, a la idea equivocada de que se han violado, con un crecimiento tan rápido, las reglas de Einstein que impiden viajar más veloz que la luz, y, si un cuerpo material viajó desde la línea de partida que señalan los 10-35 segundos hasta aquella otra que marca la dimensión de una naranja…¡su velocidad excedió a la de la luz!

Claro que la respuesta a que algo sobrepasara la velocidad de la luz, c, es sencilla: NO, nada ha sido en nuestro universo más rápido que la luz viajando, y la explicación está en el hecho cierto de que no se trata de algo pudiera ir tan rápido, sino que, por el contrario, en lugar de que un objeto matrerial vciajara por el espacio, lo que ocurrió es que fue el espacio mismo el que se infló -acordáos de la masa de pan que crece llevando las pasas como adorno-, y, ahora, esa expansión hace que las galaxias -las pasas de la masa-, se alejen cada vez más las unas de las otras, haciendo el universo más grande y frío cada vez.

Así que, con la expansión o inflación, ningún cuerpo material se movió a grandes velocidades en el espacio, ya que, fue el espacio mismo el que creció y, de alguna manera, su tremenda expansión, incidió sobre los objetos que contenía que, de esa manera, pasaron de estar muy juntos a estar muy separados. Las reglas contra el viaje a velocidades superiores a la de la luz sólo se aplican al movimiento al movimiento dentro del espacio, no al movimiento del espacio. Así no hay contradicción, aunque a primera vista pudiera parecerlo.

Las consecuencias del período de rápida  expansión se puede describir mejor con referencia a la visión einsteniana de la gravitación. Antes de que el universo tuviera 10-35 segundos de edad, es de suponer que había algún tipo de distribución de materia. A causa de esa materia, el espacio-tiempo tendrá alguna forma característica.

Se dice que el espacio está arrugado y, conforme a la expansión, el universo será plano independientemente de la forma en que pudiera empezar encogido y arrugado para después expandirse y hacerse cada vez más plano, grande, de menor densidad y frío. La lisura no es ningún accidente, es la consecuencia necesaria de la física de la congelación que tuvo lugar en el segundo 10-35.

Los aceleradores construidos en los años cuarenta y cincuenta llegaron hasta la marca de un segundo.  El Tevatrón del Fermilab llevó el límite a menos de una milmillonésima de segundo después del comienzo del Tiempo.  El nuevo LHC proporcionara un atisbo del medio cósmico cuando el Universo tenía menos de una billonésima de segundo de edad.

Esa es una edad bastante temprana: una diez billonésima de segundo es menos que un pestañeo con los párpados en toda la historia humana registrada.  A pesar de ello, extrañamente, la investigación de la evolución del Universo recién nacido indica que ocurrieron muchas cosas aún antes,  durante la primera ínfima fracción de un segundo.

Todos los teóricos han tratado de elaborar una explicación coherente de los primeros momentos de la historia cósmica.  Por supuesto, sus ideas fueron esquemáticas e incompletas, muchas de sus conjeturas, sin duda, se juzgaran deformadas o sencillamente erróneas, pero constituyeron una crónica mucho más aclaradora del Universo primitivo que la que teníamos antes.

Empleamos todos los medios a nuestro alcance e ideamos nuevos ingenios para poder asomarnos a las escalas más extremas del universo, con los telescopios queremos llegar hasta las primeras gaalxias y, con los aceleradores de partículas nos queremos asomar a ese momento primero en el que se formó la materia.

A los cien millones de años desde el comienzo del tiempo, aún no se habían formado las estrellas, si acaso, algunas más precoces.  Aparte de sus escasas y humeantes almenaras, el Universo era una sopa oscura de gas hidrógeno y helio, arremolinándose aquí y allá para formar protogalaxias.

A la edad de mil millones de años, el Universo tiene un aspecto muy diferente.  El núcleo de la joven Vía Láctea arde brillantemente, arrojando las sobras de cumulonimbos galácticos a través del oscuro disco; en su centro billa un quásar blancoazulado.  El disco, aún en proceso de formación, es confuso y está lleno de polvo y gas; divide en dos partes un halo esférico que será oscuro en nuestros días, pero a la sazón corona la galaxia con un brillante conjunto de estrellas calientes de primera generación.

Nuestras galaxias vecinas del supercúmulo de Virgo están relativamente cerca; la expansión del Universo aún no ha tenido tiempo de alejarlas a las distancias-unas decenas de millones de años-luz a las que las encontraremos ahora.   El Universo es aún altamente radiactivo.  Torrentes de rayos cósmicos llueven a través de nosotros en cada milisegundo, y si hay vida en ese tiempo, probablemente está en rápida mutación.

File:Supercúmulo de Virgo.jpg

El Supercúmulo de Virgo, o Supercúmulo Local, es el supercúmulo de galaxias que contiene al Grupo Local y con él, a nuestra galaxia, la Vía Láctea. Tiene la forma de un disco plano, con un diámetro de 200 millones de años luz. El supercúmulo contiene alrededor de 100 grupos y cúmulos de galaxias, y está dominado por el cúmulo de Virgo, localizado cerca de su centro. El Grupo Local está localizado cerca del borde del cúmulo de Virgo, al cual es atraído.

Hay algo que es conocido por el término técnico de desacoplamiento de fotones, en ese momento, la oscuridad es reemplazada por una deslumbrante luz blanca, se cree que ocurrió cuando el Universo tenía un millón de años.   El ubicuo gas cósmico en aquel momento se había enrarecido los suficientes como para permitir que partículas ligeras –los fotones– atraviesen distancias grandes sin chocar con partículas de materia y ser reabsorbidas.

(Hay gran cantidad de fotones en reserva, porque el Universo es rico en partículas cargadas eléctricamente, que generan energía electromagnética, cuyo cuanto es el fotón.) Es esa gran efusión de luz, muy corrida al rojo y enrarecida por  la expansión del Universo, la que los seres humanos, miles de millones de años después, detectaran con radiotelescopios y la llamaran la radiación cósmica de fondo de microondas. Esta época de “sea la luz” tiene un importante efecto sobre la estructura de la materia.  Los electrones, aliviados del constante acoso de los fotones, son ahora libres de establecerse en órbita alrededor de los núcleos, formando átomos de hidrógeno y de helio.

Poco a poco, el Universo evolucionó y continuó expandiéndose mientras se formaban nuevas galaxias

Disponiendo de átomos, la química puede avanzar, para conducir, mucho tiempo después, a la formación de alcohol y formaldehído en las nubes interestelares y la construcción de moléculas bióticas en los océanos de la Tierra primitiva. La temperatura ambiente del Universo se eleva rápidamente cuanto más marchamos hacia atrás en el tiempo, a los cinco minutos del big bang es de 1.000 millones de grados kelvin.

Por elevada que se esta energía, a la edad de cinco minutos el Universo ya se ha enfriado lo suficiente para que los nucleones permanezcan unidos y formen núcleos atómicos.  Podríamos haber comptemplado a protones y neutrones unirse para formar núcleos de deuterio (una forma de hidrógeno), y a los núcleos de deuterio aparearse para formar núcleos de helio (dos protones y  dos neutrones). De esta manera, un cuarto de toda la materia del Universo se combina en núcleos de helio, junto con rastros de deuterio, helio-3 (dos protones y un neutrón) y litio.   Todo el  proceso, se cree que termina en tres minutos y veinte  segundos.

Asomarse a la historia del universo puede ser un viaje alucinante que nos cuente cómo pudieron pasar las cosas para que ahora, el Universo sea tal como lo podemos contemplar y, para que eso haya sido posible, mucha imaginación hemos tenido que emplear para poder inventar artilugios y generar ideas que, inspiradas en la observación y el experimento, nos llevaron a saber…¡lo poco que sabemos!

emilio silvera

La masa del universo, la inflación, el tamaño…II

Autor por Emilio Silvera    ~    Archivo Clasificado en El Universo dinámico    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

            No es que el Universo sea más de lo que imaginas… ¡Es más de lo que nunca podremos imaginar!

¡El Universo! Que trataba de explicar en la parte I de este trabajo, en el que, sin quererlo, me remonté a aquellos primeros momentos, cuando nacieron el espacio y el tiempo y se fraguó, la materia misma que podemos ver y de la que todo está hecho, desde el objeto más diminuto hasta la más inmensa galaxia.

Antes de alrededor de un minuto y cuarenta segundos desde el comienzo del tiempo,  se supone que no había núcleos atómicos estables.  El nivel de energía en el ambiente es mayor que la energía de unión nuclear. Por consiguiente, todos los núcleos que se forman, se destruyen de nuevo rápidamente.

Alrededor de un segundo desde el comienzo del tiempo, llegamos a la época de desacoplamiento de los neutrinos.  Aunque en esa época el Universo es extremadamente denso (y tan caliente como la explosión de una bomba de hidrógeno), ya ha empezado a parecer vacío a los neutrinos.  Puesto que los neutrinos sólo reaccionan a la fuerza débil, que tiene un alcance extremadamente corto, ahora pueden escapar de sus garras y volar indefinidamente sin experimentar ninguna otra interacción.

http://latabernaglobal.com/wp-content/uploads/2012/02/NEUTRIN1.jpg

Así, emancipados, en lo sucesivo son libres de vagar por el Universo a su manera indiferente, volando a través de la mayor parte  de la materia como si no existiese. (Diez trillones de neutrinos atravesarán sin causar daños el cerebro y el cuerpo de cada uno de ustedes en el tiempo que os lleve leer esta página.  Y en el tiempo en que hayan leído esta frase estarán más lejos que la Luna).

En menos de un siglo, el neutrino pasó de una partícula fantasma – propuesta en 1930 por el físico austríaco Wolfgang Pauli (1900-1958) a explicar el balance de energía en una forma de radioactividad,  el llamado decaimiento beta, en una sonda capaz de escrutar el interior de estrellas y de la propia Tierra.

De esa manera, oleadas de neutrinos liberados en un segundo después del big bang persiste aún después, formando una radiación cósmica de fondo de neutrinos semejante a la radiación de fondo de microondas producida por el desacoplamiento de los fotones.

Un equipo internacional de científicos del experimento MINOS en el laboratorio del Acelerador Nacional Fermi (Fermilab) ha anunciado la medición más precisa del mundo hasta la fecha de los parámetros que rigen las oscilaciones antineutrino (de atrás y hacia adelante), es decir las transformaciones de antineutrinos de un tipo a otro y sus masas.

Si los neutrinos “cósmicos” -como se los llama para diferenciarlos de los neutrinos liberados más tarde por las supernovas- pudiesen ser observador por un telescopio de neutrinos de alguna clase, proporcionarían una visión directa del Universo cuando sólo tenía un segundo. A medida que retrocedemos en el tiempo, el Universo se vuelve más denso y más caliente, y el nivel de  estructura que puede existir se hace cada vez más rudimentario.

Por supuesto, en ese tiempo, no hay moléculas, ni átomos, ni núcleos atómicos, y, a 10-6 (0.000001) de segundo después del comienzo del tiempo, tampoco hay neutrones ni protones.  El Universo es un océano de quarks libres y otras partículas elementales.

Si nos tomamos el trabajo de contarlos, hallaremos que por cada mil millones de antiquarks existen mil millones y un quark.  Esta asimetría es importante.  Los pocos quarks en exceso destinados a sobrevivir a la aniquilación general quark-antiquark formaran todos los átomos de materia del Universo del último día.  Se desconoce el origen de la desigualdad; presumiblemente obedezca a la ruptura de una simetría materia antimateria en alguna etapa anterior. Nada hemos podido saber de lo que pasó antes del Tiempo de Planck.

Nos aproximamos a un tiempo en que las estructuras básicas de las leyes naturales, y no sólo las de las partículas y campos cuya conducta dictaban, cambiaron a medida que evolucionó el Universo. La primera transición semejante se produjo en los 10-11 de segundo después del comienzo del tiempo, cuando las funciones de las fuerzas débiles y electromagnéticas se regían por una sola fuerza, la electrodébil.  Ahora hay bastante energía ambiente para permitir la creación y el mantenimiento de gran número de bosones w y z.

http://francisthemulenews.files.wordpress.com/2012/05/dibujo20120501-fermilab-batavia-chicago-eeuu.jpg?w=580&h=331

Debajo de este bonito conjunto que es el CERN, está el famoso acelerador LHC que intenta llegar a ese pasado que aquí estamos descibirendo ahora. Aquellos primeros momentos, cuando el Tiempo y el espacio hicieron su aparición para dar cobijo a la materia

Así que estas partículas, los bosones w y z –las mismas cuya aparición en el acelerador del CERN verificó la teoría electrodébil– son las mediadoras intercambiables en las interacciones de fuerzas electromagnéticas y débiles, lo que las hace indistinguibles.  En ese tiempo, el Universo está gobernando sólo por tres fuerzas: la gravedad, la interacción nuclear fuerte y la electrodébil.

Más atrás de ese tiempo nos quedamos en el misterio y envueltos en una gran nebulosa de ignorancia.  Cada uno se despacha a su gusto para lanzar conjeturas y teorizar sobre lo que pudo haber sido.   Seguramente, es posible que en el futuro, sea la teoría M (de supercuerdas) la que contestará esas preguntas sin respuestas ahora.

En los 10-35 de segundo desde el comienzo del tiempo, entramos en un ámbito en el que las condiciones cósmicas son aún menos conocidas.  Si las grandes teorías unificadas son correctas, se produjo una ruptura de la simetría por la que la fuerza electronuclear unificada se escindió en las fuerzas electrodébil y las fuertes.  Si es correcta la teoría de la supersimetría, la transición puede haberse producido antes, había involucrado a la gravitación.

Aún no había Carbono que se produciría mucho más tarde, en las estrellas, mediante el efecto triple alfa

En el universo tempranop la primera materia (hidrógeno y Helio) era llevada por la fuerza de gravedad a conformarse en grandes conglomerados de gas y polvo que interacioban, producían calor y formaron las primeras estrellas.

Elaborar una teoría totalmente unificada es tratar de comprender lo que ocurrió en ese tiempo remoto que, según los últimos estudios está situado entre 13.700 y 15.000 millones de años, cuando la perfecta simetría -que se pensaba, caracterizó el Universo-, se hizo añicos para dar lugar a las simetrías rotas que hallamos a nuestro alrededor y que nos trajo las fuerzas y constantes Universales que,  paradójicamente, hicieron posible nuestra aparición para que ahora, sea posible que, alguien como yo esté contando lo que pasó.

Ampliar

Realmente, carecemos de una teoría que nos explique lo que pasó en aquellos primeros momenmtos y, hasta que no tengamos tal teoría no podemos esperar comprender lo que realmente ocurrió en ese Universo niño.  Los límites de nuestras conjeturas actuales cuando la edad del Universo sólo es de 10-43 de segundo, nos da la única respuesta de encontrarnos ante una puerta cerrada. Del otro lado de esa puerta está la época de Plank, un tiempo en que la atracción gravitatoria ejercida por cada partícula era comparable en intensidad a la fuerza nuclear fuerte.

Así que, llegados a este punto podemos decir que la clave teórica que podría abrir esa puerta sería una teoría unificada que incluyese la gravitación, es decir, una teoría cuántica-gravitatoria que uniese, de una vez por todas, a Planck y Einsteins que, aunque eran muy amigos, no parecen que sus teorías (la Mecánica Cuántica) y (la Relatividad General) se lleven de maravilla.

emilio silvera

¡El Núcleo Atómico! Y mucho más

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (4)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

El propio Rutherford empezó a vislumbrar la respuesta a la pregunta que arriba hacemos. Entre 1.906 y 1.908 (hace más de un siglo) realizó constantes experimentos disparando partículas alfa contra una lámina sutil de metal (como oro o platino), para analizar sus átomos. La mayor parte de los proyectiles atravesaron la barrera sin desviarse (como balas a través de las hojas de un árbol), pero no todos.

En la placa fotográfica que le sirvió de blanco tras el metal, Rutherford descubrió varios impactos dispersos e insospechados alrededor del punto central. Comprobó que algunas partículas habían rebotado. Era como si en vez de atravesar las hojas, algunos proyectiles hubiesen chocado contra algo más sólido. Rutherford supuso que aquella “balas” habían chocado contra una especie de núcleo denso, que ocupaba sólo una parte mínima del volumen atómico y ese núcleo de intensa densidad desviaban los proyectiles que acertaban a chocar contra él. Ello ocurría en muy raras ocasiones, lo cual demostraba que los núcleos atómicos debían ser realmente ínfimos, porque un proyectil había de encontrar por fuerza muchos millones de átomos al atravesar la lámina metálica

Era lógico suponer, pues, que los protones constituían ese núcleo duro. Rutherford representó los protones atómicos como elementos apiñados alrededor de un minúsculo “núcleo atómico” que servía de centro (después de todo eso, hemos podido saber que el diámetro de ese núcleo equivale a algo más de una cienmilésima del volumen total del átomo).

En 1.908 se concedió a Rutherford el premio Nobel de Química por su extraordinaria labor de investigación sobre la naturaleza de la materia. Él fue el responsable de importantes descubrimientos que permitieron conocer la estructura de los átomos en esa primera avanzadilla.

File:Hydrogen.svg

    Átomo de hidrógeno, núcleo y electrón.

Desde entonces se pueden describir con términos más concretos los átomos específicos y sus diversos comportamientos. Por ejemplo, el átomo de hidrógeno posee un solo electrón. Si se elimina, el protón restante se asocia inmediatamente a alguna molécula vecina; y cuando el núcleo desnudo de hidrógeno no encuentra por este medio un electrón que participe, actúa como un protón (es decir, una partícula subatómica), lo cual le permite penetrar en la materia y reaccionar con otros núcleos si conserva la suficiente energía.

El helio, que posee dos electrones, no cede uno con tanta facilidad. Sus dos electrones forman un caparazón hermético, por lo cual el átomo es inerte. No obstante, si se despoja al helio de ambos electrones, se convierte en una partícula alfa, es decir, una partícula subatómica portadora de dos unidades de carga positiva.

Hay un tercer elemento, el litio, cuyo átomo tiene tres electrones. Si se despoja de uno o dos, se transforma en ión, y si pierde los tres, queda reducida a un núcleo desnudo, con una carga positiva de tres unidades.

Las unidades de carga positiva en el núcleo atómico deben ser numéricamente idénticas a los electrones que contiene por norma, pues el átomo suele ser un cuerpo neutro, y esta igualdad de lo positivo con lo negativo es el equilibrio. De hecho, los números atómicos de sus elementos se basan en sus unidades de carga positiva, no en las de carga negativa, porque resulta fácil hacer variar el número de electrones atómicos dentro de la formación iónica, pero en cambio se encuentran grandes dificultades si se desea alterar el número de sus protones.

Apenas esbozado este esquema de la construcción atómica, surgieron nuevos enigmas. El número de unidades con carga positiva en un núcleo no equilibró, en ningún caso, el peso nuclear ni la masa, exceptuando el caso del átomo de hidrógeno. Para citar un ejemplo, se averiguó que el núcleo de helio tenía una carga positiva dos veces mayor que la del núcleo de hidrógeno; pero como ya se sabía, su masa era cuatro veces mayor que la de este último. Y la situación empeoró progresivamente a medida que se descendía por la tabla de elementos, e incluso cuando se alcanzó el uranio, se encontró un núcleo con una masa igual a 238 protones, pero una carga que equivalía sólo a 92.

¿Cómo era posible que un núcleo que contenía cuatro protones (según se suponía el núcleo de helio) tuviera sólo dos unidades de carga positiva? Según la más simple y primera conjetura emitida, la presencia en el núcleo de partículas cargadas negativamente y con peso despreciable neutralizaba dos unidades de carga. Como es natural, se pensó también en el electrón. Se podría componer el rompecabezas si se suponía que en núcleo de helio estaba integrado por cuatro protones y dos electrones neutralizadores, lo cual deja libre una carga positiva neta de dos, y así sucesivamente, hasta llegar al uranio, cuyo núcleo tendría, pues, 238 protones y 146 electrones, con 92 unidades libres de carga positiva. El hecho de que los núcleos radiactivos emitieran electrones (según se había comprobado ya, por ejemplo, en el caso de las partículas beta), reforzó esta idea general. Dicha teoría prevaleció durante más de una década, hasta que por caminos indirectos, llegó una respuesta mejor como resultado de otras investigaciones.

Pero entre tanto se habían presentado algunas objeciones rigurosas contra dicha hipótesis. Por lo pronto, si el núcleo estaba constituido esencialmente de protones, mientras que los ligeros electrones no aportaban prácticamente ninguna contribución a la masa, ¿cómo se explicaba que las masas relativas de varios núcleos no estuvieran representadas por número enteros? Según los pesos atómicos conocidos, el núcleo del átomo cloro, por ejemplo, tenía una masa 35’5 veces mayor que la del núcleo de hidrógeno. ¿Acaso significaba esto que contenía 35’5 protones? Ningún científico (ni entonces ni ahora) podía aceptar la existencia de medio protón.

Este singular interrogante encontró una respuesta incluso antes de solventar el problema principal, y ello dio lugar a una interesante historia.

Los tres isótopos naturales del carbono: carbono-12 (6 protones y 6 neutrones), carbono-13 (6 protones y 7 neutrones) y carbono-14 (6 protones y 8 neutrones). En los tres casos es carbono, tiene el aspecto de carbono y se comporta químicamente como carbono, por tener seis protones (y forma parte de nuestro organismo, por ejemplo). Sin embargo, sus propiedades físicas varían. Por ejemplo, mientras que el carbono-12 y el carbono-13 son estables, el carbono-14 es inestable y radioactivo: emite radiación beta, uno de sus neutrones “extras” se transforma así en un protón y el núcleo se convierte en nitrógeno-14 (que tiene 7 protones y 7 neutrones), con el aspecto y las propiedades del nitrógeno (por tener 7 protones). Dado que la mitad de la masa del carbono-14 pasa a ser nitrógeno-14 cada 5.730 años aproximadamente (más o menos lo que llevamos de civilización humana), la presencia de este isótopo natural resulta especialmente útil para la datación precisa de objetos históricos.

Isótopos; construcción de bloques uniformes

Allá por 1.816, el físico inglés William Prout había insinuado ya que el átomo de hidrógeno debía entrar en la constitución de todos los átomos. Con el tiempo se fueron desvelando los pesos atómicos, y la teoría de Prout quedó arrinconada, pues se comprobó que muchos elementos tenían pesos fraccionarios (para lo cual se tomó el oxígeno, tipificado al 16). El cloro, según dije antes, tiene un peso atómico aproximado de 35’5, o para ser exactos, 35’457. otros ejemplos son el antimonio, con un peso atómico de 121’75, el galio con 137’34, el boro con 10’811 y el cadmio con 112’40.

El Uranio 235 que es el único que de manera natural es apto para la fisión nuclear, es escaso, sólo el 7 por 1.000 es uranio 235, el resto, es uranio 238 que, no es combustible nuclear y, como la madera mojada, no arde. Sin embargo, si se bombardea con neutrones lentos del uranio 235, resulta que se convierte en Plutonio 239 que sí, es combustible nuclear válido. ¡Qué no idearemos para conseguir los objetivos!

          El Uranio es muy radiactivo y si está enriquecido… ¡Ya sabemos las consecuencias!

Hacia principios de siglo se hizo una serie de observaciones desconcertantes, que condujeron al esclarecimiento. El inglés William Crookes (el del tubo Crookes) logró disociar del uranio una sustancia cuya ínfima cantidad resultó ser mucho más radiactiva que el propio uranio. Apoyándose en su experimento, afirmó que el uranio no tenía radiactividad, y que ésta procedía exclusivamente de dicha impureza, que él denominó uranio X. Por otra parte, Henri Becquerel descubrió que el uranio purificado y ligeramente radiactivo adquiría mayor radiactividad con el tiempo, por causas desconocidas. Si se deja reposar durante algún tiempo, se podía extraer de él repetidas veces uranio activo X. Para decirlo de otra manera, por su propia radiactividad, el uranio se convertía en el uranio X, más radiactivo aún.

Por entonces, Rutherford, a su vez, separó del torio un torio X muy radiactivo, y comprobó también que el torio seguía produciendo más torio X. Hacia aquellas fechas se sabía ya que el más famoso de los elementos radiactivos, el radio, emitía un gas radiactivo, denominado radón. Por tanto, Rutherford y su ayudante, el químico Frederick Soddy, dedujeron que durante la emisión de sus partículas los átomos radiactivos se transformaron en otras variedades de átomos radiactivos.

El Radón, uno de los llamados gases nobles, es incoloro, inodoro e insípido, además de –para nuestro mal- radioactivo. Suele presentarse según el tipo de suelos de determinadas zonas y con la descomposición de uranio, concentrándose en la superficie y siendo “arrastrado” en y por el aire que respiramos, y es en grandes cantidades es un gas  perjudicial para la salud… y que anticipa terremotos.

Varios químicos que investigaron tales transformaciones lograron obtener un surtido muy variado de nuevas sustancias, a las que dieron nombres tales como radio A, radio B, mesotorio I, mesotorio II y actinio C. Luego los agruparon todos en tres series, de acuerdo con sus historiales atómicos. Una serie se originó del uranio disociado; otra del torio, y la tercera del actinio (si bien más tarde se encontró un predecesor del actinio, llamado protactinio).

En total se identificaron unos cuarenta miembros de esas series, y cada uno se distinguió por su peculiar esquema de radiación. Pero los productos finales de las tres series fueron idénticos: en último término, todas las cadenas de sustancias conducían al mismo elemento, el plomo.

Ahora bien, esas cuarenta sustancias no podían ser, sin excepción, elementos disociados. Entre el uranio (92) y el plomo (82) había sólo diez lugares en la tabla periódica, y todos ellos, salvo dos, pertenecían a elementos conocidos.

En realidad, los químicos descubrieron que aunque las sustancias diferían entre sí por su radiactividad, algunas tenían propiedades químicas idénticas. Por ejemplo, ya en 1.907 los químicos americanos Herbert Newby McCoy y W. H. Ross descubrieron que el radiotorio (uno entre los varios productos de la desintegración del torio) mostraba el mismo comportamiento químico que el torio, y el radio D, el mismo que el plomo, tanto que a veces era llamado radioplomo. De todo lo cual se infirió que tales sustancias eran en realidad variedades de mismo elemento: el radiotorio, una forma de torio; el radioplomo, un miembro de una familia de plomos; y así sucesivamente.

En 1.913, Soddy esclareció esta idea y le dio más amplitud. Demostró que cuando un átomo emitía una partícula alfa, se transformaba en un elemento que ocupaba dos lugares más abajo en la lista de elementos, y que cuando emitía una partícula beta, ocupaba, después de su transformación, el lugar inmediatamente superior. Con arreglo a tal norma, el radiotorio descendía en la tabla hasta el lugar del torio, y lo mismo ocurría con las sustancias denominadas uranio X y uranio Y, es decir, que los tres serían variedades del elemento 90. Así mismo, el radio D, el radio B, el torio B y el actinio B compartirían el lugar del plomo como variedades del elemento 82.

Soddy dio el nombre de isótopos (del griego iso y topos, “el mismo lugar”) a todos los miembros de una familia de sustancias que ocupaban el mismo lugar en la tabla periódica. En 1.921 se le concedió el premio Nobel de Química.

El modelo protón-electrón del núcleo concordó perfectamente con la teoría de Soddy sobre los isótopos. Al retirar una partícula alfa de un núcleo, se reducía en dos unidades la carga positiva de dicho núcleo, exactamente lo que necesitaba para bajar dos lugares en la tabla periódica. Por otra parte, cuando el núcleo expulsaba un electrón (partícula beta), quedaba sin neutralizar un protón adicional, y ello incrementaba en una unidad la carga positiva del núcleo, lo cual era como agregar una unidad al número atómico, y por tanto, el elemento pasaba a ocupar la posición inmediatamente superior en la tabla periódica de los elementos. ¡Maravilloso!

¿Cómo se explica que cuando el torio se descompone en radiotorio después de sufrir no una, sino tres desintegraciones, el producto siga siendo torio? Pues bien, en este proceso el átomo de torio pierde una partícula alfa, luego una partícula beta, y más tarde una segunda partícula beta. Si aceptamos la teoría sobre el bloque constitutivo de los protones, ello significa que el átomo ha perdido cuatro electrones (dos de ellos contenidos presuntamente en la partícula alfa) y cuatro protones. (La situación actual difiere bastante de este cuadro, aunque en cierto modo, esto no afecta al resultado).

El núcleo de torio constaba inicialmente (según se suponía) de 232 protones y 142 electrones. Al haber perdido cuatro protones y otros cuatro electrones, quedaba reducido a 228 protones y 138 electrones. No obstante, conservaba todavía el número atómico 90, es decir, el mismo de antes.

Así pues, el radiotorio, a semejanza del torio, posee 90 electrones planetarios, que giran alrededor del núcleo. Puesto que las propiedades químicas de un átomo están sujetas al número de sus electrones planetarios, el torio y el radiotorio tienen el mismo comportamiento químico, sea cual fuere su diferencia en peso atómico (232 y 228 respectivamente).

Los isótopos de un elemento se identifican por su peso atómico, o número másico. Así, el torio corriente se denomina torio 232, y el radiotorio, torio 228. Los isótopos radiactivos del plomo se distinguen también por estas denominaciones: plomo 210 (radio D), plomo 214 (radio B), plomo 212 (torio B) y plomo 211 (actinio B).

Se descubrió que la noción de isótopo podía aplicarse indistintamente tanto a los elementos estables como a los radiactivos. Por ejemplo, se comprobó que las tres series radiactivas anteriormente mencionadas terminaban en tres formas distintas de plomo. La serie del uranio acababa en plomo 206, la del torio en plomo 208 y la del actinio en plomo 207. cada uno de estos era un isótopo estable y corriente del plomo, pero los tres plomos diferían por su peso atómico.

Mediante un dispositivo inventado por cierto ayudante de J. J. Thomson, llamado Francis William Aston, se demostró la existencia de los isótopos estables. En 1.919, Thomson, empleando la versión primitiva de aquel artilugio, demostró que el neón estaba constituido por dos variedades de átomos: una cuyo número de masa era 20, y otra con 22. El neón 20 era el isótopo común; el neón 22 lo acompañaba en la proporción de un átomo cada diez. Más tarde se descubrió un tercer isótopo, el neón 21, cuyo porcentaje en el neón atmosférico era de un átomo por cada 400.

Entonces fue posible, al fin, razonar el peso atómico fraccionario de los elementos. El peso atómico del neón (20, 183) representaba el peso conjunto de los tres isótopos, de pesos diferentes, que integraban el elemento en su estado natural. Cada átomo individual tenía un número másico entero, pero el promedio de sus masas (el peso atómico) era un número fraccionario.

Aston procedió a mostrar que varios elementos estables comunes eran, en realidad, mezclas de isótopos. Descubrió que el cloro, con un peso atómico fraccionario de 35’453, estaba constituido por el cloro 35 y el cloro 37, en la proporción de cuatro a uno. En 1.922 se le otorgó el premio Nobel de Química.

Sabiendo todo lo anteriormente explicado, hemos llegado a comprender cómo parte de la Astronomía que estudia las características físicas y químicas de los cuerpos celestes, la astrofísica es la parte más importante de la astronomía en la actualidad debido a que, al avanzar la física moderna: Efecto Doppler-Fizeau, el efecto Zeeman, las teorías cuánticas y las reacciones termonucleares aplicadas al estudio de los cuerpos celestes han permitido descubrir que el campo magnético solar, el estudio de las radiaciones estelares y sus procesos de fusión nuclear, y determinar la velocidad radial de las estrellas, etc . radiación electromagnética de los cuerpos celestes permite realizar análisis de los espectros que nos dicen de qué están hechas las estrellas y los demás cuerpos del espacio interestelar y, de esa manera, hemos ido conociendo la materia y sus secretos que, cada vez, van siendo menos.

emilio silvera