Jun
21
¿Habrá vida en otros mundos? ¡Qué pregunta! Sabemos que sí.
por Emilio Silvera ~ Clasificado en Vida en otros mundos ~ Comments (24)
Bueno, sabemos que sí hay vida en otros mundos, al menos eso nos dice el sentido común al aplicar la lógica y la estadística. Nos queda confirmarlo, cosa que no será fácil debido a las enormes distancias con las que tenemos que bregar, y, mientras las tecnologías del futuro no estén disponibles, nos limitaremos a realizar conjeturas e hipótesis que, más o menos acertadas traten de acercarse a la realidad.
El primero que encontremos podría ser así
Sabemos que todas las Especies que viven en la Tierra están basadas en el Carbono. Si empleamos la lógica, y teniendo en cuenta que el Universo es igual en todas partes en relación a las fuerzas fundamentales y las constantes universales que lo rigen, salvo alguna excepción (que es posible), todos los mundos habitables seguirán el mismo camino evolutivo que la Toerra, y, salvo algunas peculuiaridades, sus habiotantes tendrían que ser parecidos a los que habitan la Tierra.
Jun
21
¡Los grandes Números del Universo!
por Emilio Silvera ~ Clasificado en Sin categoría ~ Comments (2)
Cuando los físicos empezaron a apreciar el papel de las constantes en el dominio cuántico y explotar la nueva teoría de la gravedad de Einstein para describir el universo en su conjunto, las circunstancias eran las adecuadas para que alguien tratara de casarlas.
Así entró en escena Arthur Stanley Eddington: un extraordinario científico que había sido el primero en descubrir cómo se alimentaban las estrellas a partir de reacciones nucleares. También hizo importantes contribuciones a nuestra comprensión de las galaxias, escribió la primera exposición sistemática de la teoría de la relatividad general de Einstein y fue el responsable de la expedición que durante un eclipse de Sol, pudo confirmar con certeza la predicción de la relatividad general que debería desviar la luz estelar que venía hacia la Tierra en aproximadamente 1’75 segundos de arco cuando pasaba cerca de la superficie solar, cuyo espacio estaría curvado debido a la gravedad generada por la masa del Sol. En aquella expedición, el equipo de Eddington hizo una exitosa medición del fenómeno desde la isla Príncipe, que confirmó que Einstein tenía razón y que su teoría predecía de manera exacta la medida de curvatura del espacio en función de la masa del objeto estelar que genera la gravitación distorsionando el espaciotiempo a su alrededor.
Eddintong con Einstein
Entre los números que Eddington consideraba de importancia primordial estaba al que ahora conocemos como número de Eddington, que es igual al número de protones en el universo visible. Eddington calculó (a mano) este número con enorme precisión en un crucero trasatlántico, sentado en cubierta, con libreta y lápiz en la mano, tras calcular concienzudamente durante un tiempo, finalizó escibiendo:
“Creo que el Universo hay:
15.747.724.136.275.002.577.605.653.961.181.555.468.044.717.914.527.116.709.366.231.425.076.185.631.031.296
de protones y el mismo número de electrones”.
Este número enorme, normalmente escrito NEdd, es aproximadamente igual a 1080. Lo que atrajo la atención de Eddington hacia él era el hecho de que debe ser un número entero, y por eso en principio puede ser calculado exactamente.
Durante la década de 1.920, cuando Eddington empezó su búsqueda para explicar las constantes de la naturaleza, no se conocían bien las fuerzas débil y fuerte. Las únicas constantes dimensionales de la física que sí se conocían e interpretaban con confianza eran las que definían la gravedad y las fuerzas electromagnéticas. Eddington las dispuso en tres puros números adimensionales. Utilizando los valores experimentales de la época, tomó la razón entre las masas del protón y del electrón:
mpr/me ≈ 1840
La inversa de la constante de estructura fina
2πhc/e2 ≈ 137
Y la razón entre la fuerza gravitatoria y la fuerza electromagnética entre un electrón y un protón,
e2/Gmpr me ≈ 1040
A estas añadió su número cosmológico, NEdd ≈ 1080. A estos cuatro números los llamó “las constantes últimas”, y la explicación de sus valores era el mayor desafío de la ciencia teórica:
“¿Son estas cuatro constantes irreducibles, o una unificación posterior de la física que pueda demostrar que una o todas ellas podrían ser prescindibles? ¿Podrían haber sido diferentes de lo que realmente son?… Surge la pregunta de si las razones anteriores pueden ser asignadas arbitrariamente o si son inevitables. En el primer caso, sólo podemos aprender sus valores por medida; en el segundo caso es posible encontrarlos por la teoría… Creo que ahora domina ampliamente la opinión de que las (cuatro anteriores) constantes… no son arbitrarias, sino que finalmente se les encontrará una explicación teórica; aunque también he oído expresar lo contrario.”
Medida una y mil veces, α parece que no cambia a pesar de todo
Siguiendo con su especulación Eddington pensaba que el número de constantes inexplicadas era un indicio útil del hueco que había que cerrar antes de que se descubriese una teoría verdaderamente unificada de todas las fuerzas de la naturaleza. En cuanto a si esta teoría final contenía una constante o ninguna, tendríamos que esperar y ver:
“Nuestro conocimiento actual de 4 constantes en lugar de 1 indica meramente la cantidad de unificación de teoría que aún queda por conseguir. Quizá resulte que la constante que permanezca no sea arbitraria, pero de eso no tengo conocimiento.”
Eddington, como Max Planck, Einstein y Galileo, y Newton antes que ellos, era simplemente un adelantado a su tiempo; comprendía y veía cosas que sus coetáneos no podían percibir.
Hay una anécdota que se cuenta sobre esto y que ilustra la dificultad de muchos para reconciliar el trabajo de Eddington sobre las constantes fundamentales con sus monumentales contribuciones a la relatividad general y la astrofísica. La historia la contaba Sam Goudsmit referente a él mismo y al físico holandés Kramers:
Samuel Abraham Goudsmit, George Uhlenbeck y Hendrik Kramers
“El gran Arthur Eddington dio una conferencia sobre su derivación de la constante de estructura fina a partir de una teoría fundamental. Goudsmit y Kramers estaban entre la audiencia. Goudsmit entendió poco pero reconoció que era un absurdo inverosímil. Kramers entendió mucho y reconoció que era un completo absurdo. Tras la discusión, Goudsmit se acercó a su viejo amigo y mentor Kramers y le preguntó: ¿Todos los físicos se vuelven locos cuando se hacen mayores? Tengo miedo. Kramers respondió, “No Sam, no tienes que asustarte. Un genio como Eddington quizá puede volverse loco pero un tipo como tú sólo se hace cada vez más tonto”.
El filósofo-poeta , prosista y pensador
Aquí hablamos del Universo, de las Teorías que tratan de explicarlo, de la Mente humana que no hemos llegado a comprender, y, hemos llegado a la conclusión que, como dijo aquel pensador: “No sólo de pan vive el hombre”. Necesitamos sentir y crear para alcanzar la plenitud, para dar algún sentido a nuestras vidas.
Aquí también están algunas de esas constantes
Los campos magnéticos están presentes por todo el Universo. Hasta un diminuto (no por ello menos importante) electrón crea, con su oscilación, su propio campo magnético, y, aunque pequeño, se le supone un tamaño no nulo con un radio ro, llamado el radio clásico del electrón, dado por r0 = e2/(mc2) = 2,82 x 10-13 cm, donde e y m son la carga y la masa, respectivamente del electrón y c es la velocidad de la luz.
Nuestro universo es como lo podemos observar gracias a esos números
El mayor misterio que rodea a los valores de las constantes de la naturaleza es sin duda la ubicuidad de algunos números enormes que aparecen en una variedad de consideraciones aparentemente inconexas. El número de Eddington es un ejemplo notable. El número total de protones que hay dentro del alcance del universo observable esta próximo al número
1080
Si preguntamos ahora por la razón entre las intensidades de las fuerzas electromagnéticas y gravitatoria entre dos protones, la respuesta no depende de su separación, sino que es aproximadamente igual a
1040
En un misterio. Es bastante habitual que los números puros que incluyen las constantes de la naturaleza difieran de 1 en un factor del orden de 102, ¡pero 1040, y su cuadrado 1080, es rarísimo! Y esto no es todo. Si seguimos a Max Planck y calculamos en valor estimado para la “acción” del universo observable en unidades fundamentales de Planck para la acción, obtenemos.
10120
Supernovas, Nebulosas, Estrellas… ¡Fuerzas y Constantes fundamentales!
Algunos llegan a afirmar que, el Universo es plano e indican que la “energía oscura” es probablemente la constante cosmológica de Einstein…¡Vivir para ver! El maestro llegó a decir que incluir la constante cosmológica en su ecuación había sido el mayor error de su vida y, sin embargo ahora… resulta que sí estaba en lo cierto. ¡Ya veremos!
Ya hemos visto que Eddington se inclinaba a relacionar el número de partículas del universo observable con alguna cantidad que incluyera la constante cosmológica. Esta cantidad ha tenido una historia muy tranquila desde esa época, re-emergiendo ocasionalmente cuando los cosmólogos teóricos necesitan encontrar una manera de acomodar nuevas observaciones incómodas.
Recientemente se ha repetido este escenario. Nuevas observaciones de alcance y precisión sin precedentes, posibilitadas por el telescopio espacial Hubble trabajando en cooperación con telescopios sensibles en tierra, han detectado supernovas en galaxias muy lejanas. Su pauta de brillo y atenuación característica permite deducir su distancia a partir de su brillo aparente. Y, sorprendentemente, resulta que están alejándose de nosotros mucho más rápido de lo que cualquiera esperaba. La expansión del universo ha pasado de ser un estado de deceleración a uno de aceleración. Estas observaciones implican la existencia de una constante cosmológica positiva (Λ+). Si expresamos su valor numérico como número puro adimensional medido en unidades del cuadrado de la longitud de Planck, entonces obtenemos un número muy próximo a
10-120
Nunca se ha encontrado un número más pequeño en una investigación física real. Podemos decir que es el más grande de los pequeños números.
Hablar del Universo en todo su conjunto…, no es nada fácil. Podemos hablar de parcelas, de elementos por separado y también de sucesos, objetos y de la mecánica celeste de manera individualizada para tratar de comprenderlos mejor y, más tarde, juntarlos para tener una perspectiva de su conjunto que… No siempre podemos llegar a comprender. ¡Es tanto lo que esas constantes nos quieren decir! que comprenderlas y entenderlo todo…, nos llevará algún tiempo.
¿Qué vamos a hacer con todos estos grandes números? ¿Hay algo cósmicamente significativo en 1040 y sus cuadrados y cubos?
Hermann Weyl
La aparición de algunos de estos grandes números ha sido una fuente de sorpresas desde que fue advertida por vez primera por Hermann Weyl en 1.919. Eddington había tratado de construir una teoría que hiciera comprensible su aparición, pero no logró convencer a un número significativo de cosmólogos de que estaba en la vía correcta. Pero sí convenció a la gente de que había algo que necesitaba explicación. De forma inesperada, fue precisamente uno de sus famosos vecinos de Cambridge quien escribió a la revista Nature la carta que consiguió avivar el interés por el problema con una idea que sigue siendo una posibilidad viable incluso hoy.
Paul Dirac
Paul Dirac ocupó la cátedra lucaciana de matemáticas en Cambridge durante parte del tiempo en que Eddington estuvo viviendo en los observatorios. Las historias que se cuentan de Paul Dirac dejan muy claro que era un tipo con un carácter peculiar, y ejercía de matemático las 24 h. del día. Se pudo saber que su inesperada incursión en los grandes números fue escrita durante su viaje de novios (Luna de miel), en febrero de 1937.
Aunque no muy convencido de las explicaciones de Eddington, escribió que era muy poco probable que números adimensionales muy grandes, que toman valores como 1040 y 1080, sean accidentes independientes y no relacionados: debe existir alguna fórmula matemática no descubierta que liga las cantidades implicadas. Deben ser consecuencias más que coincidencias.
Esta es la hipótesis de los grandes números según Dirac:
“Dos cualesquiera de los números adimensionales muy grandes que ocurren en la naturaleza están conectados por una sencilla relación matemática, en la que los coeficientes son del orden de la unidad”.
Alafa la Constante de estructura fina, el número puro y adimensional 137
El Nobel León Lederman (Director del CERN muchos años), decía que todos los físicos del mundo deberían tener en el lugar más destacado de sus casas, un marco con el número 137. El motivo de tan conveniente obligación, sería recordarles, cada vez que lo vieran, lo poco que sabemos.
Nos puede parecer mentira pero… Los verdaderos grandes números están en ¡La Mente!
Los grandes números de que se valía Dirac para formular esta atrevida hipótesis salían del trabajo de Eddington y eran tres:
N1 = (tamaño del universo observable) / (radio del electrón)
= ct (e2/mec2) ≈ 1040
N2 = Razón fuerza electromagnética-a-gravitatoria entre protón y electrón
= e2/Gme mp ≈ 1040
N = número de protones en el universo observable
= c3t/Gmp ≈ 1080
Aquí t es la edad actual del universo, me es la masa de un electrón, mp es la masa de un protón, G la constante de gravitación, c la velocidad de la luz y e la carga del electrón.
El Universo es todo lo que existe: Materia, Tiempo y Espacio inmersos en un océano de fuerzas y constantes
Según la hipótesis de Dirac, los números N1, N2y raizN eran realmente iguales salvo pequeños factores numéricos del orden de la unidad. Con esto quería decir que debe haber leyes de la naturaleza que exijan fórmulas como N1 = N2, o incluso N1 = 2N2. Un número como 2 ó 3, no terriblemente diferente de 1 está permitido porque es mucho más pequeño que los grandes números implicados en la fórmula; esto es lo que él quería decir por “coeficientes…. del orden de la unidad”.
Esta hipótesis de igualdad entre grandes números no era en sí misma original de Dirac. Eddington y otros habían escrito antes relaciones muy semejantes, pero Eddington no había distinguido entre el número de partículas del universo observable, que se define como una esfera centrada en nosotros con un radio igual a la velocidad de la luz multiplicada por la edad actual del universo, o lo que es lo mismo:
La trayectoria del llamado Universo Observable (y del cual somos su centro al recorrer su geodésica en la geometría espacio-temporal) tiene la forma perimetral de una gota (forma de media lemniscata; cosa curiosa, lemniscata: figura curva ∞ usada como el símbolo de infinito ¿?) que al girarla 45 ° y desarrollar un cuerpo de revolución, se obtienen dos campos toroidales cual si fuesen imágenes antagónicas (una reflejada) de una fuente (surtidor – sumidero cada uno), correspondiendo uno al campo material y el otro al antimaterial.
Trayectoria del Universo observable.
Lo están ocupando en su totalidad, se retroalimentan a sí mismos en la Hipersingularidad (punto de contacto de los dos campos, principio y fin de ambos flujos donde reacciona la materia y la antimateria con la finalidad de mantener separados ambos universos con el adicional resultado de impulsar nuevamente a los fluidos universales de ambos campos a recorrer la finita trayectoria cerrada (geodésica) siendo el motor propulsor universal de dos volúmenes dinámicos, finitos pero continuos).
Universo observable: R = 300.000 × 13.500.000.000
La propuesta de Dirac provocó un revuelo entre un grupo de científicos vociferantes que inundaron las páginas de las revistas especializadas de cartas y artículos a favor y en contra. Dirac, mientras tanto, mantenía su calma y sus tranquilas costumbres, pero escribió sobre su creencia en los grandes números cuya importancia encerraba la comprensión del universo con palabras que podrían haber sido de Eddington, pues reflejan muy estrechamente la filosofía de la fracasada “teoría fundamental”.
“¿No cabría la posibilidad de que todos los grandes sucesos presentes correspondan a propiedades de este Gran Número [1040] y, generalizando aún más, que la historia entera del universo corresponda a propiedades de la serie entera de los números naturales…? Hay así una posibilidad de que el viejo sueño de los filósofos de conectar la naturaleza con las propiedades de los números enteros se realice algún día”.
Cuando hablamos del Universo, de inmediato, surgen las polémicas y los desacuerdos y las nuevas ideas y teorías modernas que quieren ir más allá de lo que “se sabe”, nunca han gustado en los centros de poder de la Ciencia que ven peligrar sus estatus con ideas para ellos “peregrinas” y que, en realidad, vienen a señalar nuevos posibles caminos para salir del atolladero o callejón sin salida en el que actualmente estamos inmersos: Mecánica cuántica y Relatividad que llevan cien años marcando la pauta en los “mundos” de lo muy pequeño y de lo muy grande sin que nada, las haya podido desplazar.
Esto nos deja con un ridículo 4% para la materia Bariónica que emite luz
Mientras tanto, continuamos hablando de materia y energía oscura que delata la “oscuridad” presente en nuestras mentes, creamos modelos incompletos en el que no sabemos incluir a todas las fuerzas y en las que (para cuadrar las cuentas), hemos metido con calzador y un poco a la fuerza, parámetros que no hemos sabido explicar (como el Bosón de Higgs en el Modelo Estándar que…, a pesar de todo ¡No está muy claro que esté ahí!). Sin embargo y a pesar de todo, el conocimiento avanza, el saber del mundo aumenta poco a poco y, aunque despacio, el conocimiento no deja de avanzar y, esperemos que las ideas surjan y la imaginación en la misma medida para que, algún día en el futuro, podamos decir que sabemos, aunque sea de manera aproximada, lo que el Universo es.
emilio silvera
Jun
21
¡Las cosas del cerebro! Que siempre serán noticia
por Emilio Silvera ~ Clasificado en La realidad humana ¿es realidad? ~ Comments (0)
IBM simula 500 mil millones de neuronas y 100 billones de sinapsis
En una simulación neuronal sin precedentes, IBM ha logrado simular 500 mil millones de neuronas y 100 billones de sinapsis. Para ello ha utilizado Sequoia, el segundo superordenador más grande del mundo con millón y medio de núcleos. Esto es una proeza computacional, pero tiene poco que ver con la neurociencia. Veamos por qué.
El departamento de Cognitive Computing de IBM en Almaden dirigido por Dharmendra S. Modha lleva unos años realizando asombrosas simulaciones en el contexto del proyecto DARPA SyNAPSE. Como parte de este proyecto, anunció la simulación a la escala del córtex de un ratón, luego de una rata y más tarde de un gato.
El objetivo de este programa es crear un chip neurosináptico que supone una ruptura con la arquitectura tradicional de los ordenadores. Esta arquitectura es la llamada Von Neumann que usan la totalidad de los ordenadores en la actualidad, incluidos móviles y tarjetas. En la arquitectura Von Neumann la memoria está separada del procesador, el hardware del software y los programas están separados de los datos. Ha sido muy exitosa mientras se cumplía la miniaturización de componentes expresada en la ley de Moore: cada dos años se duplica el número de transistores en un espacio dado. El problema es que estamos llegando a los límites del átomo y que la ley dejará de cumplirse.
El chip neurosináptico es una ruptura total con la arquitectura Von Neumann. Se basa en el diseño de las neuronas en las que no hay distinción entre hw y sw, programas y datos, memoria y procesador. El chip consiste en una matriz de neuronas y entre sus cruces se realizan las sinapsis. De este modo, cada sinapsis del chip es hw y sw, proceso y memoria, programa y datos. Dado que todo está distribuido, no es necesaria un miniaturización tan extrema y sobre todo, un reloj tan rápido. Frente a los actuales gigahercios de frecuencia, las neuronas se disparan a un hercio, y en el caso del chip a 8 hercios. Además, los procesadores son clock driven, es decir, actúan bajo la batuta del reloj mientras que las neuronas son event driven, actúan solo si hay actividad que realizar.
Uno de los objetivos es reducir el consumo eléctrico. Un cerebro consume lo que una bombilla pequeña, 20 vatios. Un superordenador consume cientos de megavatios. El nuevo chip tiene un consumo muy reducido. Estos chips están construidos con tecnología de silicio clásica CMOS.
La arquitectura de muchos chips neurosinápticos unidos se ha llamado TrueNorth. Ya existe en desarrollo un chip de 256 neuronas, 1024 axones, y 256×1024 sinapsis.
El chip sin embargo no está en producción masiva. Para seguir trabajando en paralelo al desarrollo, se ha realizado la prueba actual. Para ello se ha usado un simulador llamado Compass. Compass traduce el comportamiento de un chip neurosináptico (no Von Neumann) a un ordenador clásico (Von Neumann). Usando Compass se ha simulado (pdf) el comportamiento de 2.000.000.000 chips. Esto supone 500 mil millones de neuronas y 100 billones de sinapsis, cifras por completo astronómicas. El resultado de la simulación se ha ejecutado 1.542 veces más lento que en tiempo real.
Para realizar la simulación se ha usado el segundo superordenador más grande del mundo, Sequoia un Blue Gene/Q de 96 armarios con 1 millón y medio de núcleos y 1,5 petabytes de memoria. Uno de los objetivos de la simulación es ver el escalado. Un problema habitual es que que cuando añadimos más cores, el sistema no funciona proporcionalmente más rápido. En el extremo, añadir más cores no aumenta el rendimiento: el sistema escala mal. Imagina un camarero atendiendo detrás de la barra. Si hay un segundo camarero, irán más rápido, pero no el doble. Si sigues añadiendo camareros, llegará un momento en que no aumente la eficiencia, incluso se verá reducida. El sistema escala mal. Pues bien, en la simulación realizada el escalado ha sido casi perfecto lo que es muy satisfactorio computacionalmente.
¿Qué tiene esto que ver con la neurociencia y el cerebro? Bien poco. La simulación no imita ningún comportamiento animal ni cognitivo ni humano. Para simular el comportamiento del cerebro, necesitamos saber cómo funciona y eso está lejos de lograrse. Para cuando llegue ese conocimiento debemos tener preparados ordenadores que sean capaces de simularlo y en este contexto se enmarca la presente investigación. Aunque no solo; la idea de diseñar estos nuevos chips es ponerlos en producción en aplicaciones comerciales tradicionales dando una gran potencia con un bajo consumo. La simulación del cerebro deberá esperar aún alguna década.
Fuente: Altioyo
Jun
21
Sagitario A
por Emilio Silvera ~ Clasificado en Agujeros negros ~ Comments (0)
MADRID, (EUROPA PRESS)
Los agujeros negros “no devoran todo lo que es lanzado hacia ellos”, según un estudio publicado en la revista ‘Science’ que se basa en la observación de Sagitario A, un agujero negro con 4 millones más de masa que el sol, situado a 26.000 años luz de la Tierra en la Vía Láctea.
“Contrariamente a lo que piensan algunas personas, los agujeros negros no devoran todo lo que es lanzado hacia ellos. Sagitario A* está aparentemente encontrando mucha comida difícil de engullir”, explica gráficamente Feng Yuan, investigador del Observatorio Astronómico de Shanghai y coautor del estudio.
Utilizando el teslescopio Chandra de rayos X de la NASA, los investigadores han descubierto que menos de un 1 por ciento del gas que rodea al agujero negro llega a alcanzar el punto de no retorno, también conocido como horizonte de sucesos, el lugar en el que es atrapada cualquier materia.
En lugar de eso, una gran cantidad de gases es expulsado antes de alcanzar el punto de no retorno. “La mayoría del gas debe ser lanzado fuera para que una pequeña parte pueda alcanzar el agujero negro”, explica Feng Yuan.
Este nuevo descubrimiento es el resultado de una ambiciosa campaña de observación con el teslescopio Chandra de rayos X que ha permitido a los investigadores recoger datos durante cinco semanas del agujero negro, el único descubierto hasta ahora los suficiente cerca de la Tierra como para poder observar en detalle lo que sucede a su alrededor.
Los investigadores captaron durante estas semanas imágenes de rayos X del gas supercaliente presente cerca del agujero negro. Según han podido observar los científicos, el agujero negro captura gas expulsado por estrellas cercanas y lo proyecta más allá de su punto de no retorno para que se enfríe y pueda ser absorbido.
El gas que tiene cerca Sagitario A* está muy caliente y difuso, por lo que es difícil para el agujero negro capturarlo y engullirlo, lo que convierte a este agujero negro de la Vía Láctea en “uno de los más fríos” vistos por el coautor del estudio Sera Markoff, de la Universidad de Amsterdam. Los agujeros negros capaces de activar cuásar y producir grandes cantidades de radiación tendrían a mano reservas de gases más fríos y densos que Sagitario A*, de acuerdo a la teoría de los investigadores.
La NASA ha señalado que el estudio tiene “importantes implicaciones en la comprensión de los agujeros negros”. Así por ejemplo, podría ayudar a enteder la sombra que se ve en el horizonte de sucesos que rodea a Sagitario A* y que contrasta con el brillo de la materia que envuelve al agujero negro.
Jun
21
¿En el Universo? ¡Cualquier cosa es posible!
por Emilio Silvera ~ Clasificado en General ~ Comments (0)
Recreación artística del nudo cósmico en forma de oruga. | NASA
La última postal cósmica que acaba de enviar el telescopio espacial Hubble es una gran nube de polvo y gas interestelar con forma de oruga. Se trata del embrión de una futura estrella que aún se encuentra en proceso de formación, bombardeada por chorros de radiación ultravioleta proveniente de estrellas ultrabrillantes que esculpen la espectacular estructura de la ‘oruga’.
Según informa la NASA en un comunicado, estos astros, conocidos como como de ‘tipo O’, se encuentran entre las 65 estrellas más calientes y brillantes que se conocen, y se encuentran a 15 años luz de la nube de polvo y gas. Las estrellas ultrabrillantes, junto con otros 500 astros menos luminosos denominados de ‘tipo B’, componen la llamada asociación ‘Cygnus OB2’, un conjunto estelar que tiene una mása 30.000 veces mayor que nuestro sol.
Hay regiones en las que se pueden ver impresionantes fuegos “artificiales”
La impresionante ‘oruga cósmica’ es, por tanto, una estrella embrionaria en una etapa muy primitiva de su formación. Los astrónomos creen que las protoestrellas de esta región se convertirán en astros jóvenes, que tendrán aproximadamente una masa diez veces mayor que el Sol. Sin embargo, si la radiación de las estrellas vecinas erosiona su estructura antes de que terminen de formarse, su masa podría acabar siendo mucho más reducida.
Las observaciones captadas por el Hubble de la estrella embrionaria muestran que todavía está recogiendo gran cantidad de material. Sólo el tiempo dirá si el astro que surja finalmente de la ‘oruga’ será un “peso pesado” o “ligero” en lo que respecta a su masa.
ELMUNDO.es | Madrid