jueves, 21 de noviembre del 2024 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




Es sorprendente, como funciona la Naturaleza

Autor por Emilio Silvera    ~    Archivo Clasificado en Descubrir y aprender    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

               En cualquier galaxia pueden existir más de cien mil millones de estrellas

El Universo (al menos el nuestro), nos ofrece algo más, mucho más que grandes espacios vacíos, oscuros y fríos. En él podemos ver muchos lugares luminosos llenos de estrellas, de mundos y… muy probablemente de vida. Sin embargo, tenemos la sospecha de que, aparte del nuestro, otros universos podrían rondar por ahí y conformar un todo de múltiples Universos de caracterísiticas diversas y no en todos, serían posible la formación de estrellas y como consecuencia de la Vida.

Cuando me sumerjo en los misterios y maravillas que encierra el Universo, no puedo dejar de sorprenderme por sus complejas y bellas formaciones, la inmensidad, la diversidad, las fuerzas que están presentes, los objetos que lo pueblan, la sorprendente presencia de formas de vida y su variedad, y, sobre todo, que esa materia animada pudiera llegar hasta la consciencia, emitir ideas y pensamientos.

                ¿Qué “escalera” habrá que subir para llegar a ese otro universo?

Como nunca nadie pudo estar en otro Universo, tenemos que imaginarlos y basados en la realidad del nuestro, hacemos conjeturas y comparaciones con otros que podrìan ser. ¿Quién puede asegurar que nuestro Universo es único? Realmente nadie puede afirmar tal cosa e incluso, estando limitados a un mundo de cuatro dimendiones espacio-temporales, no contamos con las condiciones físico-tecnológicas necesarias para poder captar (si es que lo hay), ese otro universo paralelo o simbiótico que presentimos junto al nuestro y que sospechamos que está situado mucho m´sas allá de nuestro alcance. Sin embnargo, podríamos conjeturar que, ambos universos, se necesitan mutuamente, el uno sin el otro no podría existir y, de esa manera, estaríamos en un universo dual dentro de la paradoja de no poder conocernos mutuamente, al menos de momento, al carecer de los conocimientos necesarios para construir esa tecnología futurista que nos llevaría a esos otros horizontes.

                                                ¿Quién sabe lo que en otros mundos podremos encontrar?

¡Oh mundo de muchos mundos!

¡Oh vida de vidas!

¿Cuál es tu centro?

¿Dónde estamos nosotros?

¿Habrá algo más de lo que vemos?

¿Debemos prestar atención a las voces que oímos en nuestras mentes?

¿Cómo pudimos llegar a saber de lo muy pequeño y de lo muy grande?

Pensemos por ejemplo que un átomo tiene aproximadamente 10-8 centímetros de diámetros. En los sólidos y líquidos ordinarios los átomos están muy juntos, casi en contacto mutuo. La densidad de los sólidos y líquidos ordinarios depende por tanto del tamaño exacto de los átomos, del grado de empaquetamiento y del peso de los distintos átomos.

De los sólidos ordinarios, el menos denso es el hidrógeno solidificado, con una densidad de 0’076 gramos por cm3. El más denso es un metal raro, el osmio, con una densidad de 22’48 gramos/cm3.

Si los átomos fuesen bolas macizas e incompresibles, el osmio sería el material más denso posible, y un centímetro cúbico de materia jamás podría pesar ni un kilogramo, y mucho menos toneladas.

Pero los átomos no son macizos. El físico neozelandés experimentador por excelencia, Ernest Ruthertord, demostró en 1.909 que los átomos eran en su mayor parte espacio vacío. La corteza exterior de los átomos contiene sólo electrones ligerísimos, mientras que el 99’9% de la masa del átomo está concentrada en una estructura diminuta situada en el centro: el núcleo atómico.

El núcleo atómico tiene un diámetro de unos 10-15 cm (aproximadamente 1/100.000 del propio átomo). Si los átomos de una esfera de materia se pudieran estrujar hasta el punto de desplazar todos los electrones y dejar a los núcleos atómicos en contacto mutuo, el diámetro de la esfera disminuiría hasta un nivel de 1/100.000 de su tamaño original.

De manera análoga, si se pudiera comprimir la Tierra hasta dejarla reducida a un balón de núcleos atómicos, toda su materia quedaría reducida a una esfera de unos 130 metros de diámetro. En esas mismas condiciones, el Sol mediría 13’7 km de diámetro en lugar de los 1.392.530 km que realmente mide. Y si pudiéramos convertir toda la materia conocida del universo en núcleos atómicos en contacto, obtendríamos una esfera de sólo algunos cientos de miles de km de diámetro, que cabría cómodamente dentro del cinturón de asteroides del Sistema Solar.

Si la estrella tiene la masa del Sol “muere” para convertirse en una nebulosa planetaria y en una enana blanca. Si la estrella que agota su combustible nuclear de fusión es más masiva en varias masas solares, el resultado es el de una Estrella de Neutrones, y, si es súpermasiva, será un agujero negro su destino final.

El calor y la presión que reinan en el centro de las estrellas rompen la estructura atómica y permiten que los núcleos atómicos empiecen a empaquetarse unos junto a otros. Las densidades en el centro del Sol son mucho más altas que la del osmio, pero como los núcleos atómicos se mueven de un lado a otros sin impedimento alguno, el material sigue siendo un gas.  Hay estrellas que se componen casi por entero de tales átomos destrozados.  La compañera de la estrella Sirio es una “enana blanca” no mayor que el planeta Urano, y sin embargo tiene una masa parecida a la del Sol.

Los núcleos atómicos se componen de protones y neutrones. Ya hemos dicho antes que todos los protones tienen carga eléctrica positiva y se repelen entre sí, de modo que en un lugar dado no se pueden reunir más de un centenar de ellos. Los neutrones, por el contrario, no tienen carga eléctrica y en condiciones adecuadas pueden estar juntos y empaquetados un enorme número de ellos para formar una “estrella de neutrones”. Los púlsares, según se cree, son estrellas de neutrones en rápida rotación.

https://josemauronunes.files.wordpress.com/2009/11/201203.jpg

Estas estrellas se forman cuando las estrellas de 2 – 3 masas solares, agotado el combustible nuclear, no pueden continuar fusionando el hidrógeno en helio, el helio en carbono, el carbono en oxígeno, etc, y explotan en supernovas. Las capas exteriores se volatilizan y son expulsados al espacio; el resto de la estrella (su mayor parte), al quedar a merced de la fuerza gravitatoria, es literalmente aplastada bajo su propio peso hasta tal punto que los electrones se funden con los protones y se forman neutrones que se comprimen de manera increíble hasta que se degeneran y emiten una fuerza que contrarresta la gravedad, quedándose estabilizada como estrella de neutrones.

Si el Sol se convirtiera en una estrella de neutrones, toda su masa quedaría concentrada en una pelota cuyo diámetro sería de 1/100.000 del actual, y su volumen (1/100.000)3, o lo que es lo mismo 1/1.000.000.000.000.000 (una milmillonésima) del actual. Su densidad sería, por tanto, 1.000.000.000.000.000 (mil billones) de veces superior a la que tiene ahora.

                               Nuestro Sol es la estrella más estudiada en nuestro mundo

La densidad global del Sol hoy día es de 1’4 gramos/cm3. Una estrella de neutrones a partir del Sol tendría una densidad que se reflejaría mediante 1.400.000.000.000.000 gramos por cm3. Es decir, un centímetro cúbico de una estrella de neutrones puede llegar a pesar 1.400.000.000 (mil cuatrocientos millones de toneladas). ¡Qué barbaridad! Sin embargo, en el contexto del Universo eso no supone nada si pensamos en su inmensidad. Si eso es así (que lo es), ¿qué somos nosotros comparados con toda esa grandeza? Bueno, si dejamos aparte el tamaño, creo que somos la parte del universo que piensa, o, al menos, una de las partes que puede hacerlo.

          Ahí se producen las transiciones de fase que transmutan la materia sencilla en la compleja

Objetos como estos pueblan el universo, e incluso más sorprendentes todavía, como es el caso de los agujeros negros explicado en páginas anteriores de este mismo trabajo. Cuando hablamos de las cosas del universo estamos hablando de cosas muy grandes. Cualquiera se podría preguntar, por ejemplo: ¿hasta cuándo podrá mantener el Sol la vida en la Tierra? Está claro que podrá hacerlo mientras radie energía y nos envie luz y calor que la haga posible tal como la conocemos.

Como ya explicamos antes, la radiación del Sol proviene de la fusión del hidrógeno en helio. Para producir la radiación vertida por el sol se necesita una cantidad ingente de fusión: cada segundo tienen que fusionarse 4.654.600.000 toneladas de hidrógeno en 4.650.000.000 toneladas de helio  (las 4.600 toneladas restantes se convierten en energía de radiación y las pierde el Sol para siempre. La ínfima porción de esta energía que incide sobre la Tierra basta para mantener toda la vida en nuestro planeta).

Nadie diría que con este consumo tan alto de hidrógeno por segundo, el Sol pudiera durar mucho tiempo, pero es que ese cálculo no tiene encuenta el enorme tamaño del Sol. Su masa totaliza 2.200.000.000.000.000. 000.000.000.000 (más de dos mil cuatrillones) de toneladas. Un 53% de esta masa es hidrógeno, lo cual significa que el Sol contiene en la actualidad una cantidad de 1.166.000.000.000.000.000.0000.0000.000 toneladas.

Para completar datos diré que el resto de la masa del Sol es casi todo helio. Menos del 0’1 por 100 de su masa está constituido por átomos más complicados que el helio. El helio es más compacto que el hidrógeno. En condiciones idénticas, un número dado de átomos de helio tiene una masa cuatro veces mayor el mismo número de átomos de hidrógeno. O dicho de otra manera: una masa dada de helio ocupa menos espacio que la misma masa de hidrógeno. En función del volumen – el espacio ocupado -, el Sol es hidrógeno en un 80 por ciento.

Si suponemos que el Sol fue en origen todo hidrógeno, que siempre ha convertido hidrógeno en helio al ritmo dicho de 4.654.000  toneladas  por segundo y que lo seguirá haciendo hasta el final, se calcula que ha estado radiando desde hace unos 4.000 millones de años y que seguirá haciéndolo durante otros cinco mil millones de años más.

Pero las cosas no son tan simples. El Sol es una estrella de segunda generación, constituida a partir de gas y polvo cósmico desperdigado por estrellas que se habían quemado y explotado miles de millones de años atrás.  Así pues, la materia prima del Sol contenía ya mucho helio desde el principio, lo que nos lleva a pensar que el final puede estar algo más cercano.

Por otra parte, el Sol no continuará radiando exactamente al mismo ritmo que ahora. El hidrógeno y el helio no están perfectamente entremezclados. El helio está concentrado en el núcleo central y la reacción de fusión se produce en la superficie del núcleo.

A medida que el Sol siga radiando, irá adquiriendo una masa cada vez mayor ese núcleo de helio y la temperatura en el centro aumentará. En última instancia, la temperatura sube lo suficiente como para transformar los átomos de helio en átomos más complicados. Hasta entonces el Sol radiará más o menos como ahora, pero una vez que comience la fusión del helio, empezará a expandirse y a convertirse poco a poco en una gigante roja. El calor se hará insoportable en la Tierra, los océanos se evaporarán y el planeta dejará de albergar vida en la forma que la conocemos.

La esfera del Sol, antes de explotar para convertirse en una enana blanca, aumentará engullendo a Mercurio y a Venus y quedará cerca del planeta Tierra, que para entonces será un planeta yermo.

Los astrónomos estiman que el Sol entrará en esta nueva fase en unos 5 ó 6 mil millones de años. Así que el tiempo que nos queda por delante es como para no alarmarse todavía. Sin embargo, el no pensar en ello… no parece conveniente.

Espero que al lector de este trabajo, encargado por la Asociación Cultural “Amigos de la Física 137, e/hc”, les esté entreteniendo y sobre todo interesando los temas que aquí hemos tratado, siempre con las miras puestas en difundir el conocimiento científico de temas de la naturaleza como la astronomía y la física. Tratamos de elegir temas de interés y aquellos que han llamado la atención del público en general, explicándolos y respondiendo a preguntas que seguramente les gustaría conocer, tales como: ¿por qué la Luna muestra siempre la misma cara hacia la Tierra?

La atracción gravitatoria de la Luna sobre la Tierra hace subir el nivel de los océanos a ambos lados de nuestro planeta y crea así dos abultamientos. A medida que la Tierra gira de oeste a este, estos dos bultos – de los cuales uno mira hacia la Luna y el otro en dirección contraria – se desplazan de este a oeste alrededor de la Tierra.

Al efectuar este desplazamiento, los dos bultos rozan contra el fondo de los mares poco profundos, como el de Bering o el de Irlanda. Tal rozamiento convierte energía de rotación en calor, y este consumo de la energía de rotación terrestre hace que el movimiento de rotación de la Tierra alrededor de su eje vaya disminuyendo poco a poco. Las mareas actúan como freno sobre la rotación de la Tierra, y como consecuencia de ello, los días terrestres se van alargando un segundo cada mil años.

Pero no es sólo el agua del océano lo que sube de nivel en respuesta a la gravedad lunar. La corteza sólida de la Tierra también acusa el efecto, aunque en medida menos notable. El resultado son dos pequeños abultamientos rocosos que van girando alrededor de la Tierra, el uno mirando hacia la Luna y el otro en la cara opuesta de nuestro planeta. Durante ese desplazamiento, el rozamiento de una capa rocosa contra otra va minando también la energía de rotación terrestre. (Los bultos, claro está, no se mueven físicamente alrededor del planeta, sino que a medida que el planeta gira, remiten en un lugar y se forman en otro, según qué porciones de la superficie pasen por debajo de la Luna y sean atraídas por su fuerza de gravedad).

La Luna no tiene mares ni mareas en el sentido corriente. Sin embargo, la corteza sólida de la luna acusa la fuerte atracción gravitacional de la Tierra, y no hay que olvidar que ésta es 80 veces más grande que la Luna. El abultamiento provocado en la superficie lunar es mucho mayor que el de la superficie terrestre. Por tanto, si la Luna rotase en un periodo de 24 horas, estaría sometida a un rozamiento muchísimo mayor que la Tierra. Además, como nuestro satélite tiene una masa mucho menor que la Tierra, su energía total de rotación sería, ya de entrada, para periodos de rotación iguales, mucho menor.

                                               Luna roja sobre el Templo de Poseidon

Así pues, la Luna, con una reserva inicial de energía muy pequeña, socavada rápidamente por los grandes bultos provocados por la Tierra, tuvo que sufrir una disminución relativamente rápida de su periodo de rotación.  Hace seguramente muchos millones de años debió de decelerarse hasta el punto de que el día lunar se igualó con el mes lunar. De ahí en adelante, la Luna siempre mostraría la misma cara hacia el planeta Tierra.

                Siempre nos muestra la misma cara

Esto, a su vez, congela los abultamientos en una aposición fija. Unos de ellos miran hacia la Tierra desde el centro mismo de la cara lunar que nosotros vemos, mientras que el otro está apuntando en dirección contraria desde el centro mismo de la cara lunar que no podemos ver. Puesto que las dos caras no cambian de posición a medida que la Luna gira alrededor de la Tierra, los bultos no experimentan ningún nuevo cambio ni tampoco se produce rozamiento alguno que altere el periodo de rotación del satélite. La luna continuará mostrándonos la misma cara indefinidamente; lo cual, como veis, no es ninguna coincidencia, sino la consecuencia inevitable de la gravitación y del rozamiento. La Luna es un caso relativamente simple. En ciertas condiciones, el rozamiento debido a las mareas puede dar lugar a condiciones de estabilidad más complicadas.

Resultado de imagen de El Planeta Mercurio el más cerca del Sol

Durante unos ochenta años, por ejemplo, se pensó que Mercurio (el planeta más cercan al Sol y el más afectado por la fuerza gravitatoria solar) ofrecía siempre la misma cara al Sol, por el mismo motivo que la Luna ofrece siempre la misma cara a la Tierra. Pero se ha comprobado que, en el caso de este planeta, los efectos del rozamiento producen un periodo estable de rotación de 58 días, que es justamente dos tercios de los 88 días que constituyen el período de revolución de Mercurio alrededor del Sol.

Hay tantas cosas que aprender que el corto tiempo que se nos permite estar aquí es totalmente insuficiente para conocer todo lo que nos gustaría. ¿Hay algo más penoso que la ignorancia? ¿Hay algo más excitante que el descubrir y saber?

emilio silvera

La Física al servicio de la salud

Autor por Emilio Silvera    ~    Archivo Clasificado en Física... ¡Y mucho más!    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

Transferencias tecnológicas del CERN a la Biomedicina

                                                                                                           

                                                                            Partículas y mucho más

Seguramente la mayoría de los lectores de la Revista Española de Física han oído más de una vez hablar del CERN. Fundado en 1954, constituye el mayor laboratorio de física de partículas del mundo, con veinte países miembros y un personal de unas 3.000 personas entre físicos, ingenieros y personal técnico y administrativo de todo tipo. Seguramente están también al tanto de los grandes experimentos que se están preparando en este centro como el Large Hadron Collider (LHC), situado en un túnel circular de 27 km de longitud, destinado a elucidar el origen de la llamada ruptura de la simetría electrodébil y en última instancia el origen de las masas de las partículas elementales (no de la masa del protón o del neutrón como erróneamente se dice a veces en los medios de comunicación), o del proyecto CERN Neutrino Gran Sasso (CNGS), que consiste en enviar un haz de neutrinos de alta energía desde el CERN al laboratorio subterráneo italiano del Gran Sasso que se encuentra a 730 km, para estudiar las oscilaciones de estas huidizas partículas.

También es muy probable que muchos lectores asocien de manera natural la palabra acelerador de partículas  a los instrumentos que utilizan los físicos modernos para estudiar y comprender mejor la estructura y el comportamiento de la materia a pequeñas escalas. Sin embargo, de los 17.000 aceleradores de partículas que se estima existen en la actualidad en todo el mundo, aproximadamente la mitad de ellos se usan en medicina y sólo una parte muy pequeña se usan para investigación fundamental. Por este y otros motivos que se discutirán más adelante, en este número especial de la Revista Española de Física dedicado a la física y las ciencias de la vida, ha parecido conveniente incluir un artículo en el que, al menos brevemente, se describieran algunas de las transferencias tecnológicas (spinoffs) importantes que la actividad del CERN aporta a dichas ciencias.

                 Mucho de lo que aquí se descubre, se aplica a nuestra Salud

Es bastante razonable que, como ocurre con las ciencias del espacio, mucha gente se pregunte cuál es la utilidad social de la física de partículas más allá  de la adquisición de conocimientos fundamentales de la naturaleza. Sin embargo, es preciso señalar que los aceleradores y detectores de partículas del CERN y otros laboratorios similares requieren el uso, y muchas veces el desarrollo, de tecnologías de punta que obligan a una estrecha colaboración con la industria  que redunda en beneficio de ambas partes. Las transferencias tecnológicas que se producen en este proceso se incorporan inmediatamente a nuestra vida diaria en áreas tales como la electrónica, procesamiento industrial y médico de imágenes, manejo y usos de la radiación , metrología, nuevos materiales, tecnologías de la computación y la información, tratamiento del cáncer, etc. En este artículo se pondrá el énfasis en aquellas actividades del CERN que han redundado de una forma más clara en beneficio de las ciencias biomédicas.

                  PET/TC o más allá de los rayos X

En el ámbito de la medicina los aceleradores de partículas se utilizan con dos finalidades; una para la formación de imágenes con propósitos diagnósticos y otra, para terapia, principalmente oncológica. Desde el descubrimiento de los rayos X por Röntgen en 1895, este tipo de radiación electromagnética ha proporcionado una información de valor incalculable y aún sigue proporcionándola. Sin embargo, mucho más recientemente, se han desarrollado otras técnicas complementarias de diagnóstico basadas en los llamados radiofármacos. Estas sustancias radiactivas presentan idealmente la propiedad de poder ser inyectadas en el organismo humano de forma segura y de fijarse exclusivamente a determinados tejidos. Posteriormente, a medida que van desintegrándose, emiten ciertas partículas que pueden ser detectadas y analizadas produciendo de esta forma imágenes estáticas o incluso dinámicas de los órganos en los que se depositaron los radiofármacos y, en definitiva, proporcionando información no solamente sobre la morfología de aquellos, sino también, en muchos casos, sobre su función y metabolismo.Los radiofármacos se producen utilizando haces de protones de alta intensidad y, como tienen una vida media muy baja, deben utilizarse cerca de donde se han creado. Se calcula que unos 20 millones de personas son diagnosticadas cada año mediante el uso de este tipo de sustancias.

Son técnicas no invasivas que dejan al descubierto lo que interesa ver y eliminar.

Una de las técnicas de este tipo más utilizada en la actualidad es la Positron Emission Tomography (PET). En su aplicación se utiliza normalmente un ciclotrón para irradiar alguna sustancia que se convierte en radiactiva por desintegración beta positiva (emisora de positrones). Esta sustancia se une por ejemplo a la glucosa y se inyecta al paciente. Los positrones producidos se aniquilan con los electrones circundantes dando lugar a dos fotones de energía muy bien definida, emitidos en direcciones opuestas. Estos fotones interaccionan con un material escintilador dando lugar a la emisión de otros fotones que pueden ser detectados por fotomultiplicadores o fotodiodos para formar la imagen de los tejidos que se pretenden estudiar en función de la distribución de la glucosa radiactiva. Por ejemplo, en el caso del diagnóstico del cáncer las células cancerosas suelen consumir más glucosa que las células sanas debido a su mayor vascularización y a su mayor actividad metabólica y reproductiva, produciendo por tanto una mayor emisión de fotones. Por el contrario, las zonas donde el tejido presente mayor número de células muertas brillarán menos debido a la menor concentración de glucosa radioactiva, lo cual puede ser muy útil para el diagnóstico de infartos y otras lesiones.

                                                              Tecnológias que llegan más allá

De acuerdo con David Townsend, uno de los pioneros en el desarrollo de la tecnología PET, aunque ésta no fue inventada en el CERN, una cantidad esencial e inicial de trabajo desarrollado en el CERN  a partir de 1977 contribuyó de forma significativa al desarrollo del PET 3D. La tecnología PET alcanza su grado más alto de utilidad diagnóstica cuando se combina con la Computed Tomography (CT). La CT es un método de formación de imágenes tridimensionales a partir del procesamiento digital de un gran número de imágenes bidimensionales de rayos X. Inicialmente, las diferentes imágenes se obtenían alrededor de un solo eje de rotación y de ahí su nombre original de Computed Axial Tomography (CAT).

La técnica combinada PET/CT es uno de los desarrollos más excitantes de la medicina nuclear y la radiología modernas. Las reconstrucciones de imágenes CT permiten el diagnóstico precoz de tumores basándose en sus características morfológicas, mientras que la tecnología PET es capaz de diferenciar con grane eficiencia los tejidos malignos de los benignos. La fusión PET/CT permite ahora integrar las imágenes morfológica y fisiológica en una única imagen. El prototipo del scanner ART, el Partial Ring Tomograph (PRT), fue desarrollado en el CERN en 1980 y 1990 por David Townsend, Martín Wensveen y Henri Tochon-Danguy, y evaluado clínicamente en el departamento de medicina nuclear del Hospital Cantonal de Ginebra. ART puede considerarse como el precursor de la parte PET del moderno scanner PET/CT, que ha producido un impacto extraordinario en la tecnología de imágenes con fines médicos. Además, el CERN continua hoy en día contribuyendo a este campo fundamental de la medicina moderna mediante proyectos como Clear PET, Clear PEM, HPD PET etc.

Sin embargo, la importancia del CERN en el desarrollo de las tecnologías PET o CT, y en general de todo tipo de scanner, va mucho más allá. En efecto, todo este tipo de dispositivos se basa, de una forma u otra, en los detectores desarrollados a finales de los  sesenta en el CERN por George Charpak. Su trabajo fue reconocido en 1992 con la concesión del Premio Nobel de Física por su invención y desarrollo de detectores de partículas, en particular de la cámara proporcional multihilos, que produjo una revolución en la técnica de exploración de las partes más íntimas de la materia. Los detectores desarrollados por Charpak se usan aún para todo tipo de investigaciones médicas y biológicas y podrían eventualmente sustituir completamente a las placas fotográficas en la radio-biología aplicada. La velocidad creciente con la que permiten registrar las imágenes en radio medicina conducen a una menor tiempo de exposición y a menores dosis de radiación indeseada recibida por los pacientes.

 

                          Hadronterapia, o las partículas contra el cáncer

Como es bien sabido, una de las herramientas terapéuticas esenciales en el campo de la oncología es la radioterapia. Dicho tratamiento se aplica hoy en día aproximadamente a la mitad de los pacientes de cáncer. En cierto modo se puede considerar como una forma sutil de cirugía donde el bisturí es reemplazado por un haz colimado de partículas capaz de esterilizar las células malignas mediante la inactivación de su ADN, impidiendo así su reproducción. Tradicionalmente, la radioterapia se ha basado en el uso de rayos X (fotones), electrones y, más recientemente, hadrones, es decir, partículas capaces de interaccionar fuerte o nuclearmente, si bien no es ésta la propiedad más interesante de estas partículas para las aplicaciones radioterapeúticas. Los haces de rayos X y los electrones se obtienen normalmente a partir de aceleradores lineales como los del CERN, aunque mucho más pequeños, y se apuntan hacia los tumores con la energía, dirección y colimación apropiadas para optimizar su efecto destructivo sobre los mismos. Por su parte, los neutrones pierden energía en el interior del organismo de una forma diferente, lo cual les hace más indicados para el tratamiento de ciertos tipos especiales de tumores. Se obtienen a partir de las colisiones de protones, previamente acelerados en un ciclotrón, con núcleos de berilio. Este hecho hace que esta terapia sea bastante más cara que las anteriores, pero a cambio el ciclotrón puede ser usado también para la producción de radiofármacos.

                                 Cintíficos del CERN aplican antimateria contra el Cáncer

El estudio de las posibilidades de utilización de haces de hadrones en la terapia del cáncer tuvo su origen en el trabajo seminal de R.R Wilson titulado Radiological Use of Fast Protons (Radiology 47, 1946). En dicho artículo se ponía de manifiesto que los protones, así como otras partículas cargadas pesadas, presentan la propiedad única de que al penetrar en el cuerpo humano depositan la mayor parte de su energía a una preofundidad que depende de su energía inicial. Este hecho permite seleccionar cuidadosamente el área que se quiere irradiar, preservando de dicha radiación al tejido sano que pudiera encontrarse a menor profundidad. Además, como las partículas se detienen a una distancia de la superficie bien definida por la energía del haz, tampoco resultarían dañadas las células situadas detrás del blanco seleccionado.

Imagen relacionadaImagen relacionada

Sin embargo, la importancia del CERN en el desarrollo de las tecnologías PET o CT, y en general de todo tipo de scanner, va mucho más allá.

En contraste, la energía depositada por los rayos X alcanza su máximo cerca de la superficie de entrada y decae exponencialmente hasta que abandona el cuerpo humano en el lado opuesto, haciendo por tanto muy difícil seleccionar la zona que quiere irradiarse sin dañar otras áreas de células sanas. El trabajo de Wilson de 1946 condujo a toda una nueva línea de investigación experimental, principalmente en el Lawrence Berkeley Laboratory, que ha dado lugar al desarrollo de una nueva clase de terapias antitumorales basadas en la irradiación con protones y más recientemente con iones de carbono. Estas técnicas han sido aplicadas en más de 40 centros de todo el mundo, y de ellas se han beneficiado hasta la fecha más de 50.000 pacientes. No obstante, continúan investigándose nuevas formas de intentar mejorar el ratio entre la energía depositada en las células tumorales y en el tejido sano.

En la actualidad, el CERN se encuentra involucrado en diversos proyectos relacionados con la hadronterapia. Por ejemplo, en el diseño de un acelerador de protones e iones de carbono dedicado exclusivamente a usos médicos conocido como Proton Ion Medical Machine Study (PIMMS). Otro proyecto interesante es la realización de las pruebas del Linear Booster ( LIBO), capaz de acelerar una haz de protones hasta 200 Mev (los hospitales habiualmente utilizan energías en torno a los 65 MeV) y que estaría especializado en el tartamiento de tumores profundos.

Finalmente, y situándonos en un plano de investigación a un nivel más básico, es interesante señalar que en octubre de 2006 se presentaron los primeros resultados de un experimento llevado a cabo en el CERN con potencial para futuras aplicaciones en la terapia del cáncer. Se trataba del Antiproton Cell Experiment (ACE), que constituye la primera investigación realizada hasta la fecha sobre efectos biológicos de los antiprotones. Los antiprotones se comportan como los protones cuando entran en el organismo, pero generan mucha más energía en el blanco seleccionado debido a du aniquilación con los protones existentes en los núcleos de los átomos de las células, y además depositan esta energía de una forma biológicamente más efectiva.

 Se busca antimateria contra el Cáncer. Los resultados muestran que los antiprotones son cuatro veces más efectivos que los protones para destruir células vivas. (Foto: Especial CERN )

Evaluando la fracción de células supervivientes después de la irradiación con el haz de antiprotones, el experimento ACE ha encontrado que a eficiencia de éstos es unas cuatro veces mayor que la de los protones, mientras que el daño producido a las células situadas antes del blanco era básicamente el mismo. De acuerdo con Michael Holzscheiter, portavoz del experimento ACE, este hecho podría ser extremadamente importante para el tratamiento de casos de cáncer recurrente, donde este tipo de propiedad es vital. La tecnología desarrollada previamente en el CERN para la obtención de haces de antiprotones de buena calidad a la energía apropiada es esencial para este prometedor experimento, que difícilmente podría haberse realizado en ningún otro laboratorio. Éste es por tanto un magnífico ejemplo de cómo la investigación en física de partículas desarrollada en el CERN puede generar soluciones innovadores con excelentes beneficios médicos potenciales.

Los investigadores de ACE, en colaboración con otras instituciones de todo el mundo, están realizando en la actualidad nuevos tests para comprobar la eficacia de este método en el caso de tumores situados a mayor profundidad, y comparando sus resultados con los de otros métodos más convencionales como la irradiación mediante iones de carbono. Si todo sale como se espera, los beneficios clínicos de esta nueva técnica podrían empezar a producirse dentro de la próxima década.

Otro ejemplo importante de tecnología creada en el CERN con aplicaciones a la terapia del cáncer es el Neutron Driven Element Trasmuter. Se trata de un sistema de producción de radioisótopos específicos específicos a partir de un acelerador de protones cuyo desarrollo fue liderado por Carlo Rubbia, Premio Nobel de Física en 1984 por el descubrimiento de los bosones W y Z y ex director general del CERN. La idea es utilizar el haz de protones para producir neutrones los cuales provocan reacciones en un ambiente apropiado donde ciertos elementos son convertidos en los isótopos deseados.

La diferencia principal entre este método, seguro y barato, y el método más tradicional de utilizar los neutrones provenientes de un reactor nuclear, es que no requiere el uso de material fisionable ni funciona críticamente, es decir las reacciones se detienen en el momento en el que el acelerador es apagado. Más aún, el método tiene la ventaja de que sólo se producen los isótopos requeridos, lo que redunda en una importante reducción de impacto ambiental. Normalmente, el blanco utilizado es plomo, elemento idóneo por presentar el menor ritmo de captura de neutrones. Los neutrones se producen por espalación a partir del haz de protones y permanecen en el interior del blanco de plomo, que está rodeado  de un deflector de grafito, hasta que su espectro se suaviza suficientemente para cubrir un gran rango de energías que permiten su utilización para la transmutación de los elementos necesarios para la obtención de los isótopos deseados.

El Neutron Driven Element Trasmuter ha permitido, entre otras cosas, la producción de radioisótopos beta emisores como el 166Ho, 186 Re o el 188Re que son de gran importancia en braquiterapia. Dicha técnica, muy utilizada en el tratamiento de cánceres ginecológicos y en el de cáncer de próstata, es un tipo de radioterapia de proximidad donde la fuente radiactiva se sitúa dentro o muy cerca de los tejidos que requieren irradiación. Típicamente, la fuente radiactiva, de alta actividad y corta vida media, se encapsula en una semilla, filamento o tubo y se implanta en quirófano en la zona deseada. Las diferentes dosis requeridas en cada caso hacen que sea fundamental disponer del mayor muestrario posible de radioisótopos con la actividad y vida media apropiadas, lo cual convierte al Neutron Driven Element Trasmuter en una herramienta valiosísima para el futuro de este tipo de técnica terapéutica.

                              Información y computación sin fronteras

CERN, … where the web was born; éste es uno de los reclamos publicitarios que suelen utilizarse  para hacer ver al público la importancia de los retornos tecnológicos que en este laboratorio tienen lugar. Y en efecto, fue a finales de los ochenta cuando Tim Berners-Lee desarrolló estándar de Hyper Text Transfer Protocol (HTTP)  e implementó los primeros servidores web en el CERN. Su esfuerzo permitió la comunicación fácil y segura y el intercambio de todo tipo de información entre todos los ordenadores del mundo conectados a internet, dando lugar de esta forma a una de las revoluciones tecnológicas más importantes de las últimas décadas. Las repercusiones científicas, tecnológicas, culturales, comerciales y de ocio de la web son ya tan conocidas que apenas merecen comentario alguno.

El término Grid fue acuñado por Ian Foster and Carl Kesselman en su libro The Grid, Blueprint for new Computing Infraestructure (Morgan Kaufman, 1998), aunque las ideas básicas habían sido consideradas con anterioridad. No existe un acuerdo general sobre cual debería ser la definición precisa de las tecnologías Grid, pero hay un amplio concenso en que esta debería contener elementos tales como recursos compartidos, virtualización, abstracción del acceso a los recursos y estandarización. La filosofía Grid consistería, no sólo en compartir información entre diferentes usuarios, sino también recursos, como por ejemplo, procesadores, tiempo de CPU, unidades de almacenamiento, así como otros aparatos e instrumentos, de tal forma que eventualmente cada usuario tendría acceso virtual, por ejemplo, a la capacidad de cálculo de todos los demás usuarios de esa Grid. En los primeros tiempos de esta tecnología de la información se llegó a hablar de la Grid, refiriéndose a la posibilidad  de existencia de una única World  Wide Grid.

                                                                                                      Todo surgió del CERN

Hasta el momento,, sin embargo, este concepto no es una realidad y más bien lo que se encuentra es que diferentes grupos de proyectos crean su propia Grid usando sus propias implementaciones, estándares y protocolos y dando acceso restringido solamente a una cierta comunidad de usuarios autorizados. Así, aunque se siguen realizando importantes esfuerzos en cuanto a la estandarización de los protocolos, no está claro cual será el camino que este tipo de tecnología seguirá en el futuro en lo que se refiere a la futura existencia de un única Grid.

En cualquier caso es importante resaltar que una vez más el CERN ha sido pionero en este tipo de tecnología. Los detectores que se están instalando (a estas alturas, todos instalados y en marcha) en el LHC (ATLAS, CMS, ALICE, LHCb, SUSY, etc.), son tan complejos, que han requerido cada uno de ellos el concurso de muchas instituciones de todo el mundo para su construcción, y lo seguirán requiriendo para su mantenimiento cuando el acelerador empiece a funcionar (ya está en marcha), y, como no, para el análisis de los datos que se obtengan. Para hacerse una idea de la dimensión y complejidad de estos análisis baste mencionar que el compact Muon Selenoid (CMS), una vez pasado su primer filtro, deberá almacenar información sobre el resultado de las colisiones producidas en su interior a un ritmo del orden de 100 a 200 MB por segundo durante un tiempo esperado de unos cien días por año. Resulta obvio que sólo una tecnología tipo Grid puede afrontar con posibilidades de éxito un reto semejante y de hecho el CERN ha inspirado varios proyectos Grid multinacionales por este motivo. Posiblemente, el más grande de ellos hasta la fecha sea el EGEE (Enablinbg Grids for E-Science), que conecta más de 150 paises y ofrece 20 000 CPUs y más de 10 Petabytes de memoria.

De manera análoga a como ocurrió con las tecnologías de la detección y aceleración, las tecnologías Grid tendrán, y de hecho ya empiezan a tener, un fuerte impacto en las ciencias de la vida y de la salud. En este sentido, uno de los campos obvios de aplicación es la bioinformática. Gracias a los espectaculares avances llevados a cabo en los últimos años en el campo de la biología molecular, se dispone hoy en día de cantidades crecientes de información genética de diferentes especies e individuos. Dicha información codificada en el ADN en forma de secuencia de tripletes o codones de ácidos nucleicos, que constituyen los genes que contienen la estructura primaria de las diferentes proteínas, ha sido y está siendo obtenida por centenares de grupos diferentes distribuidos por todo el mundo y debe almacenarse en gigantescas bases de datos de forma eficiente para su compartición, contrastación y análisis.

Ejemplos típicos serían la búsqueda de determinadas secuencias, comparaciones, búsqueda de determinadas mutaciones o alelos, etc. Resulta evidente que esta ingente labor puede verse enormemente beneficiada por el uso de tecnologías Grid. De hecho, la Bioinformática, y en particular sus aplicaciones biomédicas, han sido una parte importante del proyecto EGEE desde el comienzo del mismo.

Finalmente, y como última muestra de cómo puede revertir en la sociedad las tecnologías de la información y la computación provenientes de la física de partículas, es interesante mencionar el Proyecto Mammogrid y su continuación Mammogrid Plus. Liderado por el CERN, dicho proyecto de la UE utiliza la tecnología Grid para crear una base de datos de mamografías que pueda ser usada para investigar un gran conjunto de datos e imágenes que, aparte de otras aplicaciones sanitarias, sea útil para estudiar el potencial de esta tecnología para servir de soporte a la colaboración entre los profesionales de la salud de la  UE.

      Ciencia, Tecnología y Sociedad

A estas alturas debería haber quedado claro que los centros científicos de élite internacionales como el CERN, no sólo nos proporcionan un conocimiento más profundo de la naturaleza, sino que las tecnologías de punta que en ellos se desarrollan acaban permeando a la Sociedad y se incorporan a nuestras vidas cotidianas. El autor del artículo, Antonio Dobado, del Departamento de Física Teórica I de la Universidad Complutense de Madrid, ha pretendido ilustrar el hecho innegable de la conexión existente entre temas tan aparentemente dispares como el de la Física de Partículas y la Biomedicina, pero ejemplos semejantes podrían haberse encontrado en prácticamente cualquier área de la actividad humana.

La Sociedad no puede permanecer por más tiempo ajena a la Ciencia y a todo lo que trae consigo. Precisamente por eso la RSEF dedica un gran esfuerzo a la difícil tarea de convencer al público de la importancia de la Física como valor científico, cultural y social, como una forma rigurosa y profunda del acercamiento al conocimiento de la naturaleza, y a la vez como generadora de nuevas tecnologías. En este sentido, es una espléndida noticia la inminente creación de un nuevo Grupo especializado en el seno de la RSEF denominado Física Médica. Y, desde aquí, aprovechamos la oportunidad para darles la bienvenida y desearles el mayor éxito en sus futuras andaduras en la búsqueda de la verdad científica.

Fuente: Revista Española de FÍSICA.

Publicada por la RSEF con el Nº 3 Volumen 21 de 2007

La presente transcripción es de:  Emilio Silvera

Miembro numerario de la RSEF y adscrito a los Grupos Especializados de Física Teórica y Astrofísica.

El saber Sí ocupa un lugar en nuestras Mentes

Autor por Emilio Silvera    ~    Archivo Clasificado en Astronomía y Astrofísica    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Dicen que sólo el 4% de todos los objetos que podemos localizar y observar en el universo son de materia ordinaria, la bariónica que está hecha de átomos, la conformada por infinitesimales partículas que llamamos Quarks, Hadrones y Leptones, del resto nada sabemos, sólo podemos conjeturar.

 

Hay veces en las que nos cuentan cosas y hechos de los que nunca hemos tenido noticias y, resultan del máximo interés. Nuestra curiosidad nos llama a desentrañar los misterios y secretos que, tanto a nuestro alrededor, como en las regiones más lejanas del Universo, puedan haber ocurrido, puedan estar sucediendo ahora, o, en el futuro pudieran tener lugar, ya que, de alguna manera, todas ellas tienen que ver con nosotros que, de alguna manera, somos parte de la Naturaleza, del Universo y, lo que sucedió, lo que sucede y lo que sucederá… ¡Nos importa!

 

 

 

 

Cinturón de Gould. La linea indicada como 500 PC (500 Parsecs) equivales a una distancia al Sol (en el centro) de 1.630 años-luz que son 31.000 billones de kilómetros. Las distancias del Espacio no son Humanas, nosotros, aunque estamos y formamos parte del mundo, del Universo, en realidad, no hemos llegado a poder asimilar distancias como las que, en el Cosmos, podemos constatar.
Resultado de imagen de El Cinturón de Gould es un sector del Brazo de Orión

El Cinturón de Gould es un sector del Brazo de Orión. El Brazo de Orión es la primera gran estructura a la que pertenecemos; grande en sentido galáctico. Es un larguísimo arco estelar de 10.000 años-luz de longitud y 3.500 de ancho. Mucho más del 99% de lo que ven nuestros ojos a simple vista, en una noche normal, está aquí. Muchas personas de ciudad vivirán y morirán sin ver en persona nada más allá del Brazo de Orión.

Se ha discutido, argumentado y teorizado sobre la vida durante siglos, quizás milenios. Lo que conocemos como vida es ni más ni menos que una estructura formada de átomos que se han organizado y que lograron crear mecanismos que les permiten mantener esa organización. Decir que los átomos “se han organizado” es una locura. En el mundo material no hay nada más básico que un átomo, y algo tan básico no es capaz de hacer algo tan complejo como “organizarse”.

 

¿O sí?

 

 

Una célula es un sistema muy complejo (célula animal)

 

La realidad es que sí. Los átomos, en cumplimiento de leyes físicas simples, se organizan en estructuras. La más sencilla es una molécula, que puede estar formada por algunos átomos, pero se llega a estructuras bastante complejas y ordenadas, como los cristales y fibras

 

 

naturales y maravillosas formas como las buckyballsBuckyballsBuckyballs es el nombre coloquial utilizado para describir un fullereno. Los avances logrados por la Humanidad, son tan grandes que, estando a nuestro alrededor, no somos conscientes de su verdadero alcance.

 

 

Resultado de imagen de Nanotubos de carbono

 

 

Nanomateriales aplicados a dispositivos electrónicos y los tres tipos de geometrías de nanotubos de carbono

Los avances fueron de hecho tan espectaculares que hacia mediados del siglo XX ya se había dado respuesta a todas las cuestiones sencillas. Conceptos tales como la teoría general de la relatividad y la mecánica cuántica explicaron el funcionamiento global del universo a escalas muy grandes y muy pequeñas respectivamente, mientras el descubrimiento de la estructura del ADN y el modo en que éste se copia de una generación a otra hizo que la propia vida, así como la evolución, parecieran sencillas a nivel molecular. Sin embargo, persistió la complejidad del mundo a nivel humano –al nivel de la vida-. La cuestión más interesante de todas, la que planteaba cómo la vida pudo haber surgido a partir de la materia inerte, siguió sin respuesta.

 

 

 

 

Un descubrimiento así no podía dejar al mundo indiferente. En unos años el mundo científico se puso al día y la revolución genética cambió los paradigmas establecidos. Mucha gente aún no está preparada para aceptar el comienzo de una era poderosa en la que el ser humano tiene un control de sí mismo mayor al habitual. Había nacido la Ingeniería genética. No debe extrañarnos que sea precisamente a escala humana donde se den las características más complejas del universo.

 

 

 

Los virus son parásitos de las células vivas y viven dentro o sobre los organismos como huésped

 

Claro que nada de esto se aproxima al nivel de organización que implica la vida. Recordemos ahora la parte de la frase sobre los átomos que dice “lograron crear mecanismos”, lo cual jamás puede ser cierto… al menos no en la forma directa que uno se imagina al primer momento. Un virus, por ejemplo, es una especie de “máquina” capaz de propagarse. No de reproducirse, al menos no en el sentido que se le da a la palabra en biología, pero sí de activar un mecanismo que permite obtener copias de sí mismo.

 

 

Los virus infectan tanto células como bacterias porque no pueden multiplicarse por sí mismos. Al hacerlo, usan las moléculas y enzimas de su desafortunado hospedero para replicar su genoma y construir sus cápsulas virales, las cuales son muy parecidas a unas sondas espaciales pero que, en este caso, sólo transportan ADN o ARN con el único fin de repetir el ciclo en otra víctima.

Antes de seguir quiero hacer una salvedad: todo lo que diga encontrará alguien para discutirlo. Los conceptos básicos que se aplican a la vida aún no están del todo definidos. Por ejemplo, sé que hay corrientes de pensamiento para las cuales los virus no son seres vivos. De acuerdo, sólo es cuestión de definiciones, y no es necesario —ni posible— discutirlas aquí. Yo prefiero incluir a los virus en este análisis porque son algo así como el primer nivel de estructura a discutir (sí, sé que existen estructuras menores, pero no con tanta entidad).

 

 

 

Siguiendo en la línea que venía, la cuestión es que parece haber una barrera entre el nivel de organización que pueden alcanzar los átomos por leyes simples de la física y la estructura que presenta la vida. ¿Es esto cierto? Da para discutir mucho, pero creo, en base a muchas líneas de investigación y descubrimientos que se vienen presentando, que no. La estructuración de la vida es gradual. De un evento físico no surge una célula ni, mucho menos, un ratón, pero la realidad es que cada uno de los pasos intermedios que llevan desde un amasijo de átomos a una de estas formas de vida son dados por fenómenos que tienen que ver con la física, la química y… la propia orientación de lo que es la vida. Digamos que la vida, una vez aparecida, crea un entorno de leyes propias que impulsan su desarrollo. ¿Cómo y por qué se crean estas leyes, en base a qué voluntad? Ninguna. (Y aquí surgirán de nuevo las discusiones.) Simplemente, no puede existir la vida sin esas leyes. El hecho de que estemos en un planeta que tenga vida por doquier, y muy desarrollada, es porque la vida, cuando existe, sigue estas reglas que le permiten desarrollarse, y si no las sigue desaparece. Es como decir que hay leyes físicas, leyes básicas del universo, que han sido puestas especialmente para la vida. De hecho, considerando la vida una forma de la materia, creo que es así. Es decir, la vida —cumpliendo los requisitos— sería algo inevitable en el Universo…

 

 

 

            Kepler-16b, un mundo que orbita dos soles (NASA).

Kepler A y Kepler B son dos astros con el 69% y el 20% de la masa del Sol respectivamente, mientras que Kepler-16b es un exosaturno que tiene 0,33 veces la masa de Júpiter. Posee un periodo de 229 días y se halla situado a 105 millones de kilómetros del par binario, la misma distancia que separa a Venus del Sol en nuestro Sistema Solar. Pero debido a que Kepler-16 AB son dos estrellas relativamente frías, la temperatura “superficial” de este gigante gaseoso ronda unos gélidos 170-200 K dependiendo de la posición orbital. Es decir, nada que ver con el infierno de Venus. Otros mundos, más parecidos a nuestra Tierra, ¿por qué no tendrían formas de vida? Lo lógico es pensar que sí, que albergue la vida más o menos inteligente y conforme se haya producido su evolución.

 

 

 

 

Me estoy extendiendo fuera del tema. No pretendo estudiarlo filosóficamente, sino usar un poco de lógica para llegar a una respuesta para una pregunta que se hacen los científicos, y que nos hacemos todos, excepto aquellos que quieren creer en entidades superiores que se ocuparon de ello (lo cual es, simplemente, pasar el problema a otro nivel, sin resolverlo): ¿Cómo es que la vida evolucionó desde átomos, moléculas, células, seres simples, a una especie como la nuestra, tan tremendamente compleja y capaz de, como lo estoy haciendo yo, reflexionar sobre sí misma, transmitirlo y, además, cambiar el mundo como lo estamos cambiando?

 

 

Reactor de fusión Tokamak

 

 

Lo estamos cambiando de muchas maneras.  Estuve pensando que, si se prueba que es cierta, esta teoría de los georreactores planetarios se debe aplicar a todos los cuerpos planetarios del universo. Estoy seguro de que ustedes deben conocer la ecuación de Drake (1) que intenta estimar el número de inteligencias que podrían existir en el universo, algo que se tiene en gran consideración en el SETI. ¿Se debería agregar un nuevo valor a esta fórmula que represente el tiempo esperado de vida del georreactor en un planeta tipo Tierra? Quizá en el núcleo de los planetas que forman ese escudo magnético a su alrededor, esté el secreto del surgir de la vida en ellos.

(1) Hoy ha sido refinada y está más ajustada a lo que podría ser.

 

 

 

Con los datos que tenemos en las manos, sabiendo que existen miles de millones de estrellas como el Son, del tipo G2V que están orbitadas por planetas (algunos como el nuestro), negar la posibilidad de que en ellos exista la vida… ¡Es dejar de lado la lógica!

 

Yo creo en una cosa, y esto puede desatar miles de discusiones: llegar desde materiales básicos a la creación del ser humano se basó en juntar los materiales (átomos), tener las leyes físicas actuando y a la casualidad (o azar). ¿Qué quiero decir con “casualidad”? Que la existencia de la vida está ligada a un sorteo permanente. Que hay una enormidad de cosas que son necesarias para que pueda haber vida (es innegable que se han dado en este planeta) y para que pueda continuar una vez producida. Que fue necesario un transcurso determinado de hechos y situaciones para que los microorganismos aparecieran, se propagaran, compitieran y se fueran haciendo más y más complejos. Que se debieron dar infinidad de circunstancias para que estos organismos se convirtieran en estructuras multicelulares y para que estas estructuras se organizaran en órganos ubicados dentro de seres complejos. Y que se necesitaron enormidad de coincidencias y hechos casuales para que las condiciones llevaran a algunos de estos seres terrestres, vertebrados, pequeños mamíferos (por los cuales durante una enormidad de tiempo ningún juez cósmico hubiese apostado), a evolucionar para convertirse en los animales que más influimos en este mundo: nosotros.

 

 

 

Resultado de imagen de Las condiciones necesarias para que, en un planeta la vida esté presente

 

En un Universo inmenso, encontrar planetas habitados… ¡No será nada fácil! Lo cual nos lleva a la frustración si tenemos en cuenta que, sólo en nuestra Galaxia, serán miles y cientos de miles pero… ¡Las distancias!

 

La cantidad de circunstancias, situaciones y condiciones en juego es enorme. En un libro muy interesante de Carl Sagan, anterior a Cosmos, llamado Vida inteligente en el Cosmos (junto a I. S. Shklovskii), se plantea muy bien este tema. Se puede encontrar allí una enumeración de las condiciones que requiere la vida y una especie como la nuestra para existir. Desde las características de nuestra galaxia, su edad, composición, situación, forma; a las de nuestro Sol, su sistema de planetas, la ubicación de la Tierra, su tamaño, su rotación, su inclinación, su composición, los vecinos que tiene… y mucho más.

 

 

 

 

Llegar a esta red compleja que es nuestra mente, ha costado, más de diez mil millones de años, el tiempo que necesitaron las estrellas para fabricar esos elementos de los que estamos hechos. El suministro de datos que llega en forma de multitud de mensajes procede de los sentidos, que detectan el entorno interno y externo, y luego envía el resultado a los músculos para dirigir lo que hacemos y decimos. Así pues, el cerebro es como un enorme ordenador que realiza una serie de tareas basadas en la información que le llega de los sentidos. Pero, a diferencia de un ordenador, la cantidad de material que entra y sale parece poca cosa en comparación con la actividad interna. Seguimos pensando, sintiendo y procesando información incluso cuando cerramos los ojos y descansamos. Pero sigamos.

Yo voy a agregar algunas cosas que me parecen significativas, que han surgido de los últimos descubrimientos y observaciones. Enumero algunas, aunque ya verán que hay más. Extinciones y cambios físicos producidos por impactos de asteroides; influencia de estrellas cercanas, fijas y viajeras; el “clima” interestelar; el “clima” galáctico; las circunstancias que han sufrido los otros planetas; nuestras circunstancias, nada comunes…

 

Extinciones

 

 

 

Grandes rocas errantes pululan por el Sistema Solar. Los asteroides no son ni cosa del pasado ni riesgos de muy baja probabilidad. Hay pruebas muy concretas sobre diversos impactos de consideración sobre nuestro mundo y, no hace mucho, tuvimos un ejemplo de ello. Encima, hasta parecen tener una regularidad.  No es sólo que tenemos la suerte de que en los últimos 10 millones de años no haya caído un gran asteroide en la Tierra, lo que nos hubiese hecho desaparecer incluso antes de que apareciéramos, sino que tenemos la suerte de que antes de eso sí cayeron de esos asteroides, y de que cambiaran las cosas a nuestro favor. ¿Estaríamos aquí si no hubiese impactado un cuerpo de unos 10 km de diámetro en el Caribe, más precisamente sobre el borde de la península de Yucatán, y hubiese producido una hecatombe para quienes reinaban en el mundo en esa época, los dinosaurios? ¿Quién puede saberlo? ¿Y si no hubiesen ocurrido las extinciones anteriores, fueran por las causas que fueran, estaríamos aquí? Quizás un día se sepa lo suficiente como para simular en computadoras una ecología planetaria entera y ver qué hubiera pasado. Será muy interesante.

Los asteroides cayeron, es un hecho. Y forman parte de las condiciones necesarias —algunos discutirán que no— para que estemos aquí… Veamos algunas nuevas informaciones:

 

 

Los Amonites fueron contemporáneos de los Dinosaurios. Los amonites eran una de las clases de moluscos cefalópodos que existieron en las eras del Devónico hasta el Cretácico. Hay de diferentes tipologías según la profundidad en la que estaban inmersos, dependiente las distintas zonas de todo el mundo. Al ser un fósil, poco se puede saber de las partes blandas de este organismo marino, suponiéndose que fueron similares a los actuales nautilos, cuyo cuerpo constaba de una corona de tentáculos en la cabeza que asoman por la abertura de la llamada concha. El fósil encontrado en las cercanías de El Chaltén pertenecería al cretácico inferior del estrato llamado Río MAYER, con una antigüedad de unos 500 millones de años.

 

 

 

Vivieron en la Tierra como duelo y selñores más de 150 millones de años.

 

Hace 380 millones de años se produjo una importante extinción entre los animales que poblaban el mar, en especial de los amonites, unos moluscos emparentados con los pulpos y calamares pero cubiertos con una concha espiralada y de tamaños a veces gigantescos. Nunco se supo por qué fue. Ahora surgen pistas de que esta mortalidad estuvo relacionada —igual que hace 65 millones de años, en el momento en que los dinosaurios dominaban nuestro mundo— con el impacto de un cuerpo extraterrestre.

Algunos geólogos dicen que hace unos 380 millones de años, un asteroide llegado desde el espacio golpeó contra la Tierra. Creen que el impacto eliminó una importante fracción de los seres vivos. Esta idea puede fortalecer la discutida conexión entre las extinciones masivas y los impactos. Hasta ahora, el único candidato para hacer esta relación era el meteoro que habría causado el exterminio de los dinosaurios, caído en la península de Yucatán, en México.

 

 

 

 

Brooks Ellwood, de Louisiana State University en Baton Rouge, Estados Unidos, dice que los signos de una antigua catátrofe coinciden con la desaparición de muchas especies animales. “Esto no quiere decir que el impacto en sí mismo haya matado a los animales; la sugerencia es que tuvo algo que ver.” Y agregó que hoy, aunque no se puedan encontrar rastros del cráter de una roca del espacio, se puede saber dónde ha caído.

Otros investigadores coinciden en que hubo un impacto más o menos en esa época, pero creen que la evidencia de que produjo una extinción masiva es muy débil. Claro que, tal valoración no está avalada por hechos y, si tenemos en cuenta el tiempos transcurrido desde los hechos, buscar pruebas materiales…no es nada fácil

 

 

 

 

El equipo de Ellwood descubrió rocas en Marruecos que fueron enterradas alrededor de 380 millones de años atrás bajo una capa de sedimento que parece formada por restos de una explosión cataclísmica. El sedimento tiene propiedades magnéticas inusuales y contiene granos de cuarzo que parecen haber experimentado tensiones extremas.

Más o menos para esa época se produjo la desaparición del registro fósil de alrededor del 40% de los grupos de animales marinos.

 

 

 

 

 

El geólogo Paul Wignall, de la Leeds University, Reino Unido, dice que hay una fuerte evidencia del impacto. Si se lo pudiese relacionar con una extinción masiva sería un gran hallazgo. Si fuera cierto, el potencial letal de los impactos crecería enormemente.

Pero no está claro cuántas desapariciones se produjeron en la época del impacto. Wignall dice que la mortalidad puede haber sido mucho menor que lo que sugiere el equipo de Ellwood. Él piensa que los paleontólogos deberían buscar las pistas que les den una mejor imagen de lo que pasó en aquella época.

El paleontólogo Norman MacLeod, que estudia las extinciones masivas en el Natural History Museum de Londres, coincide en que aunque 40% es el valor correcto para aquel período de la historia de la Tierra, no es una extinción masiva, sino parte de una serie de sucesos mucha más extensa. MacLeod duda de que las extinciones masivas sean resultado de intervenciones extraterrestres. “Los impactos son un fenómeno bastante común”, dice. “Pero no coinciden significativamente con los picos de extinción.”

 

Las estrellas vecinas

 

 

Resultado de imagen de Estrellas vecinas al sistema solar

 

 

Aunque nuestro entorno es inmenso, hemos llegado a conocer muy bien nuestra vecindad

 

Nuestro vecindario galáctico es muy humilde. Nada de supergigantes o exóticas estrellas de neutrones. La mayoría de estrellas vecinas -unas 41- son simples enanas rojas (estrellas de tipo espectral M), las estrellas más comunes del Universo. Cinco son estrellas de tipo K, dos de tipo solar (tipo G, Alfa Centauri  A y Tau  Ceti), una de tipo F (Procyon) y una de tipo A (Sirio). Los tipos espectrales se ordenan según la secuencia OBAFGKM, siendo las estrellas más calientes (y grandes) las de tipo O y las más pequeñas y frías las de tipo M (siempre y cuando estén en la secuencia principal, claro). Además tenemos tres enanas blancas y tres candidatas a enanas marrones. Como vemos, no nos podemos quejar. Hay toda una multitud de posibles objetivos para nuestra primera misión interestelar. ¿Cuál elegir?

 

 

 

 

El llamado Grupo Local de galaxias al que pertenecemos es, afortunadamente, una agrupación muy poco poblada, sino podríamos ser, en cualquier momento (o haber sido aún antes de existir como especie) destruidos en catástrofes cósmicas como las que ocurren en los grupos con gran población de galaxias. Los astrónomos comprenden cada vez más el porqué de las formas de las galaxias, y parece que muchas (incluso la nuestra) han sufrido impactos contra otras para llegar a tener la figura que tienen. Gracias al telescopio espacial Hubble se están viendo en los últimos tiempos muy buenas imágenes de colisiones entre galaxias.

 

El “clima” interestelar

 

 

La Nube Interestelar Local se encuentra dentro de una estructura mayor: la Burbuja Local. La Burbuja Local es una acumulación de materia aún mayor, procedente de la explosión de una o varias supernovas que estallaron hace entre dos y cuatro millones de años. Pero aunque estemos atravesando ahora mismo la Nube Interestelar y la Burbuja locales, nuestra materia no procede de ellas. Sólo estamos pasando por ahí en este momento de la historia del universo. Entramos hace unos cinco millones de años, y saldremos dentro de otros tantos. Nuestro sistema solar –y la materia que contiene, incluyéndonos a ti y a mí– se formó mucho antes que eso, hace más de 4.500 millones de años.

 

 

Cinturón de Gould

 

 

“Banda de estrellas calientes y brillantes que forman un círculo alrededor del cielo. Representa una estructura local de estrellas jóvenes y material interestelar inclinada unos 16º con respecto al plano galáctico. Entre los componentes más prominentes del cinturón se encuentran las estrellas brillantes de Orión, Can mayor, constelación de la Popa, Carina, Centauro y Escorpio, incluyendo la asociación Sco-Cen. El cinturón tiene el diámetro de unos 3.000 años luz (alrededor de una décima parte del radio de la Galaxia), hallándose el Sol en él. Visto desde la Tierra, el Cinturón de Gould se proyecta por debajo del plano de nuestra Galaxia desde el borde inferior del Brazo de Orión, y por encima en la dirección opuesta. El cinturón se estima que tiene unos 50 millones de años de antigüedad, aunque su origen es desconocido. Su nombre proviene del astrónomo Benjamin Apthorp Gould, quien lo identificó durante la década de 1879.”

 

 

 

 

Al parecer, la Vía Láctea, nuestra galaxia, reside dentro de una “burbuja local” en una red de cavidades en el medio interestelar que probablemente fue esculpida por estrellas masivas que explotaron hace millones de años. Se le llama Medio Interestelar a la materia que existe en el espacio y que se encuentra situada entre los sistemas estelares. Esta materia está conformada por gas en forma de iones, átomos y moléculas, además de gas y rayos cósmicos.

Nuestra Burbuja Local forma a su vez parte del Cinturón de Gould que presentamos más arriba.  El Cinturón de Gould es ya una estructura mucho más compleja y mayor. Es un anillo parcial de estrellas, de unos 3.000 años luz de extensión. ¿Recuerdas aquella nave espacial tan rápida que utilizamos antes? Pues con ella, tardaríamos 12.800.000 años en atravesarlo por completo. Vaya, esto empieza a ser mucho tiempo.

 

 

binocular

 

 

La Burbuja Local es una cavidad en el medio interestelar en el Brazo de Orión de la Vía Láctea. Tiene al menos un diámetro de 300 años luz. El gas caliente y difuso en la Burbuja Local emite rayos X.

 

 

 

 

 

Vivimos dentro de una burbuja. El planeta, el Sistema Solar, nuestro grupo local. El estallido de una supernova ha dejado un resto fósil en nuestro entorno: creó una enorme burbuja en el medio interestelar y nosotros nos encontramos dentro de ella. Los astrónomos la llaman “Burbuja local”. Tiene forma de maní, mide unos trescientos años luz de longitud y está prácticamente vacía. El gas dentro de la burbuja es muy tenue (0,001 átomos por centímetro cúbico) y muy caliente (un millón de grados), es decir, mil veces menos denso y entre cien y cien mil veces más caliente que el medio interestelar ordinario. Esta situación tiene influencia sobre nosotros, porque estamos inmersos dentro. ¿Qué pasaría si nos hubiese tocado estar dentro de una burbuja de gases ardientes resultantes de una explosión más reciente o de otro suceso catastrófico? ¿O si estuviésemos en una zona mucho más fría del espacio? No estaríamos aquí.

 

 

 

 

 

 

En algunos lugares de la Tierra, podemos ir viajando por caminos y carreteras y encontrarnos de frente con imágenes que, por su magnificencia, ¡asustan! Nuestra galaxia está en movimiento constante. No es una excepción en relación con el resto del universo. La Tierra se mueve alrededor del Sol, este último gira en torno a la Vía Láctea, y la gran mancha blanca a su vez forma parte de súper cúmulos que se mueven en relación a la radiación remanente de la gran explosión inicial. Pero hablemos del…

 

 ”Clima” galáctico

 

 

 

 

Dado que la Vía Láctea se está moviendo hacia la constelación de Hydra con una velocidad de 550 km / s, la velocidad del sol es de 370 km / s, …

La galaxia en que vivimos podría tener una mayor influencia en nuestro clima que lo que se pensaba hasta ahora. Un reciente estudio, controvertido aún, asegura que el impacto de los rayos cósmicos sobre nuestro clima puede ser mayor que el del efecto invernadero que produce el dióxido de carbono.

 

 

Imagen relacionada

 

 

 

Según uno de los autores de este estudio, el físico Nir Shaviv de la Universidad Hebrea de Jerusalén, en Israel, el dióxido de carbono no es tan “mal muchacho” como dice la gente. Shaviv y el climatólogo Ján Veizer de la Universidad Ruhr, de Alemania, estiman que el clima terrestre, que exhibe subas y bajas de temperatura global que al graficarse forman una figura de dientes de sierra, está relacionado con los brazos espirales de nuestra galaxia. Cada 150 millones de años, el planeta se enfría a causa del impacto de rayos cósmicos, cuando pasa por ciertas regiones de la galaxia con diferente cantidad de polvo interestelar.

 

 

               

Los rayos de todo tipo se nos vienen encima desde todos los rincones del Universo, y, algunos no llegan a la superficie de nuestro planeta gracias al escudo protector que salvaguarda nuestra integridad física.

 

 

 


Los rayos cósmicos provenientes de las estrellas moribundas que hay en los brazos de la Vía Láctea, ricos en polvo, incrementan la cantidad de partículas cargadas en nuestra atmósfera. Hay algunas evidencias de que esto ayuda a la formación de nubes bajas, que enfrían la Tierra.

Shaviv y Veizer crearon un modelo matemático del impacto de rayos cósmicos en nuestra atmósfera. Compararon sus predicciones con las estimaciones de otros investigadores sobre las temperaturas globales y los niveles de dióxido de carbono a lo largo de los últimos 500 millones de años, y llegaron a la conclusión de que los rayos cósmicos por sí solos pueden ser causa del 75% de los cambios del clima global durante ese período y que menos de la mitad del calentamiento global que se observa desde el comienzo del siglo veinte es debido al efecto invernadero.

La teoría, como es normal en la ciencia, no es del todo aceptada. Los expertos en clima mundial están a la espectativa, considerando que algunas de las conexiones que se han establecido son débiles. Se debe tener en cuenta, dicen los paleontólogos, que se trata de una correlación entre la temperatura, que es inferida de los registros sedimentarios, de la cantidad de dióxido de carbono, que se deduce del análisis de conchas marinas fosilizadas, y de la cantidad de rayos cósmicos, que se calculan a partir de los meteoritos. Las tres técnicas están abiertas a interpretaciones. Además, uno de los períodos fríos de la reconstrucción matemática es, en la realidad, una época que los geólogos consideran caliente. De todos modos, también hay muchos otros que están muy interesados e intrigados.

 

 

Resultado de imagen de Los rayos cósmicos que nos afectan

 

 

La variabilidad solar afecta la cantidad de rayos cósmicos que impactan a nuestro planeta. El Sol produce radiaciones similares a los rayos cósmicos, especialmente en el período más caliente, llamado máximo solar (maximum), de su ciclo de 11 años. Estudios anteriores no pudieron separar el impacto climático de esta radiación, de los rayos cósmicos que llegan desde la galaxia y de la mayor radiación calórica que llega desde el Sol.

 

 

Los otros planetas y la Luna

 

 

 

 

 

 

Recientemente, se ha anunciado el hallazgo de un sistema planetario que podría ser similar al nuestro. En realidad no se ha logrado aún una observación tan directa que permita afirmarlo, sino que se deduce como posibilidad. Este sistema presenta un planeta gaseoso gigante similar a nuestro Júpiter, ubicado a una distancia orbital similar a la que tiene Júpiter en nuestro sistema. El sol es similar al nuestro, lo que deja lugar a que haya allí planetas ubicados en las órbitas interiores, dentro de la franja de habitabilidad en la que la radiación solar es suficiente para sostener la vida y no es excesiva como para impedirla.

 

 

 

Resultado de imagen de La vida primigenia en la Tierra

Cuando la Tierra comenzó a enfriarse, aparecieron las primeras células vivas, hace 3.800 M. de años

 

Si nuestro sistema no tuviese las características que posee, la vida en la Tierra tendría problemas. Por ejemplo, podría haber planetas, planetoides o grandes asteroides (de hecho algo hay) que giraran en planos diferentes y con órbitas excéntricas y deformes. Cuerpos así podrían producir variaciones cíclicas que hicieran imposible —o difícil— la vida. Venus parece haber sufrido un impacto que le cambió el sentido de rotación sobre sí mismo. Es posible que este impacto también haya desbaratado su atmósfera y su clima. Podría habernos pasado a nosotros, y de hecho parecería que nos ocurrió, sólo que fue durante el génesis del sistema planetario y además (otra gran casualidad y premio cósmico) nos dejó a la Luna, excelente compañera para facilitar la vida.

 

 

 

           ¿Características especiales de nuestro mundo?

 

 

Según una teoría del geofísico J. Marvin Herndon, la Tierra es una gigantesca planta natural de generación nuclear. Nosotros vivimos en su delgada coraza, mientras a algo más de 6.000 kilómetros bajo nuestros pies se quema por la fisión nuclear una bola de uranio de unos ocho kilómetros de diámetro, produciendo un intenso calor que hace hervir el metal del núcleo, lo que produce el campo magnético terrestre y alimenta los volcanes y los movimientos de las placas continentales.

La cosa no acaba aquí: si el calor del reactor es el que produce la circulación de hierro fundido (por convección) que genera el campo magnético terrestre, entonces los planetas que no tienen su reactor natural no tendrían un campo magnético (magnetósfera) que los proteja de las radiaciones de su sol —como Marte y la Luna— lo que hace que difícilmente puedan sostener vida.

Pero ésta es sólo una teoría. Lo que está más en firme es que nuestro mundo y su luna forman un sistema muy particular, mucho más estable que si se tratara de un planeta solitario. Gracias a esto —a nuestra Luna— tenemos un clima más o menos estable, conservamos la atmósfera que tenemos y la velocidad y el ángulo de nuestro giro son los que son. Si no estuviese la Luna, el planeta se vería sujeto a cambios en su eje de rotación muy graves para los seres vivos, y, lo cierto es que…

 

 

¿Qué pasaría si no tuviéramos Luna?

 

 

La Tierra es única entre los planetas rocosos por tener una luna relativamente grande. La Luna ocupa el 5to lugar en diámetro entre todos los satélites del Sistema Solar. Tiene el 27% del diámetro de la Tierra y sólo tiene 1/81 de su masa.

 

 

Astronomia

Claramente, la Luna ha jugado un papel en la evolución de la vida en la Tierra, aunque no está del todo claro que tan necesaria era. Las Inundaciones periódicas a través de las mareas habrían proporcionado un impulso inicial a la selección natural, llevando la vida a colonizar la tierra. Muchas criaturas como las tortugas marinas se aprovechan de la luna llena como una señal para anidar y reproducirse, aunque la vida es, sin duda, suficientemente tenaz para encontrar métodos alternativos.

emilio silvera

Sistemas planetarios por doquier

Autor por Emilio Silvera    ~    Archivo Clasificado en Nuevos mundos    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

Cómo Sería la Nueva Generación de Planetas del Tamaño de la Tierra Recién Descubiertos

 

 

 

Resultado de imagen de Nuevos Sistemas planetarios Trappist 1

Estrella enana roja o M, mucho más pequeña que el Sol pero con muchos más años de vida, ya que, su actividad de fusión nuclear es pequeña y el comnustible de fusión le dura miles de millones de años, de hecho, más que edad tiene el Universo ahora.

24.02.17.- Un grupo de siete planetas del tamaño de la Tierra apiñados alrededor de una estrella enana roja ultrafría podrían ser poco más que trozos de rocas expulsados por la radiación, o mundos cubiertos de nubes donde podría hacer un calor tan achicharrante como en Venus.

O quizás podrían albergar formas de vida exóticas, prosperando bajo el crepúsculo rojizo del cielo.

Los científicos están considerando las posibilidades después del anuncio de esta semana: el descubrimiento de siete mundos en órbita alrededor de una estrella pequeña y fría, situado a unos 40 años luz de distancia, todos ellos aproximadamente como nuestro planeta en términos de peso (masa) y tamaño (diámetro ). Tres de los planetas residen en la “zona habitable” alrededor de su estrella, TRAPPIST-1, donde los cálculos sugieren que las condiciones podrían ser las adecuadas para que exista agua líquida en su superficie, aunque se necesitan observaciones de seguimiento para estar seguros.

Los siete son los primeros embajadores de una nueva generación de objetivos en la búsqueda de planetas.

 

 

Esta concepto artístico apareció el 23 de Febrero de 2017 en la portada de la revista Nature anunciando que la estrella TRAPPIST-1, una enana ultrafría, tiene siete planetas orbitándola del tamaño de la Tierra. Cualquiera de estos planetas podrían tener agua líquida. Los planetas que están más lejos de la estrella son más propensos a tener cantidades significativas de hielo. Image Credit: NASA-JPL/Caltech

 

Las estrellas enanas rojas – también llamadas “enanas M” – superan en número a otras, incluyendo las estrellas amarillas como nuestro Sol, por un factor de tres a uno, que comprende casi el 75 por ciento de las estrellas de nuestra galaxia. También duran mucho más tiempo. Y sus planetas son proporcionalmente más grandes en comparación con las pequeñas estrellas que orbitan. Eso significa que los pequeños mundos rocosos que orbitan alrededor de las enanas rojas cercanas serán los principales objetivos para los nuevos telescopios de gran alcance, que entrarán en funcionamiento en los próximos años, tanto en el espacio como en tierra.

“La mayoría de las estrellas son enanas M, que son débiles y pequeñas y no muy luminosas,” dijo Martin Still, científico del programa en la sede de la NASA en Washington. “Así que la mayoría de los lugares en los que se buscarían planetas es alrededor de estas pequeñas y frías estrellas. Estamos interesados en las estrellas más cercanas, y las estrellas más cercanas son en su mayoría enanas M “.

Pero seguramente serán planetas desconcertantes, con extrañas propiedades que deberán ser examinados cuidadosamente, así como la realización de simulaciones por ordenador. Averiguar si pueden soportar alguna forma de vida, y de qué tipo, es probable que mantenga a los astrobiólogos que trabajan haciendo horas extras, tal vez intentando recrear en laboratorio algunas de las condiciones en estos mundos teñidos de rojo.

“Definitivamente estamos todos trabajando y haciendo horas extras ahora”, dijo Nancy Kiang, astrobióloga del Instituto Goddard de Estudios Espaciales en Nueva York.

 

 

 Imagen relacionada

 

 

La opinión de los expertos acerca de si los planetas de enanas rojas son adecuados para albergar vida tiende a ir de un lado a otro, “como un péndulo,” dijo Shawn Domagal-Goldman, científico de investigación espacial en el Centro de Vuelo Espacial Goddard de la NASA en Greenbelt, Maryland.

“Nosotros hemos propuesto estas razones teóricas para las que tal planeta podría tener dificultades de ser habitable”, dijo. “Entonces nos fijamos en esas preocupaciones teóricas con un poco más de detalle, y comprobamos que no es tan grande esa preocupación. Luego siempre surge alguna otra preocupación teórica.”

Por el momento, el péndulo no se detiene de nuevo hacia la falta de vida. Los resultados recientes sugieren que la vida tendría una batalla cuesta arriba en un planeta cerca de una enana roja, en gran parte debido a que estas estrellas son muy activas en sus primeros años – disparando bengalas potencialmente letales y explosiones de radiación.

 

 

Resultado de imagen de Nuevos Sistemas planetarios Trappist 1

 

 

Estas rabietas juveniles continuarían durante bastante tiempo. Las enanas rojas arden con mucha menos energía que nuestro sol, pero viven mucho más tiempo, tal vez con una esperanza de vida en miles de millones de años – más larga que la edad actual del universo.

La edad exacta de la estrella TRAPPIST-1 es desconocida, pero los científicos creen que tiene por lo menos 500 millones de años, o aproximadamente un décima de la edad de nuestro sol de 4.500 millones de años.

Las enanas rojas podrían emplear sus primeros mil millones de años sólo para calmarse lo suficiente como para permitir que los planetas cercanos pudiesen ser habitables. Y la “zona habitable” alrededor de tales estrellas se encuentra muy cerca, de hecho. Los siete planetas del tamaño de la Tierra están tan cerca de su estrella que completan una sola órbita – su “año” – en cuestión de días, 1,5 días para el planeta más cercano y 20 días para el más lejano.

Ese tipo de proximidad significa que los planetas sufren fuerzas de marea, con una cara siempre mirando hacia la estrella, de la misma manera nuestra luna presenta sólo una cara a la Tierra.

 

 

 

 

Esta ilustración muestra los siete planetas que orbitan TRAPPIST -1, y como se verían desde la Tierra usando un increíblemente poderoso telescopio de ficción. Image Credit: NASA-JPL/Caltech

Un estudio reciente que se basaba en simulaciones por ordenador de los planetas de las enanas rojas, sin embargo, concluyó en más malas noticias. Las enanas rojas jóvenes, con sus estallidos de rayos X de alta energía y las emisiones ultravioleta, de hecho podrían coartar el oxígeno de la atmósfera de los planetas cercanos, según el estudio realizado por un equipo de la NASA de Goddard dirigido por Vladimir Airapetian.

Otros escenarios implican la eliminación de la atmósfera por completo. Pero estas suposiciones están basadas en modelos informáticos complejos, según ha dicho Franck Selsis de la Universidad de Burdeos, uno de los autores del artículo de TRAPPIST-1.

Resultado de imagen de Nuevos Sistemas planetarios Trappist 1

Dado que los modelos informáticos contienen ciertas suposiciones acerca de las estrellas y planetas, pueden no ser completos, según Selsis. Los modelos pueden fallar al suponer los efectos de la estrella en las atmósferas planetarias, que podrían crear un campo magnético protector. O pueden producir tasas de pérdida atmosférica tan altas que son físicamente improbables.

En cuanto a TRAPPIST-1, “La tranquilidad relativa actual de la estrella y las fuentes plausibles de reposición atmosférica aún hacen posible que los planetas puedan tener atmósferas y condiciones habitables en su superficie”, dijo Michael Gillon, investigador principal de TRAPPIST en la Universidad de Lieja, Bélgica . “Nuestra única manera de ir más allá de estas especulaciones teóricas es intentar detectar y estudiar a fondo sus atmósferas.”

Otros científicos también ofrecen posibles escenarios en el lado optimista de la ecuación de habitabilidad de la enana-M.

“Tal vez la atmósfera se pueda recuperar, y esté muy bien,” dijo Tom Barclay, científico de investigación senior en el Centro de Investigación Ames de la NASA en Moffett Field, California. Barclay trabajó en la búsqueda de planetas con el telescopio espacial Kepler de la NASA, tanto durante su misión original y su segunda misión, conocida como K2.

Imagen relacionada

La inmensa actiivda de las jóvenes enanas rojas, pueden expulsar las atmósferas de planetas cercanos

En el escenario de Barclay, las formas de vida podrían encontrar una manera de adaptarse a las ráfagas de radiación estelar.

“Ciertamente vemos la vida en la Tierra capaz de hibernar durante períodos muy prolongados de tiempo. Vemos que la vida entra en un estado en el que se apaga, a veces durante años o décadas. Así que creo que no deberíamos, probablemente, descartarlo, pero hay que poner mucho esfuerzo en el estudio de si se trata de un lugar donde creemos que la vida podría prosperar “.

Resultado de imagen de El James Webb

Los futuros telescopios, incluyendo el Telescopio Espacial James Webb de la NASA (JWST), que será lanzado en 2018, podrían ayudar a resolver estas cuestiones mediante el análisis de cerca de los gases de la atmósfera de los planetas de TRAPPIST-1.

Resultado de imagen de El Hubble

El telescopio espacial Hubble también será un jugador clave en la caracterización de las atmósferas de los planetas de TRAPPIST-1 y, de hecho, ya ha comenzado un estudio preliminar. Ambos telescopios espaciales están equipados para capturar el espectro de la luz de los planetas, que revela los tipos de gases que están presentes.

“Vamos a mirar en las atmósferas con en diferentes longitudes de onda, que nos permita obtener la composición, temperatura, presión,” dijo Julien de Wit, investigador posdoctoral en el Instituto de Tecnología de Massachusetts, Cambridge, y un autor del nuevo documento de TRAPPIST-1 . “Esto nos permitirá restringir la habitabilidad.”

En cualquier caso, si estos planetas poseen vida, las formas de vida simples parecen ser más probables.

“Estoy hablando de limo aquí,” dijo Meadows. “La mayor parte de la vida que nos encontremos es probable que sea una sola célula, la vida relativamente primitiva. Ese es el tipo de cosas que estaríamos buscando en planetas que orbitan estas enanas M “.