sábado, 26 de abril del 2025 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




Siempre elucubrando ¡Imaginación!

Autor por Emilio Silvera    ~    Archivo Clasificado en El Universo y la Entropía    ~    Comentarios Comments (3)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

 Descartan que los efectos atribuidos a la energía oscura sean explicables por nuestra presencia en el centro de un gran vacío cósmico. Es curioso como la Ciencia (mejor algunos científicos), cuando no saben dar una explicación autosuficiente y realmente científica de los fenómenos observados, hacen un ejercicio de imaginación y se inventan las respuestas alegando causas que, de ninguna manera han podido ser probadas, sino que, como simples conjeturas, a base de repetirlas, finalmente quedan como algo que realmente puede existir.


El “descubrimiento de la energía oscura”, esa energía que no podemos ver y que parece aumentar el ritmo de expansión del Universo, supuso, en su momento, mucha agitación en la comunidad científica. A la incredulidad inicial se impusieron las medidas. Pero al cabo de un tiempo el trabajo de los teóricos empezó a cuestionar, no los efectos observados, sino la existencia misma de tal energía.

El “Principio Copernicano”, invocado frecuentemente en la Cosmología moderna, insiste en la homogeneidad del Universo, negando cualquier primacía de posición o propiedades asociadas con la existencia humana. Toma su nombre de la propuesta de Copérnico (ya anteriormente formulada por Aristarco) de desplazar a la Tierra de la posición central ocupada en el sistema de Tolomeo, aunque tal centralidad se debiese a la falta de paralaje estelar y no a una sobrevaloración de nuestra existencia en el planeta.

El paso siguiente lo dio Shapley hace un siglo, al mostrar que tampoco el Sol ocupa el centro de la Via Láctea. Finalmente, el Universo “finito pero ilimitado” de Einstein niega la posibilidad de encontrar un centro en su volumen tridimensional, y afirma la equivalencia de posición de todos los puntos del espacio. No tiene sentido preguntar dónde estamos en el continuo expandirse de un Universo que contiene probablemente más de 100.000 millones de galaxias, y que vuelve a la insignificancia aunque  majestuosa estructura de la Vía Láctea, nuestra ciudad cósmica.

         En esta imagen captada por el Hubble podemos ver un “trocito” de universo que es inmenso

Sin embargo, a partir de la década de los años 30, se da una reacción interesante, que afirma, cada vez con argumentos más fuertes y detallados, que el Hombre está en un tiempo y un lugar atípicos y privilegiados en muchos respectos, que obligan a preguntarnos si nuestra existencia está ligada en un modo especial a características muy poco comunes en el Universo. Esta pregunta adquiere un significado especial al considerar las consecuencias previsibles (según las leyes físicas) de cualquier alteración en las condiciones iniciales del Universo. Con un eco de las palabras de Einstein¿tuvo Dios alguna alternativa al crear?. No solamente debemos dar razón de que el Universo exista, sino de que exista de tal manera y con tales propiedades que la vida inteligente puede desarrollarse en él. Tal es la razón de que se formule el Principio Antrópico, en que el Hombre (entendido en el sentido filosófico de “animal racional”, independientemente de su hábitat y su morfología corporal) aparece como condición determinante de que el Universo sea como es.

extraterrestre

No podemos ser tan egoistas y creer, que en miles de millones de mundos repartidos por las “infinitas” galaxias del Universo, sólo un planeta rocoso y pequeño como la Tierra, ha tenido el privilegio de albergar la vida. Si echamos una mirada a la Historia del planeta, podemos constatar que en él han vivido muchísimas criaturas que ya no están presentes, no supieron adaptarse a los cambios y se extinguieron. Ahora mismo sólo el 1% de las especies que han existido, están aquí presentes. Si nos paramos a pensar que el Universo es homogéneo y que las leyes que lo rigen son las mismas en todas partes, que los elementos formados en las estrellas son siempre los mismos, que las constantes unioversales como la velocidad de la luz, la constante de estructura fina o la constante de Planck, nunca varian… Entonces debemos pensar que, la Vida, también estará presente en todos aquellos lugares que las condiciones lo permitan.

Las primeras sugerencias de una conexión entre vida inteligente y las propiedades del Universo en su momento actual aparecen en las relaciones adimensionales hechas notar por Eddington: la razón de intensidad entre fuerza electromagnética y fuerza gravitatoria entre dos electrones, entre la edad del Universo y el tiempo en que la luz cruza el diámetro clásico de un electrón, entre el radio del Universo observable y el tamaño de una partícula subatómica, nos da cifras del orden de 10 elevado a la potencia 40. El número de partículas nucleares en todo el cosmos se estima como el cuadrado de ese mismo número. ¿Son éstas coincidencias pueriles o esconden un significado profundo?. La hipótesis de los grandes números sugiere que el Hombre solamente puede existir en un lugar y momento determinado, cuando tales coincidencias se dan, aunque no se avanza una explicación de estas relaciones.”

        Arthur Eddintong

Una versión más especulativa, el principio antrópico fuerte, asegura que las leyes de la física deben tener propiedades que permitan evolucionar la vida. La implicación de que el universo fue de alguna manera diseñado para hacer posible de la vida humana hace que el principio antrópico fuerte sea muy controvertido, ya que nos quiere adentrar en dominios divinos que, en realidad, es un ámbito incompatible con la certeza comprobada de los hechos a que se atiene la ciencia, en la que la fe, no parece tener cabida.

            Una cosa es lo que la Ciencia nos enseña y otra, muy distinta, lo que la religión y la fe nos predica.

Es decir, problema del ajuste fino significa que las las constantes fundamentales de un modelo físico para el universo deben ser ajustados de forma precisa para permitir la existencia de vida. Sobre estas constantes fundamentales no hay nada en la teoría que nos indique que deban tomar esos valores que toman. Podemos fijarlas de acuerdo con las observaciones, pero esto supone fijarlas de entre un rango de valores colosal. Esto da la impresión de cierta arbitrariedad y sugiere que el universo podría ser una realización improbable entre tal rango de valores. He ahí el problema.

No, no tenemos el mundo en nuestras manos… sino al revés, es el mundo el que nos tiene a nosotros… al menos de momento es así. ¿El futuro? ¿Quién puede conocerlo? Lo que pasará y hasta donde podamos llegar es algo impredecible y sólo nos podemos contentar con imaginar lo que podría ser. De momento, formamos una Población del Tipo Cero, es decir, no controlamos ni nuestro propio planeta.

Es cierto que, al tener el conocimiento de cómo funciona el Universo, es difícil imaginar la presencia de una divinidad hacedora de mundos, forjadora de estrellas y constructora de galaxias. Lejos quedan ya aquellas historias que de pequeños nos contaban en la escuela primaria y nos hablaban de hacer el mundo en siete días. Si contáramos los mundos que existen en el Universo y la divinidad tuvciera que haberlos hechos a razón de siete días cada uno, ni los 13.700 millones de años que tiene el Universo, hubiera sido tiempo suficiente para tanto trabajo.

¿Cuál es el verdadero sentido de la teoria del diseño inteligente?

TEORIA DE LAMARCK: Doctrina evolucionista expuesta por el frances

Lamarck, en 1809, en su obra filosofia zoologica.

El principio antrópico nos invita al juego mental de probar a “cambiar” las constantes de la naturaleza y entrar en el juego virtual de ¿qué hubiera pasado si…? A lo que somos tan aficionados para tratar, aunque sólo sea mentalmente, lo que pudo o no pudo ser en función de éste o aquél parámetro que introducimos de manera imaginaria.

Especulamos con lo que podría haber sucedido si algunos sucesos no hubieran ocurrido de tal o cual manera para ocurrir de esta otra. ¿Qué hubiera pasado en el planeta Tierra si no aconteciera en el pasado la caída del meteorito que acabó con los dinosaurios? ¿Habríamos podido estar aquí hoy nosotros? ¿Fue ese cataclismo una bendición para nosotros y nos quitó de encima a unos terribles rivales?

Fantasean con lo que pudo ser…. Es un ejercicio bastante habitual; sólo tenemos que cambiar la realidad de la historia o de los sucesos verdaderos para pretender fabricar un presente distinto. Cambiar el futuro puede resultar más fácil, nadie lo conoce y no pueden rebatirlo con certeza. ¿Quién sabe lo que pasará mañana?

Lo cierto es que, todos son Quarks y Leptones que interactuan con energías y fuerzas que no podemos controlar y, el devenir del Universo será imparable para nosotros, simples mortales que, a veces nos olvidamos de ese pequeño detalle y pensamos en realizar y conseguir logros que quedan muy lejos de nuestro alcance.

Siempre estamos imaginando el futuro que vendrá. Los hombres tratan de diseñarlo pero, finalmente, será el Universo el que tome la última palabra de lo que deba ser. Por mucho que nosotros nos empeñemos, las estructuras del Universo nunca podrán ser cinceladas por nuestras manos ni por nuestros ingenios, sólo las inmensas fuerzas de la Naturaleza puede transformar las estrellas, las galaxias o los mundos…lo demás, por muy bello que pudiera ser, siempre será lo artificial.

Lo que ocurra en la naturaleza del universo está en el destino de la propia naturaleza del cosmos, de las leyes que la rigen y de las fuerzas que gobiernan su mecanismo sometido a principios y energías que, en la mayoría de los casos se pueden escapar a nuestro actual conocimiento.

Lo que le pueda ocurrir a nuestra civilización, además de estar supeditado al destino de nuestro planeta, de nuestro Sol y de nuestro Sistema Solar y la galaxia, también está en manos de los propios individuos que forman esa civilización y que, con sensibilidades distintas y muchas veces dispares, hace impredecibles los acontecimientos que puedan provocar individuos que participan con el poder individual de libre albedrío.

Siempre hemos sabido especular con lo que pudo ser o con lo que podrá ser si…, lo que, la mayoría de las veces, es el signo de cómo queremos ocultar nuestra ignorancia. Bien es cierto que sabemos muchas cosas pero, también es cierto que son más numerosas las que no sabemos.

Cuando el Sol agote todo su combustible nuclear, estará acercándose el final de la Tierra como planeta que albergó la vida. Los cambios serán irreversibles, los océanos se evaporarán y sus aguas hirvientes comenzarán a llenar la atmósfera de gases. La Gigante roja engullirá a los planetas Mercurio, Venus y probablemente se quedará muy cerca de la Tierra calcinada y sin vida.

Sabiendo que el destino irremediable de nuestro mundo, el planeta Tierra, es de ser calcinado por una estrella gigante roja en la que se convertirá el Sol cuando agote la fusión de su combustible de hidrógeno, helio, carbono, etc, para que sus capas exteriores de materia exploten y salgan disparadas al espacio exterior, mientras que, el resto de su masa se contraerá hacia su núcleo bajo su propio peso, a merced de la gravedad, convirtiéndose en una estrella enana blanca de enorme densidad y de reducido diámetro. Sabiendo eso, el hombre está poniendo los medios para que, antes de que llegue ese momento (dentro de algunos miles de millones de años), poder escapar y dar el salto hacia otros mundos lejanos que, como la Tierra ahora, reúna las condiciones físicas y químicas, la atmósfera y la temperatura adecuadas para acogernos.

                                                   Esto podría ser lo que quede de nuestro Sol


Pero el problema no es tan fácil y se extiende a la totalidad del universo que, aunque mucho más tarde, también está abocado a la muerte térmica, el frío absoluto si se expande para siempre como un universo abierto y eterno, o el más horroroso de los infiernos, si estamos en un universo cerrado y finito en el que, un día, la fuerza de gravedad, detendrá la expansión de las galaxias que comenzarán a moverse de nuevo en sentido contrario, acercándose las unas a las otras de manera tal que el universo comenzará, con el paso del tiempo, a calentarse, hasta que finalmente, se junte toda la materia-energía del universo en una enorme bola de fuego de millones de grados de temperatura, el Big Crunch.

                      Un universo replegándose sobre sí mismo

El irreversible final está entre los dos modelos que, de todas las formas  que lo miremos, es negativo para la Humanidad (si es que para entonces aún existe). En tal situación, algunos ya están buscando la manera de escapar.

Stephen Hawking ha llegado a la conclusión de que estamos inmersos en un multiuniverso, esto es, que existen infinidad de universos conectados los unos a los otros. Unos tienen constantes de la naturaleza que permiten vida igual o parecida a la nuestra, otros posibilitan formas de vida muy distintas y otros muchos no permiten ninguna clase de vida.

Este sistema de inflación autorreproductora nos viene a decir que cuando el universo se expande (se infla) a su vez, esa burbuja crea otras burbujas que se inflan y a su vez continúan creando otras nuevas más allá de nuestro horizonte visible. Cada burbuja será un nuevo universo, o mini-universo en  los que reinarán escenarios diferentes o diferentes constantes y fuerzas.

¿Quién sabe la realidad? ¿Donde estamos? ¿Está solo el Universo? ¿Y nosotros, que vecinos tendremos?

El escenario que describe el diagrama dibujado antes, ha sido explorado y el resultado hallado es que en cada uno de esos mini-universos, puede haber muchas cosas diferentes; pueden terminar con diferentes números de dimensiones espaciales o diferentes constantes y fuerzas de la naturaleza, pudiendo unos albergar la vida y otros no.

El reto que queda para los cosmólogos es calcular las probabilidades de que emerjan diferenta mini-universos a partir de esta complejidad inflacionaria ¿Son comunes o raros los mini-universos como el nuestro? Existen, como para todos los problemas planteados, diversas conjeturas y consideraciones que influyen en la interpretación de cualquier teoría cosmológica futura cuántico-relativista. Hasta que no seamos capaces de exponer una teoría que incluya la relatividad general de Einstein (la gravedad-cosmos) y la mecánica cuántica de Planck (el cuanto-átomo), no será posible contestar a ciertas preguntas.

En diez y once dimensiones nos quiere explicar todo el universo

La teoría de cuerdas tiene un gancho tremendo. Te transporta a un mundo de 11 dimensiones, universos paralelos, y partículas formadas por cuerdecitas casi invisibles vibrando a diferentes frecuencias. Además, te dice que no se trata de analogías sino de la estructura más profunda de la realidad, y que ésta podría ser la teoria final que unificara por fin a toda la física. ¿No estaremos hablando de Filosofía?

Todas las soluciones que buscamos parecen estar situadas en teorías más avanzadas que, al parecer, sólo son posibles en dimensiones superiores, como es el caso de la teoría de supercuerdas situada en 10, 11 ó 26 dimensiones. Allí, si son compatibles la relatividad y la mecánica cuántica, hay espacio más que suficiente para dar cabida a las partículas elementales, las fuerzas gauge de Yang-Mill, el electromagnetismo de Maxwell y, en definitiva, al espacio-tiempo y la materia, la descripción verdadera del universo y de las fuerzas que en él actúan.

                Si algún día encontramos la llave del Hiperespacio… ¡Podremos burlar la velocidad de la Luz!

Científicamente, la teoría del hiperespacio lleva los nombres de Teoría de Kaluza-Klein y supergravedad. Pero en su formulación más avanzada se denomina Teoría de Supercuerdas, una teoría que desarrolla su potencial en nueve dimensiones espaciales y una de tiempo: diez dimensiones. Así pues, trabajando en dimensiones más altas, esta teoría del hiperespacio puede ser la culminación que conoce dos milenios de investigación científica: la unificación de todas las fuerzas físicas conocidas. Como el Santo Grial de la Física, la “teoría de todo” que esquivó a Einstein que la buscó los últimos 30 años de su vida.

               El sueño incumplido de Einstein fue hallar esa Teoría del Todo, Que todos los engranajes del Universo funcionaran al unísono y que lo pudiéramos comprender.

Es cierto, los mejores siempre han buscado el Santo Grial de la Física. Una Teoría que lo pueda explicar todo, la más completa que mediante una sencilla ecuación, responda a los misterios del Universo. Claro que tal hazaña, no depende siquiera de la inteligencia del explorador que la busca, es más bien un problema de que, las herramientas necesarias (matemáticas) para hallarla, aún no han sido inventadas.

Durante el último medio siglo, los científicos se han sentido intrigados por la aparente diferencia entre las fuerzas básicas que mantienen unido al cosmos: la Gravedad, el electromagnetismo y las fuerzas nucleares fuerte y débil. Los intentos por parte de las mejores mentes del siglo XX para proporcionar una imagen unificadora de todas las fuerzas conocidas han fracasado. Sin embargo, la teoría del hiperespacio permite la posibilidad de explicar todas las fuerzas de la naturaleza y también la aparentemente aleatoria colección de partículas subatómicas, de una forma verdaderamente elegante.  En esta teoría del hiperespacio, la “materia” puede verse también como las vibraciones que rizan el tejido del espacio y del tiempo. De ello se sigue la fascinante posibilidad de que todo lo que vemos a nuestro alrededor, desde los árboles y las montañas a las propias estrellas, no son sino vibraciones del hiperespacio.

Estoy convencido de que nuestro universo no es el único universo. Lo mismo que existen cientos de miles de millones de mundos y de estrellas, de la misma manera que en nuestro universo se pueden contar más de cien mil millones de galaxias… ¿Por qué el Universo que conocemos no podría tener otros “hermanos”. Recientemente se hicieron unas pruebas muy precisas que midieron lo que podría haber más allá del “borde” del nuestro universo, y, ¡sorpresa! Se detectaron inmensas estructuras lejanas que, posiblemente, podían estar tirrando de nosotros mediante una gran fuerza gravitatoria… No será eso lo que realmente hace que nuestro Universo se expanda y no la dichosa materia oscura.

Antes mencionábamos los universos burbujas nacidos de la inflación y, normalmente, el contacto entre estos universos burbujas es imposible, pero analizando las ecuaciones de Einstein, los cosmólogos han demostrado que podría existir una madeja de agujeros de gusano, o tubos, que conectan estos universos paralelos.

Aunque muchas consecuencias de esta discusión son puramente teóricas, el viaje en el hiperespacio puede proporcionar eventualmente la aplicación más práctica de todas: salvar la vida inteligente, incluso a nosotros mismos, de la muerte de este universo cuando al final llegue el frío o el calor.

             Lo cierto es que, son muchas, las cosas que no sabemos

Esta nueva teoría de supercuerdas tan prometedora del hiperespacio es un cuerpo bien definido de ecuaciones matemáticas. Podemos calcular la energía exacta necesaria para doblar el espacio y el tiempo o para cerrar agujeros de gusano que unan partes distantes de nuestro universo. Por desgracia, los resultados son desalentadores. La energía requerida excede con mucho cualquier cosa que pueda existir en nuestro planeta. De hecho, la energía es mil billones de veces mayor que la energía de nuestros mayores colisionadores de átomos. Debemos esperar siglos, o quizás milenios, hasta que nuestra civilización desarrolle la capacidad técnica de manipular el espacio-tiempo  utilizando la energía infinita que podría proporcionar un agujero negro para de esta forma poder dominar el hiperespacio que, al parecer, es la única posibilidad que tendremos para escapar del lejano fin que se avecina. ¿Que aún tardará mucho? Sí, pero el tiempo es inexorable, la debacle del frío o del fuego llegaría.

No existen dudas al respecto, la tarea es descomunal, imposible para nuestra civilización de hoy, ¿pero y la de mañana?, ¿no habrá vencido todas las barreras? Creo que el hombre es capaz de plasmar en hechos ciertos todos sus pensamientos e ideas, sólo necesita tiempo: Tiempo tenemos mucho por delante.

¿Sabremos aprovecharlo?

emilio silvera

La Física de Partículas al Servicio de la Salud

Autor por Emilio Silvera    ~    Archivo Clasificado en Física... ¡Y mucho más!    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

Transferencias tecnológicas del CERN a la Biomedicina

                                                                                                           

                                                                            Partículas y mucho más

Seguramente la mayoría de los lectores de la Revista Española de Física han oído más de una vez hablar del CERN. Fundado en 1954, constituye el mayor laboratorio de física de partículas del mundo, con veinte países miembros y un personal de unas 3.000 personas entre físicos, ingenieros y personal técnico y administrativo de todo tipo. Seguramente están también al tanto de los grandes experimentos que se están preparando en este centro como el Large Hadron Collider (LHC), situado en un túnel circular de 27 km de longitud, destinado a elucidar el origen de la llamada ruptura de la simetría electrodébil y en última instancia el origen de las masas de las partículas elementales (no de la masa del protón o del neutrón como erróneamente se dice a veces en los medios de comunicación), o del proyecto CERN Neutrino Gran Sasso (CNGS), que consiste en enviar un haz de neutrinos de alta energía desde el CERN al laboratorio subterráneo italiano del Gran Sasso que se encuentra a 730 km, para estudiar las oscilaciones de estas huidizas partículas.

También es muy probable que muchos lectores asocien de manera natural la palabra acelerador de partículas  a los instrumentos que utilizan los físicos modernos para estudiar y comprender mejor la estructura y el comportamiento de la materia a pequeñas escalas. Sin embargo, de los 17.000 aceleradores de partículas que se estima existen en la actualidad en todo el mundo, aproximadamente la mitad de ellos se usan en medicina y sólo una parte muy pequeña se usan para investigación fundamental. Por este y otros motivos que se discutirán más adelante, en este número especial de la Revista Española de Física dedicado a la física y las ciencias de la vida, ha parecido conveniente incluir un artículo en el que, al menos brevemente, se describieran algunas de las transferencias tecnológicas (spinoffs) importantes que la actividad del CERN aporta a dichas ciencias.

                 Mucho de lo que aquí se descubre, se aplica a nuestra Salud

Es bastante razonable que, como ocurre con las ciencias del espacio, mucha gente se pregunte cuál es la utilidad social de la física de partículas más allá  de la adquisición de conocimientos fundamentales de la naturaleza. Sin embargo, es preciso señalar que los aceleradores y detectores de partículas del CERN y otros laboratorios similares requieren el uso, y muchas veces el desarrollo, de tecnologías de punta que obligan a una estrecha colaboración con la industria  que redunda en beneficio de ambas partes. Las transferencias tecnológicas que se producen en este proceso se incorporan inmediatamente a nuestra vida diaria en áreas tales como la electrónica, procesamiento industrial y médico de imágenes, manejo y usos de la radiación , metrología, nuevos materiales, tecnologías de la computación y la información, tratamiento del cáncer, etc. En este artículo se pondrá el énfasis en aquellas actividades del CERN que han redundado de una forma más clara en beneficio de las ciencias biomédicas.

                  PET/TC o más allá de los rayos X

En el ámbito de la medicina los aceleradores de partículas se utilizan con dos finalidades; una para la formación de imágenes con propósitos diagnósticos y otra, para terapia, principalmente oncológica. Desde el descubrimiento de los rayos X por Röntgen en 1895, este tipo de radiación electromagnética ha proporcionado una información de valor incalculable y aún sigue proporcionándola. Sin embargo, mucho más recientemente, se han desarrollado otras técnicas complementarias de diagnóstico basadas en los llamados radiofármacos. Estas sustancias radiactivas presentan idealmente la propiedad de poder ser inyectadas en el organismo humano de forma segura y de fijarse exclusivamente a determinados tejidos. Posteriormente, a medida que van desintegrándose, emiten ciertas partículas que pueden ser detectadas y analizadas produciendo de esta forma imágenes estáticas o incluso dinámicas de los órganos en los que se depositaron los radiofármacos y, en definitiva, proporcionando información no solamente sobre la morfología de aquellos, sino también, en muchos casos, sobre su función y metabolismo.Los radiofármacos se producen utilizando haces de protones de alta intensidad y, como tienen una vida media muy baja, deben utilizarse cerca de donde se han creado. Se calcula que unos 20 millones de personas son diagnosticadas cada año mediante el uso de este tipo de sustancias.

Son técnicas no invasivas que dejan al descubierto lo que interesa ver y eliminar.

Una de las técnicas de este tipo más utilizada en la actualidad es la Positron Emission Tomography (PET). En su aplicación se utiliza normalmente un ciclotrón para irradiar alguna sustancia que se convierte en radiactiva por desintegración beta positiva (emisora de positrones). Esta sustancia se une por ejemplo a la glucosa y se inyecta al paciente. Los positrones producidos se aniquilan con los electrones circundantes dando lugar a dos fotones de energía muy bien definida, emitidos en direcciones opuestas. Estos fotones interaccionan con un material escintilador dando lugar a la emisión de otros fotones que pueden ser detectados por fotomultiplicadores o fotodiodos para formar la imagen de los tejidos que se pretenden estudiar en función de la distribución de la glucosa radiactiva. Por ejemplo, en el caso del diagnóstico del cáncer las células cancerosas suelen consumir más glucosa que las células sanas debido a su mayor vascularización y a su mayor actividad metabólica y reproductiva, produciendo por tanto una mayor emisión de fotones. Por el contrario, las zonas donde el tejido presente mayor número de células muertas brillarán menos debido a la menor concentración de glucosa radioactiva, lo cual puede ser muy útil para el diagnóstico de infartos y otras lesiones.

                                                              Tecnológias que llegan más allá

De acuerdo con David Townsend, uno de los pioneros en el desarrollo de la tecnología PET, aunque ésta no fue inventada en el CERN, una cantidad esencial e inicial de trabajo desarrollado en el CERN  a partir de 1977 contribuyó de forma significativa al desarrollo del PET 3D. La tecnología PET alcanza su grado más alto de utilidad diagnóstica cuando se combina con la Computed Tomography (CT). La CT es un método de formación de imágenes tridimensionales a partir del procesamiento digital de un gran número de imágenes bidimensionales de rayos X. Inicialmente, las diferentes imágenes se obtenían alrededor de un solo eje de rotación y de ahí su nombre original de Computed Axial Tomography (CAT).

La técnica combinada PET/CT es uno de los desarrollos más excitantes de la medicina nuclear y la radiología modernas. Las reconstrucciones de imágenes CT permiten el diagnóstico precoz de tumores basándose en sus características morfológicas, mientras que la tecnología PET es capaz de diferenciar con grane eficiencia los tejidos malignos de los benignos. La fusión PET/CT permite ahora integrar las imágenes morfológica y fisiológica en una única imagen. El prototipo del scanner ART, el Partial Ring Tomograph (PRT), fue desarrollado en el CERN en 1980 y 1990 por David Townsend, Martín Wensveen y Henri Tochon-Danguy, y evaluado clínicamente en el departamento de medicina nuclear del Hospital Cantonal de Ginebra. ART puede considerarse como el precursor de la parte PET del moderno scanner PET/CT, que ha producido un impacto extraordinario en la tecnología de imágenes con fines médicos. Además, el CERN continua hoy en día contribuyendo a este campo fundamental de la medicina moderna mediante proyectos como Clear PET, Clear PEM, HPD PET etc.

Sin embargo, la importancia del CERN en el desarrollo de las tecnologías PET o CT, y en general de todo tipo de scanner, va mucho más allá. En efecto, todo este tipo de dispositivos se basa, de una forma u otra, en los detectores desarrollados a finales de los  sesenta en el CERN por George Charpak. Su trabajo fue reconocido en 1992 con la concesión del Premio Nobel de Física por su invención y desarrollo de detectores de partículas, en particular de la cámara proporcional multihilos, que produjo una revolución en la técnica de exploración de las partes más íntimas de la materia. Los detectores desarrollados por Charpak se usan aún para todo tipo de investigaciones médicas y biológicas y podrían eventualmente sustituir completamente a las placas fotográficas en la radio-biología aplicada. La velocidad creciente con la que permiten registrar las imágenes en radio medicina conducen a una menor tiempo de exposición y a menores dosis de radiación indeseada recibida por los pacientes.

 

                          Hadronterapia, o las partículas contra el cáncer

Como es bien sabido, una de las herramientas terapéuticas esenciales en el campo de la oncología es la radioterapia. Dicho tratamiento se aplica hoy en día aproximadamente a la mitad de los pacientes de cáncer. En cierto modo se puede considerar como una forma sutil de cirugía donde el bisturí es reemplazado por un haz colimado de partículas capaz de esterilizar las células malignas mediante la inactivación de su ADN, impidiendo así su reproducción. Tradicionalmente, la radioterapia se ha basado en el uso de rayos X (fotones), electrones y, más recientemente, hadrones, es decir, partículas capaces de interaccionar fuerte o nuclearmente, si bien no es ésta la propiedad más interesante de estas partículas para las aplicaciones radioterapeúticas. Los haces de rayos X y los electrones se obtienen normalmente a partir de aceleradores lineales como los del CERN, aunque mucho más pequeños, y se apuntan hacia los tumores con la energía, dirección y colimación apropiadas para optimizar su efecto destructivo sobre los mismos. Por su parte, los neutrones pierden energía en el interior del organismo de una forma diferente, lo cual les hace más indicados para el tratamiento de ciertos tipos especiales de tumores. Se obtienen a partir de las colisiones de protones, previamente acelerados en un ciclotrón, con núcleos de berilio. Este hecho hace que esta terapia sea bastante más cara que las anteriores, pero a cambio el ciclotrón puede ser usado también para la producción de radiofármacos.

                                     Cintíficos del CERN aplivcan antimateria contra el Cáncer

El estudio de las posibilidades de utilización de haces de hadrones en la terapia del cáncer tuvo su origen en el trabajo seminal de R.R Wilson titulado Radiological Use of Fast Protons (Radiology 47, 1946). En dicho artículo se ponía de manifiesto que los protones, así como otras partículas cargadas pesadas, presentan la propiedad única de que al penetrar en el cuerpo humano depositan la mayor parte de su energía a una preofundidad que depende de su energía inicial. Este hecho permite seleccionar cuidadosamente el área que se quiere irradiar, preservando de dicha radiación al tejido sano que pudiera encontrarse a menor profundidad. Además, como las partículas se detienen a una distancia de la superficie bien definida por la energía del haz, tampoco resultarían dañadas las células situadas detrás del blanco seleccionado.

Sin embargo, la importancia del CERN en el desarrollo de las tecnologías PET o CT, y en general de todo tipo de scanner, va mucho más allá.

En contraste, la energía depositada por los rayos X alcanza su máximo cerca de la superficie de entrada y decae exponencialmente hasta que abandona el cuerpo humano en el lado opuesto, haciendo por tanto muy difícil seleccionar la zona que quiere irradiarse sin dañar otras áreas de células sanas. El trabajo de Wilson de 1946 condujo a toda una nueva línea de investigación experimental, principalmente en el Lawrence Berkeley Laboratory, que ha dado lugar al desarrollo de una nueva clase de terapias antitumorales basadas en la irradiación con protones y más recientemente con iones de carbono. Estas técnicas han sido aplicadas en más de 40 centros de todo el mundo, y de ellas se han beneficiado hasta la fecha más de 50.000 pacientes. No obstante, continúan investigándose nuevas formas de intentar mejorar el ratio entre la energía depositada en las células tumorales y en el tejido sano.

En la actualidad, el CERN se encuentra involucrado en diversos proyectos relacionados con la hadronterapia. Por ejemplo, en el diseño de un acelerador de protones e iones de carbono dedicado exclusivamente a usos médicos conocido como Proton Ion Medical Machine Study (PIMMS). Otro proyecto interesante es la realización de las pruebas del Linear Booster ( LIBO), capaz de acelerar una haz de protones hasta 200 Mev (los hospitales habiualmente utilizan energías en torno a los 65 MeV) y que estaría especializado en el tartamiento de tumores profundos.

Finalmente, y situándonos en un plano de investigación a un nivel más básico, es interesante señalar que en octubre de 2006 se presentaron los primeros resultados de un experimento llevado a cabo en el CERN con potencial para futuras aplicaciones en la terapia del cáncer. Se trataba del Antiproton Cell Experiment (ACE), que constituye la primera investigación realizada hasta la fecha sobre efectos biológicos de los antiprotones. Los antiprotones se comportan como los protones cuando entran en el organismo, pero generan mucha más energía en el blanco seleccionado debido a du aniquilación con los protones existentes en los núcleos de los átomos de las células, y además depositan esta energía de una forma biológicamente más efectiva.

 Se busca antimateria contra el Cáncer. Los resultados muestran que los antiprotones son cuatro veces más efectivos que los protones para destruir células vivas. (Foto: Especial CERN )

Evaluando la fracción de células supervivientes después de la irradiación con el haz de antiprotones, el experimento ACE ha encontrado que a eficiencia de éstos es unas cuatro veces mayor que la de los protones, mientras que el daño producido a las células situadas antes del blanco era básicamente el mismo. De acuerdo con Michael Holzscheiter, portavoz del experimento ACE, este hecho podría ser extremadamente importante para el tratamiento de casos de cáncer recurrente, donde este tipo de propiedad es vital. La tecnología desarrollada previamente en el CERN para la obtención de haces de antiprotones de buena calidad a la energía apropiada es esencial para este prometedor experimento, que difícilmente podría haberse realizado en ningún otro laboratorio. Éste es por tanto un magnífico ejemplo de cómo la investigación en física de partículas desarrollada en el CERN puede generar soluciones innovadores con excelentes beneficios médicos potenciales.

Los investigadores de ACE, en colaboración con otras instituciones de todo el mundo, están realizando en la actualidad nuevos tests para comprobar la eficacia de este método en el caso de tumores situados a mayor profundidad, y comparando sus resultados con los de otros métodos más convencionales como la irradiación mediante iones de carbono. Si todo sale como se espera, los beneficios clínicos de esta nueva técnica podrían empezar a producirse dentro de la próxima década.

Otro ejemplo importante de tecnología creada en el CERN con aplicaciones a la terapia del cáncer es el Neutron Driven Element Trasmuter. Se trata de un sistema de producción de radioisótopos específicos específicos a partir de un acelerador de protones cuyo desarrollo fue liderado por Carlo Rubbia, Premio Nobel de Física en 1984 por el descubrimiento de los bosones W y Z y ex director general del CERN. La idea es utilizar el haz de protones para producir neutrones los cuales provocan reacciones en un ambiente apropiado donde ciertos elementos son convertidos en los isótopos deseados.

La diferencia principal entre este método, seguro y barato, y el método más tradicional de utilizar los neutrones provenientes de un reactor nuclear, es que no requiere el uso de material fisionable ni funciona críticamente, es decir las reacciones se detienen en el momento en el que el acelerador es apagado. Más aún, el método tiene la ventaja de que sólo se producen los isótopos requeridos, lo que redunda en una importante reducción de impacto ambiental. Normalmente, el blanco utilizado es plomo, elemento idóneo por presentar el menor ritmo de captura de neutrones. Los neutrones se producen por espalación a partir del haz de protones y permanecen en el interior del blanco de plomo, que está rodeado  de un deflector de grafito, hasta que su espectro se suaviza suficientemente para cubrir un gran rango de energías que permiten su utilización para la transmutación de los elementos necesarios para la obtención de los isótopos deseados.

El Neutron Driven Element Trasmuter ha permitido, entre otras cosas, la producción de radioisótopos beta emisores como el 166Ho, 186 Re o el 188Re que son de gran importancia en braquiterapia. Dicha técnica, muy utilizada en el tratamiento de cánceres ginecológicos y en el de cáncer de próstata, es un tipo de radioterapia de proximidad donde la fuente radiactiva se sitúa dentro o muy cerca de los tejidos que requieren irradiación. Típicamente, la fuente radiactiva, de alta actividad y corta vida media, se encapsula en una semilla, filamento o tubo y se implanta en quirófano en la zona deseada. Las diferentes dosis requeridas en cada caso hacen que sea fundamental disponer del mayor muestrario posible de radioisótopos con la actividad y vida media apropiadas, lo cual convierte al Neutron Driven Element Trasmuter en una herramienta valiosísima para el futuro de este tipo de técnica terapéutica.

                              Información y computación sin fronteras

CERN, … where the web was born; éste es uno de los reclamos publicitarios que suelen utilizarse  para hacer ver al público la importancia de los retornos tecnológicos que en este laboratorio tienen lugar. Y en efecto, fue a finales de los ochenta cuando Tim Berners-Lee desarrolló estándar de Hyper Text Transfer Protocol (HTTP)  e implementó los primeros servidores web en el CERN. Su esfuerzo permitió la comunicación fácil y segura y el intercambio de todo tipo de información entre todos los ordenadores del mundo conectados a internet, dando lugar de esta forma a una de las revoluciones tecnológicas más importantes de las últimas décadas. Las repercusiones científicas, tecnológicas, culturales, comerciales y de ocio de la web son ya tan conocidas que apenas merecen comentario alguno.

El término Grid fue acuñado por Ian Foster and Carl Kesselman en su libro The Grid, Blueprint for new Computing Infraestructure (Morgan Kaufman, 1998), aunque las ideas básicas habían sido consideradas con anterioridad. No existe un acuerdo general sobre cual debería ser la definición precisa de las tecnologías Grid, pero hay un amplio concenso en que esta debería contener elementos tales como recursos compartidos, virtualización, abstracción del acceso a los recursos y estandarización. La filosofía Grid consistería, no sólo en compartir información entre diferentes usuarios, sino también recursos, como por ejemplo, procesadores, tiempo de CPU, unidades de almacenamiento, así como otros aparatos e instrumentos, de tal forma que eventualmente cada usuario tendría acceso virtual, por ejemplo, a la capacidad de cálculo de todos los demás usuarios de esa Grid. En los primeros tiempos de esta tecnología de la información se llegó a hablar de la Grid, refiriéndose a la posibilidad  de existencia de una única World  Wide Grid.

                                                                                                      Todo surgió del CERN

Hasta el momento,, sin embargo, este concepto no es una realidad y más bien lo que se encuentra es que diferentes grupos de proyectos crean su propia Grid usando sus propias implementaciones, estándares y protocolos y dando acceso restringido solamente a una cierta comunidad de usuarios autorizados. Así, aunque se siguen realizando importantes esfuerzos en cuanto a la estandarización de los protocolos, no está claro cual será el camino que este tipo de tecnología seguirá en el futuro en lo que se refiere a la futura existencia de un única Grid.

En cualquier caso es importante resaltar que una vez más el CERN ha sido pionero en este tipo de tecnología. Los detectores que se están instalando (a estas alturas, todos instalados y en marcha) en el LHC (ATLAS, CMS, ALICE, LHCb, SUSY, etc.), son tan complejos, que han requerido cada uno de ellos el concurso de muchas instituciones de todo el mundo para su construcción, y lo seguirán requiriendo para su mantenimiento cuando el acelerador empiece a funcionar (ya está en marcha), y, como no, para el análisis de los datos que se obtengan. Para hacerse una idea de la dimensión y complejidad de estos análisis baste mencionar que el compact Muon Selenoid (CMS), una vez pasado su primer filtro, deberá almacenar información sobre el resultado de las colisiones producidas en su interior a un ritmo del orden de 100 a 200 MB por segundo durante un tiempo esperado de unos cien días por año. Resulta obvio que sólo una tecnología tipo Grid puede afrontar con posibilidades de éxito un reto semejante y de hecho el CERN ha inspirado varios proyectos Grid multinacionales por este motivo. Posiblemente, el más grande de ellos hasta la fecha sea el EGEE (Enablinbg Grids for E-Science), que conecta más de 150 paises y ofrece 20 000 CPUs y más de 10 Petabytes de memoria.

De manera análoga a como ocurrió con las tecnologías de la detección y aceleración, las tecnologías Grid tendrán, y de hecho ya empiezan a tener, un fuerte impacto en las ciencias de la vida y de la salud. En este sentido, uno de los campos obvios de aplicación es la bioinformática. Gracias a los espectaculares avances llevados a cabo en los últimos años en el campo de la biología molecular, se dispone hoy en día de cantidades crecientes de información genética de diferentes especies e individuos. Dicha información codificada en el ADN en forma de secuencia de tripletes o codones de ácidos nucleicos, que constituyen los genes que contienen la estructura primaria de las diferentes proteínas, ha sido y está siendo obtenida por centenares de grupos diferentes distribuidos por todo el mundo y debe almacenarse en gigantescas bases de datos de forma eficiente para su compartición, contrastación y análisis.

Ejemplos típicos serían la búsqueda de determinadas secuencias, comparaciones, búsqueda de determinadas mutaciones o alelos, etc. Resulta evidente que esta ingente labor puede verse enormemente beneficiada por el uso de tecnologías Grid. De hecho, la Bioinformática, y en particular sus aplicaciones biomédicas, han sido una parte importante del proyecto EGEE desde el comienzo del mismo.

Finalmente, y como última muestra de cómo puede revertir en la sociedad las tecnologías de la información y la computación provenientes de la física de partículas, es interesante mencionar el Proyecto Mammogrid y su continuación Mammogrid Plus. Liderado por el CERN, dicho proyecto de la UE utiliza la tecnología Grid para crear una base de datos de mamografías que pueda ser usada para investigar un gran conjunto de datos e imágenes que, aparte de otras aplicaciones sanitarias, sea útil para estudiar el potencial de esta tecnología para servir de soporte a la colaboración entre los profesionales de la salud de la  UE.

      Ciencia, Tecnología y Sociedad

A estas alturas debería haber quedado claro que los centros científicos de élite internacionales como el CERN, no sólo nos proporcionan un conocimiento más profundo de la naturaleza, sino que las tecnologías de punta que en ellos se desarrollan acaban permeando a la Sociedad y se incorporan a nuestras vidas cotidianas. El autor del artículo, Antonio Dobado, del Departamento de Física Teórica I de la Universidad Complutense de Madrid, ha pretendido ilustrar el hecho innegable de la conexión existente entre temas tan aparentemente dispares como el de la Física de Partículas y la Biomedicina, pero ejemplos semejantes podrían haberse encontrado en prácticamente cualquier área de la actividad humana.

La Sociedad no puede permanecer por más tiempo ajena a la Ciencia y a todo lo que trae consigo. Precisamente por eso la RSEF dedica un gran esfuerzo a la difícil tarea de convencer al público de la importancia de la Física como valor científico, cultural y social, como una forma rigurosa y profunda del acercamiento al conocimiento de la naturaleza, y a la vez como generadora de nuevas tecnologías. En este sentido, es una espléndida noticia la inminente creación de un nuevo Grupo especializado en el seno de la RSEF denominado Física Médica. Y, desde aquí, aprovechamos la oportunidad para darles la bienvenida y desearles el mayor éxito en sus futuras andaduras en la búsqueda de la verdad científica.

Fuente: Revista Española de FÍSICA.

Publicada por la RSEF con el Nº 3 Volumen 21 de 2007

La presente transcripción es de:  Emilio Silvera

Miembro numerario de la RSEF y adscrito a los Grupos Especializados de Física Teórica y Astrofísica.

Misiones pasadas que dieron paso a otras nuevas

Autor por Emilio Silvera    ~    Archivo Clasificado en Viajar al Espacio    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

                                          La Mars Express visita Marte y de eso hace ya más de 10 años

“El 3 de Junio de 2003 Europa daba finalmente el salto hacia otro mundo, y su primera sonda interplanetaria desde los tiempos de la Giotto, que visitó el corazón del cometa Halley en 1986, iniciaba a bordo de un cohete ruso Soyuz-FG/Fregat su viaje hacia Marte. Algo más de 6 meses después entraba con éxito en órbita marciana…”

Desde entonces,  la NASA no estaba sola en su exploración del planeta hermano y también Europa se hizo con su parcela en esa investigación. De hecho pudo contribuir a conocer mejor el planeta rojo gracias a la Mars Express se pudo acercar a la Ciencia americana del espacio en un nivel de  “igualdad”.

 

 

 

 

Tambien la sonda espacial Opotunity ha cumplido más de los 10 años en la superficie de aquel planeta y sigue dándo buenas noticias aunque, esté ya, algo renqueante. Todos están sorprendidos del comportamiento de éste ingenio humano que partío de la Tierra en el año 2003, viajando hacia Marte en el que estaría 9o días pero, ¡lleva ya en él 3.200 durante los que ha podido recorrer más de 35 kilómetros.

Rebotó 26 veces contra el terreno rocoso antes de descender completamente. Casi lo dan por perdido, pero sobrevivió. No cayó donde se esperaba, sino en un cráter de 22 metros de diámetro y aunque sus circuitos se activaron exitosamente, al segundo día tenía problemas mecánicos en sus brazos y articulaciones. Hoy, se moviliza hacia atrás, porque tiene una rueda atorada y dos de sus instrumentos no funcionan. Pese a lo anterior, el Opportunity se ha convertido en un ícono tecnológico para la Nasa.

 

Señales de agua, viento y hielo en Marte

 

 

Región de Marte fotografiada por 'Mars Express'. | ESA

 

Región de Marte fotografiada por ‘Mars Express’. | ESA Europa Press | Madrid

 

No sólo porque fue (junto al Spirit) la primera nave que recorrió Marte y que comprobó que en ese planeta alguna vez el agua fluyó por su superficie. Sino también, porque es el vehículo más longevo de la exploración espacial: acaba de cumplir nueve años en suelo marciano, pese a que la misión inicial  sólo le daba 90 días de vida útil. Y ha recorrido más de 35 km del planeta: 50 veces más de lo planeado. “Nadie hubiese imaginado que este vehículo iba a realizar una exploración tan exhaustiva y menos tener tantos descubrimientos científicos”, dice a La Tercera  John Callas, jefe del programa de exploradores en Marte de la Nasa. Por eso, lejos de su jubilación, la agencia espacial prepara una nueva misión para el rover. Ahora, en busca de posibles rastros de vida microbiana.

 

 

 

 

El gran aporte de Opportunity ha sido entregar evidencia in situ de que Marte tuvo un pasado acuoso, es decir, que hace miles de millones de años fue un lugar cálido y húmedo por cuya superficie fluyó agua. Estos hallazgos los ha hecho siguiendo y examinando los minerales y arcillas de los rastros dejados en el suelo por lo que se creen fueron antiguos ríos o cursos de agua. Una labor que ha sido posible  gracias a su inesperada longevidad.

 

 

 

Uno de los técnicos de la NASA comentó:

“Los datos que encontramos a través del Opportunity confirman que antiguamente en Marte existió un ambiente con agua, lo que significa que el planeta tuvo un entorno favorable para la vida.”

 

 

 

Muchas son las imágenes de Marte que nos hablan de la presencia de agua

 

Los análisis del rover también han mostrado que el planeta rojo pasó por al menos tres etapas geológicas: la primera hace 4.000 años, que fue relativamente húmeda; otra hace 3.500 años, que se caracterizó por su actividad volcánica, y la actual, que no presenta señal de vida. Y al igual que en la Tierra, en Marte también se forman  nubes de cristales de hielo.

Su último descubrimiento fue un mes de agosto, cuando en pleno viaje hacia el sur del cráter Endeavour, halló un campo lleno de esferas, blandas en su interior y ricas en hierro, que llamó la atención de los científicos y que nunca antes se habían visto en ese planeta.

Callas, uno de los científicos seguidores de la misión, nos dice:

“El Opportunity ha sido una excelente experiencia para la Nasa. Ayudó a confirmar el valor de los exploradores básicos y marcó una línea para las futuras versiones, como el Curiosity”. No es lo único, dice. Este rover ya  marcó a toda una generación. “Inspiró a jóvenes a involucrarse en carreras de tecnología y ciencia, algo que tendrá beneficios incontables en las próximas décadas”.

 

 

 

Basado en aquellos dos legendarios Rovers, Oportunity y Spirit, se envió uno más moderno y sofisticado al planeta, Curiosity que, se ha quedado con la atención del público y está realizando nuevos descubrimientos que vendrán a enriqurecer lo que ya sabemos de aquel planeta, entre otras muchas cuestiones y datos enviados, aparece una gran clolección de imágenes que hay que examinar con atención para poder obtener de ellas, los mensajes que nos envían desde millones de años de distancia en el pasado.

 

 

              Curiosity nos ha enviado una buena colección de imágenes de aquella región de Marte
Muchas son las puertas que hemos podido abrir en quel planeta y, desde el descubrimiento de la presencia de agua en el presente que, congelada en la superficie podría estar líquida en el subsuelo, hasta los muchos lugares que tienen impresas las huellas de grandes correntías de ríos y arroyos, y, los mareales marcados en el suelo de algunas zonas que nos hablan de pasados océnaos y mares en aquel planeta.
Hace bastante tiempo que perseguimos la presencia de vida pasada, presente, o, incluso futuro en el planeta Marte y, todos los indicios nos hablan de que pudo haberla en algún tiempo pasado, que puede existir también en el presente en ciertos lugáres reconditos. Acordáos de aquel meteorito de Marte llegado a la Tierra: AL H-48001,1 se llama y, en él, muchos quisieron ver muchas cosas, como:

 

Granos de carbonato, en color naranja (100 a 200 micras de diámetro), indican que el meteorito estuvo una vez inmerso en el agua.

 

 

El meteorito destaca la presencia de lo que parecen ser microbios fosilizados.

 

 

 

                      ¿Microbios fosilizados? Eso dijeron algunos


Bueno, el presente trabajo que es un pequeño homenaje a los primeros Rovers que salieron desde la Tierra hacia Marte en una aventura indecisa, resultó que nos ha dado beneficios impensables y, ahora, sin lugar a ninguna duda podemos decir que tanto Oportunity como Spirit (y las que vinieron detrás), nos han dado conocimientos que no teníamos y, han ayudado grandemente a que conoczcamos aquel planeta que algún día, lejano aún en el futuro próximo (no creo que antes de 50 años) podamos visitar, para instalar una colonia de la Tierra.

Lo cierto amigos es que hay que felicitar a todos los que de una u otra forma contribuyeron con sus ideas y su trabajo a que todas estas misiones pudieran ser un hecho que, cuando se han ido produciendo no le hemos dado la importancia que realmente han tenido todas esas misiones al Espacio Exterior encamionadas al conocimiento de los planetas y lunas que situadas en el Sistema Solar, nos pueden dar algún día futuro, una gran sorpresa.

 

 

http://upload.wikimedia.org/wikipedia/commons/f/f7/Saturn%27s_Rings_PIA03550.jpg
Bueno, es casi un sistema planetario con sus pequeños mundos orbitando a ese planeta mayor que, si lo pudiémos colocar encima de un gran océano -en la Tierra no existe ninguna tan grande-, el planeta flotaria dada la baja densidad de la materia que lo conforma.

Recordemos aquellas primeras imágines de Titán y las primeras noticias que llegaron decían: “¡Huygens en Titán!” La Misión Cassini, qué tantos rendimientos científicos nos ha proporcionado, tiene aún, algunas cartas guardadas en la manga en forma de noticias nuevas y, asombrasas.

 


http://www.beugungsbild.de/huygens/povray/huygens_30km.jpg

 

En su momento pudimos leer en todos los medios escritos y hablados:

“Hoy después de un viaje de siete años a través del sistema solar abordo de la nave Cassini, la sonda Huygens de la ESA ha descendido con éxito a través de la atmósfera de Titán, la mayor luna de Saturno y ha aterrizado a salvo en su superficie.

Los primeros datos científicos llegaron a el Centro de Operaciones Espaciales Europeo (ESOC) en Darmstadt, Alemania, esta tarde a las 17:19 CET. La sonda Huygens constituye el éxito de la humanidad en el intento de aterrizar una sonda en un mundo del Sistema Solar exterior. Según Jean-Jaques Dordain, Director General de la ESA:”Este es un gran logro para Europa y sus colegas de los Estados Unidos, en esta ambiciona empresa de explorar el sistema saturniano”.

Con los primeros datos se pudo llegar a  saber que la temperatura en el interior de la sonda rondaba los 25ºC cuando se encontraba a unos 50 km de altura. Por otra parte, la sonda contaba con dos canales (A y B) independientes para retransmitir los datos de manera redundante. Según parece el canal A no funcionó y tan sólo se lograron los datos del B del que sí, llegaron todos. El experimento de Doppler con Cassini si necesitaba del canal A por lo que habrá que esperar a la recepción de todos los datos. El paracaidas principal se abrió tan sólo 15 segundos despues de lo planeado y los acelerómetros han funcionado correctamente.”

 

 

 

La Huygens desciende sobre la superficie de Titán

 

¿Que sabemos de Titán?

Titán es el satélite mayor de Saturno y la segunda de las mayores lunas del Sistema Solar, la cual sólo rivaliza en tamaño con Ganimedes -satélite de Júpiter-. Este mundo siempre ha resultado de enorme interés a los científicos pues se considera un “laboratorio de la vida”, un lugar que podría ser reflejo -desde el punto de vista biológico- de lo que era el planeta Tierra hace más de 3500 millones de años.

Titán es un mundo único en el Sistema Solar y muy enigmático: su superficie es una incógnita, pues su densa atmósfera formada fundamentalmente por nitrógeno nunca nos ha permitido observar sus rasgos superficiales. A todo ello se le suman una gran cantidad de incógnitas: la posibilidad de existencia de mares o lagos superficiales de hidrocarburos, de materia orgánica e incluso de vida.

 

 

Océanos de metano en Titán que son contemplados por Saturno. La luna nos muestra los terrenos y atmósfera de la Tierra joven. Ahora están preparando un submarino en miniatura que navegará por los océanos de Titán.

 

submarino titan de la NASA

 

Este será el submarino que surcará las profundidades de algún océano de Titan

Todas las misiones que han estudiado con mayor o menor detalle este mundo -Pioneer 11 y sobre todo las Voyager 1 y 2- han obtenido datos de gran interés, aunque no han podido desentrañar muchos de los misterios que rodean a esta interesante luna. En 2004 comenzó la aproximación del orbitador Cassini al planeta Saturno y acto seguido su inserción orbital, lo que tuvo lugar en julio de 2006. Justo seis meses después, este orbitador dejó caer la sonda Huygens a través de la atmósfera de la luna Titán, hacia su superficie.

En este trabajo trataremos sobre el satélite Titán, realizando una revisión sobre los conocimientos acerca del mismo y las últimas hipótesis que los científicos tienen en mente, las cuales es fácil que den un vuelco cuando los técnicos de la misión Cassini-Huygens comience a estudiar con detalle este pequeño  mundo y todos los datos que han podido ser captados por nuestros ingenios.

 

 

 

           Un extraño pequeño mundo donde llueve metano y haría las delicias de las compañias petrolífieras


Titán, el mayor satélite de Saturno, es un lugar misterioso. Su gruesa atmósfera es rica en compuestos orgánicos, algunos de los cuales podrían implicar la presencia de signos de vida si se hallasen en nuestro planeta. ¿Cómo se han originado éstos? ¿Pueden ayudarnos a descubrir como la vida se formó en la Tierra? Y, estando ahí presentes estos compuestos bioquímicos, ¿estará presente allí alguna clase de vida?

La sonda Huygens de la Agencia Espacial Europea (ESA), que viajó junto a la Cassini en ruta hacia Saturno llegó a la superficie de Titán en el año 2005. Mientras tanto, en la Tierra, los estudios mediante telescopio  sirvieron para decidir en qué punto de Titán se efectuará el aterrizaje.

 

 

Pioneer 11 en 1979

– Estudian Júpiter, Saturno, Urano y Neptuno, sus lunas y sus anillos.
–  Son los más lejanos de la Tierra y también los qué más tiempo llevan en órbita.
–  Sus baterías tienen capacidad para aguantar en el espacio hasta el 2020.

 

 

http://img.irtve.es/imagenes/las-sondas-voyager-llevan-anos-espacio/1283431884594.jpg

 

Han cruzado la frontera más lejana que nunca ha atravesado el ingenio humano, 38 años en órbita sin interrupciones. Las sondas gemelas Voyager partieron de la Tierra el verano de 1977 y desde entonces envían información de todo aquello que se han encontrado a su paso. Las misiones espaciales Pioneer 11 en 1979 y Voyager 1 y 2 en 1980 realizaron sobrevuelos sel Sistema de Saturno. La Voyager 1, se desvió lo necesario para sobrevolar Titán.

 

Así fue captado Titán por la Viyager 2

 

La sonda Voyager 1 de la NASA sirvió para obtener las primeras imágenes detalladas de Titán en 1980. En ellas se apreciaba sólo una atmósfera anaranjada, opaca y aparentemente homogenea, tan gruesa que no permitía ver la superficie de este mundo. De todas formas, a pesar de ello, otros datos revelaron interesantes aspectos de esta luna: de manera similar a la Tierra, su atmósfera estaba formada mayoritariamente por nitrógeno y también por algo de metano, así como otros compuestos orgánicos.

Titán es el mayor de los satélites conocidos de Saturno. En esta fotografía tomada a 12 millones de kilómetros se aprecian las capas nubosas exteriores que cubren la superficie de esta luna. La neblina anaranjada, formada por hidrocarburos producidos por fotólisis, nos esconde la superficie sólida de este mundo.

Como es hoy Titán se cree podría ser la Tierra Primitiva hace algunos miles de millones de años. Se cree que en la actualidad, en aquel ambiente de Titán y su espesa atmósfera, podría exisir alguna clase de vida.

 

 

 

 

 

Las sondas espaciales como la Cassini-Huygens y otras, nos han posibilitado para contemplar imágenes del espacio exterior que nunca habríamos imaginado ver. Si los descubridores de estas lunas de Saturno pudieran ver lo que nosotros hoy, creo que se llenarían de gozo al ver como su granito de arena siguió rodando por la ladera del conocimiento para hacerse mayor, una sólida y gran roca del conocimiento.

 

 

File:Titan in natural color Cassini.jpg

                                      Titán en color natural (sonda Cassini-Huygens 2005)

Titán es el mayor de los satélites de Saturno, siendo el único del Sistema Solar que posee una atmósfera importante. Según los datos disponibles su atmósfera podría estar compuesta principalmente de nitrógeno, pero hasta un 6% puede ser metano y compuestos complejos de hidrocarburos. En el año 2005, la sonda espacial Cassini-Huygens descendió en paracaídas por la atmósfera de Titán y aterrizó en su helada superficie para descubrir algunos de sus secretos.

¡Sigamos soñando con la realidad! En este presente que ya es futuro. En los trabajos siguientes anumeramos los inconvenientes que tenemos houy en hacer un viaje tripulado a Marte.

Si queréis más lecturas…

emilio silvera

¿Viaje Tripulado a Marte? ¡Ilusos!

Autor por Emilio Silvera    ~    Archivo Clasificado en Marte    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Exploración espacial.   Pese a que una auditoría cuestiona los muchos incionvenientes y apuro, los científicos ya definen los mejores puntos para establecer las colonias en el planeta Marte, y, aunque parezca prematuro, el ir limando “asperezas” para prevenir situaciones difíciles cuando llegue el momento… ¡No está demás!

 

 

La promesa quedó asentada como un dictamen y la National Aeronautics and Space Administration (NASA) comienza a ensayar diferentes soluciones para poner un pie en Marte en 2030, considerado el próximo objetivo de la exploración espacial humana. Pensando en una eventual colonización, 175 científicos de diferentes áreas se dieron cita en el Lunar and Planetary Institute, en Houston, para intentar consensuar el mejor punto de amartizaje.

Vehículo de la NASA durante la recreación de una misión marciana

Los elementos esenciales para elegir esta posición contemplan desde la seguridad para asentar la astronave hasta la ejecución de algunas operaciones de exploración, como el acceso a los recursos locales para los primeros colonizadores y la posibilidad de obtener al menos 100 toneladas métricas de agua.

Los potenciales territorios necesitan cumplir una serie de requisitos. Cada puesto de avanzada debe estar rodeado por una “zona de exploración” de 100 kilómetros. Un conjunto de tres a cinco aterrizajes permitirán a seis tripulantes llevar a cabo los primeros sondeos, con 500 días marcianos por expedición.
En esta instancia previa se delimitaron unos 50 puntos de descenso ubicados dentro de los 50° de latitud, Norte o Sur, del ecuador marciano. En los próximos 8 años los esfuerzos de los expertos se van a centrar en reducir este número y seleccionar las diez mejores posiciones geográficas para asentar una nave. La intención es realizar varios sobrevuelos al planeta y bajar en una de sus lunas.

Cráter Stickney, el más grande de Fobos, con 9 kilómetros de diámetro.

Mientras James Green, director de Ciencia planetaria de la NASA sostuvo que “los humanos acabarán pisando Marte”, una auditoría interna cuestiona que, desde el aspecto técnico, todavía no están dadas las condiciones para una misión tan compleja. El responsable de este informe fue Paul K. Martin, inspector general de la NASA, quien señaló que no están preparados en la actualidad y es probable que tampoco consigan avanzar lo suficiente en los próximos 15 años.

El escudo está diseñado para proteger a los astronautas de la radiación solar dañina. (Ruth Bamford/RAL).
El escudo está diseñado para proteger a los astronautas de la radiación solar dañina. (Ruth Bamford/RAL).

El mayor riesgo lo deben afrontar los astronautas, ya que hay una enorme exposición a radiación “con posibilidades de desarrollar cáncer y otras enfermedades degenerativas, pérdida de densidad de los huesos y estiramiento de los músculos por la alteración de la gravedad, además de profundos cambios psicológicos motivados por un viaje tan largo y exigente” expone Martin.

Sobre esta cuestión, el astrobiólogo del Blue Marble Space Institute for Science, Jacob Haqq-Misra, sostiene en un artículo publicado en New Space que los astronautas deberán abandonar su nacionalidad terrícola para pasar a ser un orgulloso ciudadano del planeta rojo. También defendió la prohibición de las relaciones comerciales entre ambos planetas e indicó que una vez asentados en Marte se evite cualquier interferencia de la Tierra sobre el nuevo desarrollo cultural, económico o social.

Lo dicho, ni en 2020 ni en algunas decenas más de años podremos viajar al planeta Marte con todas las garantias, son muchos los inconvenientes de todo tipo que nos lo impedirán, tanto tecnológicos como naturales.

Nota: En las dos próximas entradas se recogen los muchos impedimentos que presenta este viaje tripulado.

¿Por qué es difícil Viajar a Marte? I (Apuntes de la NASA)

Autor por Emilio Silvera    ~    Archivo Clasificado en Marte    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

¿Por qué es difícil ir a Marte?

 

 

Fotograma de la película ‘The martian’. AIDAN MONAGHAN

El estreno de la película ‘Marte’ (The Martian) ha despertado cierta curiosidad acerca de posibles futuros viajes humanos al planeta rojo. Después de haber ido a la Luna en varias ocasiones hace ya casi cinco décadas, y estando acostumbrados a ver astronautas viajar al espacio casi de forma rutinaria, es tentador pensar que enviar seres humanos a Marte pueda ser algo perfectamente plausible a día de hoy, o tal vez un tanto más complicado que lo hecho hasta ahora. Sin embargo, la realidad es que enviar seres humanos a Marte constituye un desafío de una dificultad y complejidad absolutamente descomunales que se aleja mucho de todo lo que se ha hecho hasta ahora en la historia de la exploración humana del espacio.

En esta y en la siguiente entrada hablaré de las razones por las que esta empresa constituye un desafío inmenso y sobre cómo se plantea en la actualidad una misión tripulada a Marte. Con objeto de ofrecer una perspectiva inicial para entender la dimensión del problema de una forma intuitiva, en esta entrada trataré de la razón principal que hace extremadamente difícil una misión a Marte, la razón de la que prácticamente se derivan casi todas las demás: la distancia.

Matt Damon in “The Martian.” Credit Aidan Monaghan/Twentieth Century Fox

 

Vemos astronautas viajar con frecuencia al espacio, a la Estación Espacial Internacional (ISS), antes a la estación Mir, a bordo de naves Soyuz, o antes a bordo del Transbordador Espacial, etc., y se suele tener la impresión de que el lugar al que se viaja en estas misiones es muy lejano; sin embargo, las altitudes típicas a las que estas estaciones y vehículos espaciales orbitan alrededor de la Tierra son de unos pocos cientos de kilómetros. La ISS, por ejemplo, orbita alrededor de la Tierra a una altitud que es equivalente a la distancia que hay en línea recta entre Madrid y Almería: unos 400 km. Esta región espacial a la que viajan los humanos de forma rutinaria está dentro de la conocida como ‘región de las órbitas bajas de la Tierra’, y técnicamente la llamamos LEO (del inglés Low Earth Orbit).

Comparativa entre orbitas bajas de la Tierra (arriba) y la distancia a escala entre la Tierra y la Luna (abajo).

Los viajes tripulados lunares implicaron viajar más allá de las órbitas LEO ya que la Luna orbita nuestro planeta a una distancia media de unos 380.000 km, lo que viene a ser unas 1.000 veces más lejos que las altitudes de estas órbitas bajas. Una tripulación y su nave se ponen en órbita alrededor de la Tierra poco después de su lanzamiento, mientras que la distancia a la Luna se cubría en las misiones Apolo en prácticamente 3 días.

En el caso de Marte la situación es muy diferente. Ir a Marte implica pasar de una misión geocéntrica a una centrada en el Sol, o heliocéntrica, lo que supone un salto enorme en las distancias involucradas. Aunque las distancias máxima y mínima entre la Tierra y Marte varían dentro de un cierto rango, la mínima distancia posible es de unos 55 millones de km y la máxima posible es de unos 400 millones de km.

Estas son distancias enormes en comparación a todo lo que se ha volado en misiones tripuladas al espacio hasta ahora. La distancia máxima a Marte viene a ser 1.000 veces mayor que la que hay entre la Tierra y la Luna, lo que viene a ser 1.000.000 de veces mayor que la distancia que separa la superficie terrestre de las órbitas LEO a las que se viaja normalmente.

Distancias aproximadas mínima y máxima posibles entre la Tierra y Marte. Como referencia, la distancia media de la Tierra a la Luna es de 380.000 km.

Sin necesidad de conocer nada más, los datos acerca de la distancia a Marte ya constituyen una buena pista para empezarnos a asomar a la magnitud del problema. Para apreciarlo mejor, y sin entrar en detalles relativos a métodos de propulsión o dinámica orbital, vamos a comparar en números redondos dos misiones tripuladas, una orbital alrededor de la Tierra para un solo tripulante y otra lunar de tres tripulantes, para hacernos una idea de la progresión en la masa necesaria de los cohetes involucrados para llevar a cabo estas misiones y entender el contexto de lo que supondrá una misión a Marte.

Empezamos con la primera misión orbital del Programa Mercury de principios de los ’60: la Mercury 6 de John Glenn. Aquí se precisó de un cohete Atlas de 120 toneladas y 29 metros de altura para poner en una órbita de 200 km de altitud media alrededor de la Tierra una masa útil de 1,2 toneladas formada por una cápsula Mercury con su único tripulante, el cual permaneció en el espacio 5 horas.

Veamos ahora lo que cambia la situación al tener a la Luna como destino unas 1.000 veces más lejos. En el caso del Apolo 17 -la última misión de exploración lunar-, su módulo de mando y servicio más su módulo lunar, sumando todo cerca de 50 toneladas, hubieron de ser lanzados a la Luna por el poderoso cohete Saturno V de unas 3.000 toneladas y de 110 metros de altura para una misión de una duración total de unos 12 días y medio en la que 2 de sus tripulantes permanecieron sobre la superficie lunar algo más de 3 días.

Cohete lunar Saturno V junto al cohete Atlas del Programa Mercury para un tripulante (Transbordador Espacial incluido como referencia). Fuente: http://historicspacecraft.com/.

Vemos así el salto cuantitativo necesario cuando queremos ir a otro mundo que está 1.000 veces más allá de las órbitas bajas de la Tierra tanto en la masa útil a lanzar (de 1,2 a 50 toneladas) como en el tamaño del cohete lanzador requerido (de 120 a 3.000 toneladas). Comparemos todo esto con una misión a Marte. Aquí la tripulación constará de 6 astronautas y su duración, tomando como ejemplo la oportunidad en 2037, sería de 174 días para la ida y 201 días para la vuelta, con una estancia de 539 días en Marte. Una estancia tan larga en Marte sería necesaria a la espera de que la posición relativa entre este planeta y la Tierra fuera óptima para el regreso con un mínimo gasto de combustible, lo que ahorra el envío de centenares de toneladas de combustible. Todo esto supone un total de 914 días, o 2 años y medio.

Como vemos, el salto entre la Luna y Marte es descomunal, ya que doblar la tripulación y extender la duración a cerca de 73 veces la de la misión lunar más larga, supone la necesidad de proveer y transportar cerca de 150 veces más suministros. Por otra parte, una mayor duración de viaje interplanetario supone la necesidad de proveer a la tripulación de mayor protección contra las radiaciones, lo que se consigue en parte añadiendo aún más masa, aunque este problema no está aún resuelto.

Otro problema de la larga duración es que las cosas se rompen a lo largo de tanto tiempo. O bien se tendrá que mejorar sustancialmente la durabilidad de los equipos o estos habrán de poder ser repuestos por recambios que también habrá que transportar, lo que implica una mayor masa. Las naves de carga que visitan la ISS pueden abastecerla de repuestos cuando algo se estropea a bordo pero esta opción no será posible en una misión a Marte.

Una vez dicho todo esto, al igual que cuesta más acelerar y frenar un camión que un turismo por tener el primero más masa, tengamos en cuenta que enviar más masa a Marte implica transportar también más combustible para acelerar toda esa carga hacia Marte, para frenarla a la llegada a ese planeta, y para volver a la Tierra desde allí; y pensemos que todo ese combustible (centenares de toneladas) también hay que lanzarlo al espacio inicialmente.

En total, para una misión a Marte se requerirá lanzar al espacio entre 850 y 1.250 toneladas. Esta es una cantidad enorme si tenemos en cuenta que la Ia ISS tiene una masa de unas 420 toneladas y que una nave con la que estamos familiarizados como el Transbordador Espacial solo podía enviar al espacio entre 15 y 25 toneladas aproximadamente, dependiendo de la altitud de la órbita final. El Ariane 5 es capaz de poner unas 20 toneladas en órbita baja alrededor de la Tierra, al igual que el cohete ruso Protón, por ejemplo.

Así pues, a partir de todo esto, y sin saber mucho más, ya podemos anticipar de forma intuitiva que no se podrá utilizar un único cohete para ir a Marte, sino que se precisarán varios lanzamientos de cohetes -tanto o más poderosos que el Saturno V de los años ’60- para ensamblar en el espacio distintos elementos de propulsión, módulos de combustible, hábitats y naves, que habrán de enviarse a Marte por separado y por anticipado, además de la nave con la tripulación, que sería enviada en último lugar. Entraremos en estos detalles en la siguiente entrada.

Aunque depende de diversos factores, se requerirán, de hecho, del orden de 10 lanzamientos de cohetes con la capacidad del Saturno V o similar; pero recordemos que el número total de cohetes Saturno V que se enviaron a la Luna en todo el Programa Apolo fue de 9. El Saturno V fue retirado de servicio después del Porgrama Apolo pero ostenta el récord, aún a día de hoy, como el cohete operativo más poderoso que haya habido nunca, capaz de poner algo más de 120 toneladas en órbita baja alrededor de la Tierra y de enviar 50 toneladas a la Luna. Tuvo que ser específicamente diseñado y construido en su día para poder alcanzar la Luna, y no existe un lanzador de tanta capacidad en la actualidad. El cohete que se encargaría de la mayor parte de los lanzamientos en una futura misión a Marte se está desarrollando en la actualidad y se llama SLS (Space Launch System), el cual tendrá prestaciones parecidas o acaso un tanto mayores que el Saturno V.

Por otra parte, un tiempo de 174 días de ida en condición de ingravidez afecta profundamente a la fisiología humana, algo especialmente preocupante al llegar a un planeta donde no hay nadie para asistirte. Las naves que se pueden ver en las películas (incluida la película ‘Marte’), con un amplio y confortable habitáculo en forma de donut girando para simular la aceleración de la gravedad, no son realistas en la actualidad.

                     La Tierra vista desde Marte (izda.) y desde la Luna (dcha.). Fuente: NASA.

Dos años y medio es un tiempo muy largo también por razones psicológicas. La Tierra será vista por la tripulación como un punto de luz semejante a una estrella durante la mayor parte del viaje y será apenas imperceptible en la noche marciana cuando fuera visible. La tripulación tendrá que convivir en una condición de confinamiento permanente en un espacio reducido en una situación de gran estrés, y con la imposibilidad de mantener conversaciones fluidas con los seres queridos en la Tierra debido al tiempo de viaje de la señal.

Después de todo esto, y aunque no se han mencionado todas las dificultades técnicas, tecnológicas y operativas, creo que ahora puede apreciarse un poco mejor a lo que nos enfrentamos en una misión a Marte. A partir de aquí, y una vez expuesta esta perspectiva para contextualizar el problema y entrar en materia, en la siguiente entrada explicaré cómo se plantea en la actualidad una misión humana a Marte y cómo se relaciona con lo que se ve en la película ‘Marte’ (The Martian).

sigue en la II parte