Abr
7
¡La Mecánica cuántica! ¿Quién la entiende?
por Emilio Silvera ~ Clasificado en Física ~ Comments (3)
Werner Heisenberg
Sí, el principio cuántico es muy extraño. Cuando en 1927, el joven físico alemán Werner Heisenberg llegó al Principio de Indeterminación, la física moderna rompió de manera decisiva con la física clásica, una nueva Era comenzaba con otra manera de mirar el mundo que nos rodea a través de la Física. Heisenberg descubrió que se puede conocer, o bien la posición exacta de una partícula determinada, o bien su trayectoria exacta, pero no ambas.
¡¡La mecánica cuántica!!, o, la perplejidad de nuestros sentidos ante lo que ese “universo cuántico” nos ofrece que, generalmente, se sale de lo que entendemos por sentido común. Ahí, en el “mundo” de los objetos infinitesimales, suceden cosas que, no siempre podemos comprender. Y, como todo tiene una razón, no dejamos de buscarla en cada uno de aquellos sorprendentes sucesos que en ese sitio tienen lugar. Podríamos llegar a la conclusión de que, la razón está en todo y solo la encontramos una vez que llegamos a comprender, mientras tanto, todo nos resulta extraño, irrazonable, extra-mundano y, algunas veces…imposible. Sin embargo, ahí está.
El entrelazamiento cuántico ha sido confirmado
Dos elementos actúan de común acuerdo para garantizar que no podamos descorrer el velo del futuro, de lo que será después (podemos predecir aproximaciones, nunca certezas), el principal de esos elementos es la ignorancia nunca podremos saber el resultado final de éste o aquél suceso sin tener la certeza de las condiciones iniciales. En la mayoría de los sistemas físicos son, en mayor o menor medida dada su complejidad, del tipo caótico es tal que, el resultado de las interacciones entre elementos son sumamente sensibles a pequeñísimas variaciones de los estados iniciales que, al ser perturbados mínimamente, hacen que el suceso final sea y esté muy alejado del que se creía al comienzo.
Desde las certezas que parecía darnos la mecánica clásica de Newton sobre la posición, trayectoria y velocidad de cualquier partícula microscópica o cuerpo celeste se nos echaba en brazos de la indeterminación cuántica. Ya no podía conocerse simultáneamente la posición y la velocidad de una partícula con la infinita exactitud que se suponía, y el principio de indeterminación de Heisenberg parecía habernos desterrado del paraíso de las certidumbres clásicas. Pero ese paraíso nunca existió en realidad, desde un punto de vista puramente clásico se puede demostrar que la predictibilidad que se suponía a los sistemas clásicos nunca fue esencialmente cierta. Independientemente de la precisión con que conozcamos el estado inicial de un sistema clásico (no cuántico) las imprecisiones tienden a crecer, de forma natural, con el tiempo y nuestra información inicial puede llegar a ser inútil para predecir su evolución futura.
Problemas de conservación del momento lineal
Si disparas una pistola y la bala, sale del cañón del arma, desviada unos milímetros, cuando llega al blanco situado a 50 metros, la desviación habrá crecido considerablemente alejándose del blanco. La condición inicial es muy importante.
Ahora bien, esto se trata de ignorancia pura. Si fuésemos capaces de contralar las condiciones iniciales, y además pudiésemos considerar el estado de cada una de los cientos o miles de variables que influyen sobre el sistema, podríamos predecir con exactitud la velocidad y la trayectoria de unas bolas de billar, por ejemplo, en cualquier tiempo futuro.
De hecho, la Ciencia se está volviendo extremadamente buena en controlar y calcular las condiciones de un sistema. Somos capaces de enviar naves espaciales a sitios muy distantes con una exactitud enorme (la Cassini es un buen ejemplo y, ayer mismo, teníamos aquí la partida de la Curiosity hacia el planeta Marte). Si sabemos contralar las condiciones iniciales (y no ocurren accidentes por el camino) podemos predecir, con ciertas garantías que, la nave llegará a su destino como se había calculado. Es decir, de alguna manera, estamos impidiendo ese principio de incertidumbre que está presente en todo lo que acontece en nuestras vidas, en el mundo y, en el Universo.
Nunca podremos estar seguros del resultado en una tirada de dados. En verdad, son pocas las cosas en las que podemos tener una completa certeza, y, aunque no lo sepamos, la razón está en la ignorancia de las condiciones iniciales y, en el caso de los dados en los factores que intervienen en el movimiento. Decimos entonces que la Naturaleza es aleatoria. Claro que, si yo tuviera que apostar con esos dados, sin dudarlo, escogería el 7. Esto es porque hay más maneras de formar 7 que cualquier otro número. Para más precisión, hay seis combinaciones de dados que darán un 8 o un 6. Claro que la certeza no existe y, entonces, recurrimos a las probabilidades. (Schrödinger creó su ecuación de la función de onda (Ψ) precisamente para contraponerla al principio de incertidumbre de Heisenberg, él nos situó en el campo de las probabilidades para “saber” dónde podría estar una partícula.
Si observamos un protón que atraviesa una cámara de niebla (ahora cámara de chispas, más moderna y efectiva), registrando su trayectoria podemos conocer la dirección en la que se mueve, pero en el proceso de abrirse camino a través del vapor de agua de la cámara el protón disminuirá su velocidad, restándonos información de dónde estaba en un momento determinado.
Los fotones son cuantos de luz
Alternativamente, podemos irradiar el fotón -tomar una instantánea de él, por decirlo así- y de este modo determinar su situación exacta en un instante determinado, pero la luz o cualquier otra radiación que usemos para tomar la fotografía apartará al fotón de su recorrido fijado, impidiéndonos el conocimiento de dónde habría estado si no hubiésemos actuado sobre él. Así que, el resultado es que estamos limitados en nuestro conocimiento del mundo subatómico. Sólo podemos obtener respuestas parciales, cuya naturaleza está determinada en cierta medida por las cuestiones que optamos por indagar.
El Principio de Incertidumbre
Cuando Heisenberg calculó la cantidad mínima ineludible de incertidumbre que limita nuestra comprensión de los sucesos de pequeña escala, halló que está definida nada menos que por h, el cuanto de acción de Planck.
Esquema de la formación de una traza en la cámara de niebla
Los físicos de partículas suelen encontrarse en sus vidas profesionales con el inconveniente de que aquello con lo que trabajan es tan sumamente pequeño que se vuelve indetectable tanto para el ojo humano como para los más avanzados sistemas de microscopía. Es cierto que en la actualidad se pueden conseguir imágenes en las que se distinguen átomos individuales cuando estos son lo suficientemente grandes, pero de ahí a poder visualizar un sólo protón, o un aún más pequeño electrón, hay un escalón insalvable para la técnica actual. Se han tomado espectros del electrón y, cada día, se avanza en esa dirección.
¿Cómo pueden, pues, los físicos saber que aquello con lo que trabajan no es un mero ente creado por su mente? ¿Cómo se pueden asegurar de que las partículas subatómicas existen en realidad? La respuesta es obvia: a través de su interacción con otras partículas o con otro sistema físico; y un ejemplo extraordinario de ello es, por ejemplo, en una cámara de niebla.
La partícula va dejando el rastro
Claro que, la Indeterminación cuántica no depende del aparato experimental empleado para investigar el mundo subatómico. Se trata, en la medida de nuestro conocimiento, de una limitación absoluta, que los más destacados sabios de una civilización extraterrestre avanzada compartirían con los más humildes físicos de la Tierra. En la Física atómica clásica se creía que se podía, en principio, medir las situaciones y trayectorias precisas de miles de millones de partículas -digamos protones– y a partir de los datos resultantes formular predicciones exactas de donde estarían los protones en determinado tiempo futuro. Heisenberg vino a demostrarnos que tal supuesto era falso, que nunca podremos saberlo todo sobre la conducta de siquiera una sola partícula.
Cualquier detector debe contener un medio sensible que quede perturbado al paso de la partícula a registrar (lo que “vemos” es la huella que deja la partícula al atravesar el medio) Esa perturbación debe poderse traducir a imágenes y datos numéricos que permitan reconstruir la trayectoria y calcular sus características.
Las imágenes de las partículas proceden de dos tipos de detectores: las cámaras de burbujas y los detectores electrónicos. En el primero, las partículas cargadas dejan a lo largo de su trayectoria una traza de burbujas de vapor que se puede ver y fotografiar. Es un proceso en cierto modo inverso al de la formación de una estela de vapor de agua al paso de los aviones a reacción.
Así que, el nuevo marco expuesto por el Principio de Indeterminación de Hesinberg cambió fundamentalmente nuestra visión del mundo de la física. Nos dio un nuevo conocimiento: A partir de aquel momento sabíamos que, no sólo la materia y la energía estaban cuantizadas sino que, también nuestro conocimiento del Universo lo estaba.
Cuanto más minuciosamente se examina el mundo subatómico, mayor parece la Indeterminación. Cuando un fotón choca con un átomo, haciendo saltar un electrón a una órbita más elevada, el electrón se mueve de la órbita inferior a la superior instantáneamente, sin tener que atravesar el espacio intermedio. Los mismos radios orbitales están cuantizados, y el electrón simplemente deja de existir en un punto para aparecer simultáneamente en otro. Es el famoso “salto cuántico” que tanto desconcierta. Eso nos viene a demostrar que predecir exactamente la conducta de los átomos.
De modo similar, a como vimos antes, es en virtud de la indeterminación cuántica como los protones pueden saltar la barrera de Coulomb, permitiendo que la fusión nuclear se produzca a una tasa suficiente para que las estrellas sigan brillando.
Imagen ilustrativa de la dualidad onda partícula, en el cual se puede ver cómo un mismo fenómeno puede tener dos percepciones distintas, verdaderamente la mecánica cuántica puede resultar extraña debido a su complejidad, en su “universo” los comportamientos difieren de lo que nos dicta el sentido común en nuestras vidas cotidianas del mundo macroscópico.
Sin embargo, como todo lo grande está hecho de cosas pequeñas, necesitamos conocer lo pequeño para comprender lo grande. Hasta la estrella más grande y la galaxia más brillante del Cosmos, están conformadas de partículas subatómicas unas más elementales que otras.
En fin amigo, que tenemos en nuestras manos todos los interrogantes que debemos desvelar y, otros muchos, que ni conocemos, y, por delante una tarea de tal complejidad que, posiblemente, nunca podremos acabar. Un sin fin de misterios que desvelar, problemas que resolver y, preguntas que contestar y, siendo conscientes de que, sin descorrer el velo que esconde los secretos del Universo…poco podríamos avanzar, nos sumergimos en la difícil tarea de conquistar ese conocer de las cosas ignoradas para que, algún día en el futuro, podamos saber, al menos hacia dónde vamos.
Sabemos que el presente está cargado de pasado y que, el futuro, lo estará de presente. Si eso es así (que lo es), tratemos de mejorar este presente para que, el futuro, sea algo mejor de lo que hoy tenemos. Y, amigos, si queremos, podremos lograrlo.
Muchos de los pasajes aquí volcados han sido extraídos de la obra “La Aventura del Universo” de Timoty Ferris, profesor emérito de la Universidad de California que es un maestro indiscutible de la divulgación cientific, otros tienen otras fuentes y, alguna fracción del contenido puede ser de propia cosecha que, alguna cosa se va aprendiendo con el tiempo.
emilio silvera
Abr
7
¿Qué pinta el Azar en todo esto?
por Emilio Silvera ~ Clasificado en General ~ Comments (0)
El mundo nos parece un lugar complicado. Sin embargo, existen algunas verdades sencillas que nos parecen eternas, no varían con el paso del tiempo (los objetos caen hacia el suelo y no hacia el cielo, el Sol se levanta por el Este, nunca por el Oeste, nuestras vidas, a pesar de las modernas tecnologías, están todavía con demasiada frecuencia a merced de complicados procesos que producen cambios drásticos y repentinos. La predicción del tiempo atmosférico es más un arte que una ciencia, los terremotos y las erupciones volcánicas se producen de manera impredecible y aparentemente aleatoria, los cambios en las Sociedades fluctúan a merced de sucesos que sus componentes no pueden soportar y exigen el cambio.
La inmensa complejidad que está presente en el cerebro humano y de cómo se genera lo que llalamos “la mente”, a partir de una maraña de conexiones entre más de cien mil millones de neuronas, más que estrellas existen en nuestra Galaxia, la Vía Láctea. Es algo grande que, en realidad, no hemos alcanzado a comprender.
La mente humana es de tal complejidad que no hemos podido llegar a comprender su funcionamiento. ¿Por qué unas personas tienen una gran facilidad para tocar el piano, otros para comprender las matemáticas complejas y algunos para ver lo que nadie ha sido capaz de detectar en el ámbito de la Naturaleza, pongamos por ejemplo un paisaje, o, llegar a comprender fenómenos físicos que configuran el mundo, el Universo y la vida?
Es precisamente a escala humana, donde se dan las características (posiblemente) más complejas del Universo, las que se resisten más a rendirse ante métodos y reglamentos fijos que las pretenda mantener estáticas e inamovibles por el interés de unos pocos.
Las Sociedades son dinámicas en el tiempo y en el espacio y, su natural destino es el de evolucionar siempre, el de buscar las respuestas a cuestiones para ellas desconocidas y que al estar inmersas en el corazón de la Naturaleza, se sirven de la Ciencia para poder llegar al lugar más secreto y arrancar esas respuestas que tanto, parecen necesitar para continuar hacia el futuro.
Claro que, ese futuro, no depende de esas Sociedades Humanas que de alguna manera, están a merced de sucesos como aquel de Yucatán, cuando al parecer, hace ahora 65 millones de años, perecieron los Dinosaurios que reinaron en el Planeta durante 150 millones de años hasta que llegó aquél fatídico (para ellos) pedrusco que, en realidad, posibilitó nuestra llegada.
Aquellos terribles animales que poblaban la Tierra hubiera hecho imposible nuestra presencia en el planeta. Formas de vida incompatibles con nuestra especie que desaparecieron -según parece- por causas naturales venidas del espacio exterior para que más tarde, pudiéramos nosotros hacer acto de presencia en el planeta que nos acoge.
Aquello se considera una extinción masiva ocurrida en la Tierra, algo tan claramente reflejado en el registro fósil que se utiliza para marcar el final de un período de tiempo geológico, el Cretáseo, y el comienzo de otro, el Terciario. Puesto que la “C” ya se ha utilizado como inicial en un contexto similar en relación con el período Cámbrico, este marcador se suele denominar frontera K-T, con una “K” de Kreide, que es el nombre del Cretáceo en alemán. No fueron solos los dinosaurios los que resultaron afectados, aunque son los que aparecen con mayor protagonismo en los relatos populares cuando se habla de este desastre.
Esqueletos de dinosaurios expuestos en el Museo Real de Ontario, Canadá.
Alrededor del 70 por ciento de todas las especies que vivían en la Tierra al finales del cretáceo habian desaparecidos a principios del Terciario, lo cual indica que se trató realmente de una “extinción en masa” y explica por qué los geólogos y los paleontólogos utilizan la frontera K-T como un marcador importante en el registro fósil. Dadas las dificultades que plantean unas pruebas de tiempos tan remotos, y la lentitud con la que se acumulan los estratos geológicos, todo lo que podemos decir realmente sobre la velocidad a la que se produjo aquella extinción es que sucedió en menos de unas pocas decenas de miles de años, pero en ningún caso durante muchos millones de años; sin embargo, esto se considera un cambio brusco en relación con la escala de tiempo utilizada en geología.
Gráfica de las extinciones los últimos 250 Millones de años
Las preguntas obvias que esto plantea son las mismas que surgen tras un gran terremoto -por qué sucedió, y si podría suceder de nuevo y, en su caso, cuándo- En el caso del suceso K-T hay un candidato muy adecuado para ser el desencadenante que hizo que la extinción se produjera, por ejemplo, hace 60 0 55 millones de años. Los restos del enorme cráter que data justo de entonces ha sido descubierto bajo lo que es ahora la península de Yucatán, en Méjico, y por todo el mundo se han hallado estratos de hace 65 millones de años que contienen restos de iridio, un metal pesado que es raro en la corteza terrestre, pero del que sabemos que es un componente de algunos tipos de meteoritos. La capa de iridio es tan delgada que tuvo que depositarse en menos de 10.000 años (quizá mucho menos), lo cual es coherente con la teoría de que el suceso K-T fue desencadenado en su totalidad, de manera más o menos instantánea, por un gran golpe que llegó del espacio interestelar.
El volcán Kilauea amenaza a las poblaciones de Hawai es terrible. La catástrofe está servida
No sería difícil explicar por que pudo suceder todo esto. La energía cinética contenida en un impacto de este calibre sería equivalente a la explosión de unos mil millones de megatoneladas de TNT y arrojaría al espacio unos detritos en forma de grandes bloques que se desplazarían siguiendo trayectorias balísticas (como las de los misiles balísticos intercontinentales) y volverían a entrar en la atmósfera por todo el globo terráqueo, difundiendo calor y aumentando la temperatura en todas las regiones. Se produciría un efecto de calentamiento de 10 kilowatios por cada metro cuadrado de la superficie terrestre durante varias horas, un fenómeno que ha sido descrito gráficamente por Jay Melosh. A continuación, unas diminutas partículas de polvo lanzadas al interior de la parte superior de la atmósfera se extendería alrededor del todo el planeta y, combinada con el humo de todos los incendios desencadenados por el “asado a la parrilla”, bloquearían el paso de la luz del Sol, causando la muerte de todas las plantas que dependían de la fotosíntesis y congelando temporalmente el planeta.
Si el planeta se congela, ¿Dónde nos meteremos? ¿Cuántas criaturas tendrán la oportunidad de sobrevivir? Y, si por el contrario los grandes glaciares se descongelan y suben los niveles de mares y océanos… ¿Cuantas inundaciones y ciudades quedaran bajo las aguas?
Hay pruebas de que, en épocas pasadas, la Tierra sufrió visitas inesperadas desde el espacio que trajo muerte y desolación. Hace unos 35 millones de años, la Tierra soportó unos impactos parecidos sin que se produjera una extinción del calibre del suceso K-T. Aunque los factores desencadenantes tengan la misma magnitud. Por otra parte, existen pruebas de que los Dinosaurios y otras especies estaban ya en decadencia en los dos últimos millones de años del Cretáceo. Parece que los grandes lagartos habían experimentado altibajos durante los 150 millones de años que se pasaron vagando por la Tierra. Hay opiniones para todos y algunos dicen que su desaparición se debió, en realidad, al aumento del Oxígeno en nuestra atmósfera.
Extinciones masivas
El suceso K-T es en realidad sólo una entre cinco catástrofes similares (en la medida en que afectó en aquella época a la vida en la Tierra) a las que los geólogos denominan en conjunto las “cinco grandes” -y no es en absoluto la mayor-. Cada una de ellas se utiliza como marcador entre períodos geológicos y todas han sucedido durante los últimos 600 millones de años.
La razón por la que nos centramos en este pasado geológico relativamente reciente es que fue en esa época cuando los seres vivos desarrollaron por primera vez algunas características, tales como las conchas, que podían fosilizarse fácilmente, dejando rastros que pueden reconocerse en los estratos que se estudian en la actualidad.
Nuevas especies de fósiles de invertebrados marinos, que vivieron hace 465 millones de años, se han hallado en diversos yacimientos de la provincia de Ciudad Real en España, y, por todas partes del mundo, si se profundiza en la Tierra, se encuentran fósiles y conchas de tiempos pasados. En la imagen recreada arriba se recoge el descubrimiento especies nuevas, de animales marinos con concha que han posibilitado su hallazgo después de tantos millones de años.
Pero centrémonos en las “cinco grandes extinciones” que, tomándolas cronológicamente se produjeron hace unos 440 millones de años (que marcaron la frontera entre los períodos Ordovícico y Silúrico), hace 360 millones de años (entre el Devónico y el Carbonífero), 250 millones de años (entre el Pérmico y el Triásico), 215 millones de años (en la frontera entre el Triásico y el Jurásico) y 65 millones de años (en la frontera K-T).
Millones de años
Intensidad de la extinción marina a través del tiempo. El gráfico azul muestra el porcentaje aparente (no el número absoluto) de los géneros de animales marinos extintos durante un determinado intervalo de tiempo. Se muestran las ultimas cinco grandes extinciones masivas.
Hay otras muchas extinciones en el registro fósil pero, las más importantes son las mencionadas. La más espectacular de todas ellas es el suceso que tuvo lugar hace unos 250 millones de años, al final del Pérmico. Se extinguieron al menos el 80 por ciento, y posiblemente hasta el 95 por ciento, de todas las especies que vivían en nuestro planeta en aquellos tiempos, tanto en la tierra como en los océanos, y lo hizo durante un intervalo de menos de 100.000 años. Sin embargo, dado que también se calcula que el 99 por ciento de todas las especies que han vivido en la Tierra se han extinguido, esto significa que son el doble las que han desaparecido en sucesos de -aparente- menor importancia.
La cuestión que nos intriga es si las extinciones en masa son realmente acontecimientos especiales, de carácter diferente al de las extinciones de menor importancia, o si son el mismo tipo de suceso, pero a gran escala -¿son las extinciones de vida en la Tierra unos hechos cuya naturaleza es independiente de su magnitud, como los terremotos y todos los demás fenómenos que la Naturaleza nos envía periódicamente que dan lugar a catástrofes y pérdidas de muchas vidas? La respuesta sincera es “no lo sabemos”, pero hay bastantes evidencias como para intuir que ésta es una posibilidad muy real.
El logotipo del Movimiento por la Extinción Humana Voluntaria es un globo terráqueo sobre el que aparece la letra V y sobre ella otra pequeña tierra y el acrónimo VHEMT de Voluntary Human Extinction Movement.
Gracias a un meticuloso trabajo de investigación de Jack Sepkoski, de la Universidad de Chicago que, pudo trazar un gráfico en el que mostraba como ha fluctuado durante los últimos 600 millones de años el nivel de extinciones que se produjo en cada intervalo de cuatro millones de años.
Extinciones según Sepkoski
El gráfico nos muestra que la muerte de los dinosaurios fue también la muerte de los invertebrados marinos. La pregunta que se puede plantear es que clase de aleatoriedad es ésta, si realmente son sucesos aleatorios. Resulta que es una ley potencial -nuestro viejo amigo, el ruido 1/f-. El origen de esta señal aleatoria, de enorme interés por su ubicuidad y propiedades matemáticas, sigue siendo un misterio, a pesar de la atención que se le ha dedicado.
Ahora bien, no parece probable que todas las extinciones de vida que han sucedido en la Tierra hayan tenido como causa impactos procedentes del espacio. Lo que parece estar diciéndonos el registro fósil es que las extinciones se producen en todas las escalas, todos los tiempos, y que (como en el caso de los terremotos) puede producirse una extinción de cualquier magnitud en cualquier época. Algunas extinciones podrían ser desencadenadas por impactos de meteoritos; otras, por períodos glaciares. Una cosa sí que nos queda clara: es necesario un gran desencadenante para que ocurra un gran suceso, y, no podemos olvidar que estamos inmersos en un Sistema Complejo -la vida en la Tierra- que es autoorganizador, se alimenta a partir de un flujo de energía, y existe al borde del Caos. Si comprendemos eso, estaremos preparados para entender lo que todo esto significa para la vida en sí misma, siempre expuesta a las fuerzas del Universo.
Por otra parte, a lo largo de nuestra Historia hemos conocido situaciones de muertes masivas como por ejemplo: La Peste de la Guerra del Peloponeso (430 a.C.), La Plaga Antonina (165 y 180), La Plaga de Justiniano (541 y 542), La Peste Negra (1348 y 1350), o, La Gripe Española (1918) y, todas ellas son en realidad de origen desconocido. Esto me lleva a pensar que la Tierra, nuestro planeta, viaja por el espacio como una gran nave espacial y recorre regiones interestelares en las que no sabemos qué puede haber, y, ¿quién puede negar que al atravesar esas regiones, no estén presenten en esllas esporas fuertemente acorazadasa contra la radiación que, atravesando la atmósfera terrestre se instalen tan ricamente en nuestro mundo para florecer y sembrar la muerte entre nosotros? Lo cierto es que son muchas las cosas que no sabemos.
De todas las maneras, no podemos negar que grandes cambios nos acechan y, como la medida del “tiempo” es distinta para la escala humana que para la del Universo, en cualquier momento podrá tener lugar un acontecimiento de índole diversa (la caída de un meteorito, una pandemia debastadora, cataclismos tectónicos de gran magnitud, explosiones supernovas de inmensa intensidad que barra nuestra atmósfera y siembre de radiación el planeta…) que vendrá a transformar todo lo que nosotros consideramos importante y que, para la Naturaleza, no es nada.
De todas las maneras, en una cosa sí tenemos que estar de acuerdo: ¡La vida! Esa cosa tan frágil pero tan fuerte, se ha resistido a desaparecer a lo largo de los millones de años que lleva en el planeta y, eso nos lleva a sospechar que, lo mismo habrá sucedido en otros lugares y la Vida, debe estar por todas partes… ¡A pesar de todo!
emilio silvera
La fuente de la mayor parte del contenido de este trabajo, hay que buscarla en los pensamientos del maestro J. Gribbin, un Astrofísico de nuestro tiempo.
Abr
6
Desde el pasado pero, ¡siempre hacia el futuro!
por Emilio Silvera ~ Clasificado en Física ~ Comments (1)
Ahora todos hablamos del LHC. Sin embargo, la historia de los aceleradores no comenzó con éste moderno y complejo conglomerado de sofisticadas estructuras que hacen posible que visitemos lugares muy lejanos en el corazón de la materia. Tendríamos que recordar al acelerador lineal también llamado LINAC (linear accelerator) es un tipo de acelerador que le proporciona a la partícula subatómica cargada pequeños incrementos de energía cuando pasa a través de una secuencia de campos eléctricos alternos.
Mientras que el generador de Van de Graaff proporciona energía a la partícula en una sola etapa, el acelerador lineal y el ciclotrón proporcionan energía a la partícula en pequeñas cantidades que se van sumando. El acelerador lineal, fue propuesto en 1924 por el físico sueco Gustaf Ising. El ingeniero noruego Rolf Wideröe construyó la primera máquina de esta clase, que aceleraba iones de potasio hasta una energía de 50.000 eV.
De cómo llegamos hasta los Quarks
La técnica de la interferometría de muy larga base a longitudes de onda milimétricas (mm-VLBI) ha permitido obtener imágenes de los motores centrales de las galaxias activas con una resolución angular de decenas de microsegundos de arco. Para aquellos objetos más cercanos (M87, SgrA) se obtienen resoluciones lineales del orden de las decenas de Radios de Schwarzschild, lo que permite estudiar con detalle único la vecindad de los agujeros negros super-masivos.
Veámos que nos cuenta: “Desde el pasado pero, ¡siempre hacia el futuro!”
Imagem cedida por Diamond Light Source
Acelerador de partículas construido en las instalaciones del Diamond Ligth Source en Oxfordshire (Inglaterra). Llamado la Fuente luminosa de diamante, el Diamond synchrotron comenzó a funcionar en enero de 2007. La luz que puede generar este artefacto es 100 mil millones de veces más brillante que un rayo X estándar médico.
Un acelerador de partículas (como todos sabemos) es, a grandes rasgos, una máquina que mediante campos electromagnéticos acelera partículas hasta que alcanzan velocidades inimaginables. Luego, por ejemplo, hacen chocar estas partículas y así se consigue saber de qué está formada la materia en sus partes más diminutas (mucho más diminutas que un átomo). Eso es lo que hace el LHC.
Sin embargo, en el caso de este acelerador, los científicos esperaban usar la luz del Diamond synchrotron para “leer” los textos antiguos que han sufrido el daño significativo. Porque los potentes rayos X permitirán hacerlo sin ni siquiera abrir el libro. El synchrotron emite un rayo X tan poderoso que, al incidir en una voluta, permite producir una imagen de 3-D del texto.
La técnica ya había sido aplicada satisfactoriamente en textos escritos con la tinta de hierro, que los escribanos comenzaron a usar en el siglo XII. Algunas de las tintas hechas con extractos vegetales y sales de hierro utilizadas en el Siglo XII deterioran el tipo de pergamino utilizado, imposibilitando la lectura de documentos valiosos. Simplemente he querido incluir esta introducción para que os hagais una idea de hasta donde puede llegar nuestro ingenio.
(ilustración de un nano robot)
Si hablamos de nuevos inventos en los campos más diversos, nos podríamos sorprender de lo que se ha conseguido en los últimos años que, desde una “mano robótica” capaz de realizar toda clase de movimientos, “El sexto sentido”, una interfaz gestual portable que permite la interacción entre los gestos y los movimientos naturales del cuerpo humano con una computadora, o, un Implantes de retina, que devuelve la visión a pacientes con degeneración macular y ceguera mediante implantes microelectrónicos. Entre los últimos inventos dedestaca una variedad de plástico hecha con orina de cerdo y lentes de contacto biónicos. Se inventa un proceso capaz de cultivar parte de un corazón humano a partir de células madre, una máquina que puede imprimir una novela completa de 300 páginas en tan solo 3 minutos y por un costo ínfimo, una batería que funciona con cualquier solución azucarada y enzimas de digestión de glucosa capaz de extraer electrones que crean electricidad…
Las nuevas tecnologías y los inventos que se están produciendo en el siglo XXI, harían abrir la boca por el asombro a los filósofos naturalistas del pasado que trataban de profundizar en el conocimiento de la Naturaleza. Ellos fueron los que pusieron las primeras piedras del Edificio que hoy, llamamos Ciencia.
Corazones e Hígados artificiales, el guante de braille para ciegos, o, yendo más allá…
Un “Diente telefónico”. Se trata de un minúsculo implante que se coloca en el diente molar y que mediante un complejo sistema de señales y vibraciones permite recibir llamadas telefónicas. Tejido artificial nanotecnológico, Parche hormonal anticonceptivo, o, esa invención que hace posible que con una pequeña gota nos permite descubrir si en una bebida se ha vertido alguna de las llamadas “drogas del depredador” como las GHB o la Ketamina. Estas drogas suelen utilizarse por violadores y secuestradores pues facilitan dicho crimen al desinhibir a la víctima. El “Motor a nanoescala”, lo suficientemente pequeño como para viajar en la espalda de un virus. Un dispositivo que administra medicamentos a través de ondas sonoras que sustituyen las inyecciones, siendo igual de efectivas. Plástico inteligente capaz de modificar su estructura ante la exposición de determinadas longitudes de onda. Un dispositivo móvil creado por Aqua Sciences que permite beber agua del aire. ¿Os imagináis lo que supondrá eso en la travesía de un desierto? INSCENTINEL inventa un sistema de entrenamiento para que abejas sean capaces de detectar bombas y explosivos.
Las cosas no llegaron por arte de magia… ¡muchas ideas hicieron falta!
Ahora miramos a nuestro alrededor y todo lo que vemos que ocurre nos parece lo normal, que las cosas son así. Sin embargo, habría que pensar -por ejemplo, en el ámbito de la física de partículas- que, el diluvio de estructuras sub-nucleares que desencadenó “el acelerador” de partículas, fue tan sorprende como los objetos celestes que descubrió el telescopio de Galileo. Lo mismo que pasó con la revolución galileana, con la venida de los aceleradores de partículas, la Humanidad adquirió unos conocimientos nuevos e insospechados acerca de cómo era el mundo, la naturaleza de la materia.
Que en este caso de los aceleradores se refería al “espacio interior” en lugar de al “espacio exterior” no los hacía menos profundos ni menos importantes. El descubrimiento de los microbios y del universo biológico invisible por Pasteur fue un descubrimiento similar y, ya puestos, haremos notar que pocos se acuerdan ya de Demócrito, aquel filósofo sontiente que, tomó prestado de los antiguos hindúes, la idea del á-tomo, la expresión “más pequeña de la materia” que era “indivisible”.
Ahora sabemos que Demócrito estaba equivocado y que el átomo, sí se puede dividir. Sin embargo, él señaló un camino y, junto a Empédocles, el que hablaba de “elementos” como agua, aire, fuego y tierra, para significar que eran los componentes, en la debida proporción de todo lo que existía…, junto a otros muchos, nos han traído hasta aquí. Así que, los inventos que antes se mencionaban, no han llegado porque sí, ha sido un largo camino, mucha curiosidad y mucho trabajo y, no lo olvidemos: ¡Observar, Imaginar y Experimentar!
Nos dimos cuenta y estaba claro que la búsqueda de la menor de las partículas requería que se expandiese la capacidad del ojo humano: primero lupas, después microscopios y, finalmente… ¡Aceleradores! que, utilizando energías inimaginables ( 14 TeV), nos llevaría hasta las entrañas de la materia que tratamos de conocer.
Todos estos experimentos en los aceleradores han posibilitado muchos de los avances que hoy día conocemos en los distintos campos del saber humano. Generalmente, cuando se habla de aceleradores de partículas, todos piensan en el Bosón de Higgs y cosas por el estilo. Sin embargo, las realidades prácticas de dichos ingenios.
“La “gran ciencia” (big science) genera tecnología, tecnología punta, genera industria, mucha industria, genera riqueza. Los grandes aceleradores de partículas, como el LHC del CERN, son ejemplos perfectos de ello. La tecnología de aceleradores de partículas ha permitido desarrollar dispositivos de implantación iónica que se utilizan para la fabricación de mejores semiconductores, para la fabricación prótesis de rodilla más duraderas, para la fabricación de neumáticos menos contaminantes, para el desarrollo de nuevas terapias contra el cáncer. Esto último gracias a que lo último de lo último en superimanes superconductores está en los grandes aceleradores. Esta tecnología ha permitido desarrollar y permitirá mejorar los potentes imanes necesarios en el diagnóstico clínico (como en resonancia magnética nuclear) y para terapias contra el cáncer basadas en haces de protones. Nos lo cuenta Elizabeth Clements, en “Particle physics benefits: Adding it up,” Symmetry, dec. 2008″ (Francis (th)E mule Science’s News).
Beneficios de la investigación básica en Física de Partículas: La tecnología desarrollada en los aceleradores de partículas tiene beneficios indirectos para la Medicina, la Informática, la industria o el medio ambiente. Los imanes superconductores que se usan para acelerar las partículas han sido fundamentales para desarrollar técnicas de diagnóstico por imagen como la resonancia magnética. Los detectores usados para identificar las partículas son la base de los PET, la tomografía por emisión de positrones (antipartícula del electrón). Y muchos hospitales utilizan haces de partículas como terapia contra el cáncer.
Describe la propiedad de un núcleo atómico para girar sobre su eje como un trompo, transformándolo en un pequeño imán. Los núcleos atómicos de hidrógeno, … La imagenología es la rama de la medicina que trata del diagnóstico morfológico empleando diferentes modalidades de visualización del cuerpo humano basado en imágenes obtenidas con radiaciones ionizantes u otras fuentes de energía, así como procedimientos diagnósticos y terapéuticos. Los equipos de imagenología requieren instalaciones especiales, como obra civil, instalación eléctrica, jaulas de Faraday, clima controlado, entre otras para llegar en forma rápida y segura a la detección de muchas enfermedades.
Con velocidades 10.000 veces mayor que una conexión típica, “The Grid” podrá enviar un catálogo completo de información desde Gran Bretaña a Japón en menos de 2 segundos. Esta red, creada en el centro de física de partículas CERN, puede proveer el poder necesario para transmitir imágenes holográficas; permitir juegos en línea con cientos de miles de personas, y ofrecer una telefonía de alta definición en video al precio de una llamada local.
Así, la World Wide Web (WWW), el ‘lenguaje’ en el que se basa Internet, fue creado en el CERN para compartir información entre científicos ubicados alrededor del mundo, y las grandes cantidades de datos que se producen motivan el desarrollo de una red de computación global distribuida llamada GRID. Los haces de partículas producidos en aceleradores tipo sincrotrón o las fuentes de espalación de neutrones, instrumentos creados para comprobar la naturaleza de la materia, tienen aplicaciones industriales en la determinación de las propiedades de nuevos materiales, así como para caracterizar estructuras biológicas o nuevos fármacos. Otras aplicaciones de la Física de Partículas son la fabricación de paneles solares, esterilización de recipientes para alimentos o reutilización de residuos nucleares, entre otros muchos campos.
También en el campo de la Astronomía, el LHC, nos puede ayudar a comprender cosas que ignoramos. Nos hemos preguntado sobre la existencia de estrellas de Quarks-Gluones, y, sobre el tema, algo nos ha dicho ya el Acelerador Europeo de Partículas que trata de llegar hasta “la materia oscura” y algunos otros enigmas que nos traen de cabeza.
No es extraño encontrarnos una mañana al echar una mirada a la prensa del día, con noticias como éstas:
Colisión de iones pesados registrada por el experimento ALICE. (Imagen: CERN.)
El acelerador europeo ha obtenido plasma de quarks–gluones, el primer estado de la materia tras el Big Bang.
“No todo son bosones de Higgs en las instalaciones del CERN. Aún hay muchas preguntas sobre el Universo y sus partículas que se pueden responder a base de colisiones de alta energía. Y en eso, el LHC es el mejor. Un grupo de investigadores del consorcio europeo ha realizado nuevas mediciones de la que creen que es el primer tipo de materia que hubo durante los instantes iniciales del universo. El plasma de quarks–gluones.
Los quarks y los gluones son, respectivamente, los ladrillos y el cemento de la materia ordinaria. Durante los primeros momentos tras el Big Bang, sin embargo, no estaban unidos constituyendo partículas —como protones o neutrones— sino que se movían libremente en estado de plasma. A base de colisionar iones de plomo —que es un átomo muy pesado— a velocidades cercanas a las de la luz, el LHC pudo recrear durante pequeños lapsos de tiempo las que se creen fueron las condiciones de los primeros momentos del universo.
El plasma de quarks–gluones es extremo y efímero. Por eso los investigadores han tenido que analizar los resultados de más de mil millones de colisiones para obtener resultados significativos.”
Eventos de colisión de 7 TeV visto por el detector LHCb. El experimento del LHCb en el LHC está bien ubicado para explorar el misterio de la antimateria. Crédito: LHC, CERN. Ya sabéis que, durante muchos años, la ausencia de antimateria en el Universo ha atormentado a los físicos de partículas y a los cosmólogos: mientras que el Big Bang debería haber creado cantidades iguales de materia y antimateria, no observamos ninguna antimateria primordial hoy en día. ¿Dónde ha ido? Los experimentos del LHC tienen el potencial de dar a conocer los procesos naturales que podrían ser la clave para resolver esta paradoja.
Cada vez que la materia es creada a partir de energía pura, se genera la misma cantidad de partículas y antipartículas. Por el contrario, cuando la materia y la antimateria se encuentran, se aniquilan mutuamente y producen luz. La antimateria se produce habitualmente cuando los rayos cósmicos chocan contra la atmósfera de la Tierra, y la aniquilación de materia y antimateria se observa durante los experimentos de física en los aceleradores de partículas.
Equipos de físicos en todo el mundo siguen analizando datos. Aquellas primeras colisiones de protones a la alta energía prevista de 7 Teraelectronvoltios (TeV), una potencia jamás alcanzada en ningún acelerador antes, nos puede traer noticias largamente esperadas y desvelar misterios, contestar a preguntas planteadas y, en definitiva, decirnos cómo es la Naturaleza allí, donde el ojo humano no puede llegar pero, si la inteligencia.
Lo cierto es que, todos tenemos que convenir en el hecho cierto de que, el LHC es el mayor experimento físico de la historia de la Ciencia y que, de seguro, nos dará la oportunidad de comprender muchas cuestiones que antes se nos aparecían oscuras e indistinguibles entre la bruma de esa lejanía infinitesimal de la cuántica. Ahora, tenemos una herramienta capaz de llevarnos hasta aquellos primeros momentos en los que se construyó la historia del universo y, si podemos, de esta manera “estar allí”, veremos, con nuestros propios ojos lo que pasó y por qué pasó de esa manera.
Toda esta larga exposición de temas, de alguna manera conectados, viene al caso para dejar claro que, aquellos detractores del LHC, no llevaban la razón y, sus protestas no tenían un contenido científico. El Acelerador de Partículas que llamamos abreviadamente LHC, nos ha dado y nos seguirá dando, muchos beneficios para toda la Humanidad.
emilio silvera
Abr
6
¿Como parar la Vida en el Universo?
por Emilio Silvera ~ Clasificado en El Universo y la Vida ~ Comments (1)
“Miles de especies viven en un lago subterráneo al que la luz y el aire no han llegado en millones de años.”
Bajo los hielos de la Antártida hay vida en abundancia. Lo acaba de demostrar una expedición norteamericana, llamada Wissard (Whillans Ice Stream Subglacial Access Research Drilling), formada por investigadores de varias universidades y que esta semana ha publicado en Nature sus primeras conclusiones. Bajo una capa de hielo de más de 800 metros de grosor, los científicos han encontrado todo un ecosistema viviendo en un lago subterráneo al que la luz y el aire no han llegado en millones de años.
Las formas de vida descubiertas son microorganismos unicelulares que para subsistir convierten amoniaco y metano en energía. La mayor parte de estos organismos pertenecen al dominio de las Arqueas, en el que se encuentran los seres vivos más antiguos del planeta. La investigación tiene implicaciones para la búsqueda de vida en otros ambientes extremos, tanto en la Tierra como en otros mundos del Sistema Solar.
Para John Priscu, profesor de la Universidad de Montana y jefe científico de la expedición Wissard, “ahora podemos probar al mundo de forma inequívoca que la Antártida no es un continente muerto”. El estudio, en efecto, aporta las primeras pruebas directas de que la vida es capaz de resistir en las más duras condiciones del ambiente sub-glacial.
Brent Christner, otro de los autores del estudio, afirma que se trata de la primera prueba definitiva de que bajo la capa de hielo antártico “no solo hay vida, sino ecosistemas activos que hemos estado buscando durante décadas. Con este trabajo damos un golpe sobre la mesa y afirmamos: šSí, teníamos razón”.
Priscu, por su parte, asegura no estar del todo sorprendido de que el equipo haya logrado encontrar por fin vida tras perforar más de 800 metros de hielo hasta llegar al lago subglacial Whillans. No en vano, se trata de un investigador experimentado y que ha trabajado tanto en el Polo Norte como en el Polo Sur. Este otoño, en efecto, cumplirá su campaña número 30 en la Antártida, y hace mucho que predijo este descubrimiento.
Aunque nos parezca imposible, bajo los hielos Antárticos, la vida estará presente
Hace ya más de una década, Priscu publicó dos artículos en Science describiendo por primera vez cómo la vida microbiana podría vivir y multiplicarse bajo los hielos de la Antártida. Y hace cinco años, publicó otro artículo en el que predijo que el ambiente subglacial antártico podría albergar el humedal más extenso de toda la Tierra, uno que no estaría dominado por aves y otros animales, sino por microorganismos que utilizan los minerales de las rocas heladas para obtener la energía que necesitan para vivir.
Durante la última década, Priscu se ha dedicado a recorrer el mundo dando conferencias sobre lo que podríamos encontrar bajo la Antártida, y recaudando fondos para una expedición que podría cambiar para siempre nuestra visión sobre el mayor continente del planeta.
Microbios que viven a 800 metros bajo el Hielo
Sin embargo, Priscu sí que se muestra muy excitado con respecto a varios detalles del hallazgo, especialmente en la forma de funcionar de estos organismos, sin luz solar y a temperaturas muchos grados bajo cero, y al hecho de que la mayoría de ellos, tal y como revelan los análisis de ADN, sean Arqueas. Arquea es uno de los tres dominios principales de la vida. Los otros dos son Bacteria y Eukariota.
La mayoría de las arqueas subgaciales encontradas utilizan la energía de los enlaces químicos del amoniaco para fijar el dióxido de carbono y llevar a cabo otras funciones metabólicas. Otro grupo de organismos utilizan la energía y el carbono presente en el gas metano para sobrevivir. Para Priscu, probablemente todo este amoniaco y metano procedan de la descomposición de materia orgánica que se depositó en la zona hace cientos de miles de años, cuando la Antártida era aún templada y el mar inundó la parte occidental del continente.
Las emisiones de metano del Ártico este mes se registraron en niveles históricos-altos, causando gran preocupación entre los climatólogos, que citan fusión rápida del hielo marino y el calentamiento del océano Ártico como las principales causas.
También advierte el investigador de que si la Antártida continúa calentándose, se liberarán a la atmósfera enormes cantidades de metano acumulado en el hielo, un poderoso gas de efecto invernadero capaz de acelerar dramáticamente el cambio climático.
El equipo de científicos también demostró que los microorganismos que viven en el lago Whillans no pueden ser fruto de la contaminación de los materiales de los propios científicos, tal y como se sospecha que ocurrió con los hallados en el lago sub-glacial de Vostok. Los escépticos, por su parte, apoyan esta posibilidad y sugieren que los microorganismos encontrados son los que llevaban consigo los propios investigadores.
“Hemos llegado hasta el extremo -asegura Priscu- para garantizar que no hemos contaminado en absoluto uno de los ambientes más puros y prístinos del planeta y que nuestras muestras tienen la máxima integridad”.
4.000 especies
En cuanto a las especies encontradas, resulta muy difícil su identificación, pero, afirma Christner por su parte, “hemos visto una columna de agua que probablemente tiene unas 4.000 “cosas” que podríamos llamar especies. Existe una increíble diversidad”.
El equipo de Wissard volverá a perforar durante el próximo verano austral. Wissard es el primer esfuerzo multidisciplinar a gran escala para examinar directamente la biología del ambiente sub-glacial antártico. La masa de hielo de la Antártida cubre una superficie equivalente a una vez y media la de los Estados Unidos y contiene el 70% del agua dulce de la Tierra.
Muy por debajo de la gruesa capa de hielo que cubre la Antártida, hay lagos de agua dulce sin una conexión directa con el océano. Estos lagos son de gran interés para los científicos, que tratan de entender el transporte de agua y la dinámica del hielo bajo la superficie congelada del continente.
El lago Whillans es uno de los más de 200 lagos que se conocen bajo la superficie del continente helado y el río subterráneo que lo alimenta fluye bajo la plataforma de Ross, una masa de hielo del tamaño de Francia, y desemboca en el océano, a gran profundidad, al que proporciona grandes cantidades de nutrientes y contribuye a la circulación de las corrientes marinas.
Y, a todo ésto, digo Yo:
¡No conocemos ni nuestra propia casa… ¡Y queremos viajar hacia las lejanas estrellas! ¡Ilusos!
Publica: emilio silvera
Abr
5
No conocemos ni nuestro propio “barrio”
por Emilio Silvera ~ Clasificado en Noticias ~ Comments (0)
CIENCIA
Sugieren que hay fuerzas tectónicas activas en aquel pequeño mundo que es hoy como fue la Tierra hace algunos miles de millones de años… ¿Será habitable en el Futuro?
Montañas de más de 3.000 metros en Titán, la mayor luna de Saturno
Mecanismos de formación de volcanes en la Tierra y en Titán (NASA).
Titán (i) durante su órbita alrededor de Saturno. | NASA
Los científicos ya sospechaban que Titán, la mayor luna de Saturno, albergaba agua líquida, aunque no habían podido demostrarlo hasta ahora. Lo pudieron hacer gracias a los datos aportados por ‘Cassini’, la sonda de la NASA que en 2004 entró en la órbita de Saturno.
Según un estudio publicado en la revista ‘Science’, las deformaciones en el interior de la luna detectadas por el orbitador sugieren que Titán alberga un océano subterráneo de agua líquida.
En la ilustración última se representa una tormenta de polvo en la Superficie de Titán
– ID de la imagen: PT5HGC
Con imágenes como éstas de arriba se pudo leer:
“La NASA confirma que la luna Titán podría albergar una “extraña vida alienígena basada en metano” Titán es muy singular porque tiene un océano en el subsuelo y lagos de hidrocarburos en superficie. “Puede representar la mejor posibilidad en nuestro sistema solar, de encontrar vida”, dicen los expertos.”
En la superficie de Titán podría existir alguna clase de Vida
La NASA, en su momento, anunció detalladamente la misión futura llamada Dragonfly (libélula), mediante la cual pretende realizar un viaje a la superficie de Titán que, entre otras misiones, tratará de encontrar rastros de vida en el pequeño mundo.
Tres mil trescientos treinta y siete metros. Esa es la altura de la montaña más alta de Titán, la mayor luna del planeta Saturno, según los científicos de la NASA. Una cifra sorprendentemente precisa teniendo en cuenta que la estimación se ha realizado con los datos recogidos por Cassini que comenzó a explorar Saturno y algunas de sus lunas allá por el 2.004.
“El pico de 3.337 metros se encuentra en un sistema denominado Montes Mithrim, un trío de crestas montañosas que alberga varios picos de unos 3.000 metros de altura. Otras regiones de Titán tienen montañas de esa altitud, como una zona denominada Xanadu o el área en la que en enero de 2005 aterrizó la sonda Huygens, de la Agencia Espacial Europea (ESA), que viajó a Saturno junto con Cassini. La mayor parte de las montañas más elevadas de Titán están cerca de su ecuador.
Esta investigación, explica la NASA, tuvo su origen en la búsqueda de zonas activas en la corteza de Titán, es decir, lugares en los que las fuerzas dinámicas han modelado el paisaje, posiblemente en un pasado relativamente reciente.”
Un océano de agua líquida
En la Tierra, las montañas y los acantilados suelen encontrarse en lugares que han sufrido la acción de la erosión. Han sido modelados por la acción del viento, la lluvia o las corrientes de agua durante largos periodos de tiempo. La sonda Cassini ha revelado que también el paisaje de Titán ha sido modelado por la acción de la lluvia y los ríos, aunque los autores de este estudio creen que esos procesos han sido mucho más lentos en Titán que en nuestro planeta. La explicación que ofrecen es que, al encontrarse diez veces más lejos del Sol que la Tierra, recibe de nuestra estrella menos energía para alimentar esos procesos de erosión.
Asimismo, creen que la corteza helada de Titán se asienta sobre un océano de agua líquida que probablemente actúa de forma parecida a como lo hace el manto superior terrestre, la capa de material fluido y caliente y sometido a alta presión que hay bajo la corteza. Se desplaza muy lentamente y provoca deformaciones.
Para los científicos, la altitud de las montañas de Titán es significativa (pese a que quedan lejos de los casi 9.000 m. que alcanzan en la Tierra) y sugiere que en la actualidad hay fuerzas tectónicas activas que podrían estar afectando a su superficie.
Aunque inicialmente estaba previsto que la sonda Cassini trabajara durante cuatro años, la buena salud de sus instrumentos ha hecho que la NASA prorrogue varias veces su misión y siga en funcionamiento en la actualidad.
Noticias