Nov
10
Una Supernova, cerca de la Tierra… ¡Causaría estragos!
por Emilio Silvera ~
Clasificado en Supernova ~
Comments (0)
El 24 de febrero de 1987, desde el observatorio chileno de Las Campanas se detectó un intenso brillo en el cielo. Era una supernova producida por el estallido de una estrella que había agotado su combustible. El cataclismo se había producido a las afueras de la Nebulosa de la Tarántula, en la Gran Nube de Magallanes, una galaxia enana situada en el vecindario de nuestra Vía Láctea. Este fenómeno, que solo se produce en nuestro entorno galáctico tres o cuatro veces cada siglo, permitió además detectar los primeros neutrinos procedentes de fuera del Sistema Solar. La captura de esos neutrinos extrasolares se produjo en el observatorio japonés Kamiokande. Aunque eran solo 24, proporcionaron gran cantidad de información sobre la supernova e hicieron merecedor del Nobel de física Masatoshi Koshiba.
Los neutrinos son unas partículas sin carga eléctrica que interactúan muy poco con el resto de la materia y pueden viajar por el cosmos sin verse afectados por los campos magnéticos que desvían otro tipo de partículas. Eso hace fácil determinar su origen y les convierte en buenos mensajeros para estudiar violentos fenómenos como las supernovas o los agujeros negros. El observatorio de Kamioka, construido en una mina a un kilómetro bajo tierra a principios de los 80, fue sustituido por una versión mejorada del experimento. Un gran tanque de 45 metros de diámetro por 45 metros metros de altura, lleno con 50.000 toneladas de agua pura, sirvió como trampa para atrapar estas escurridizas partículas.
Aún no se sabe por qué no se ha podido encontrar la estrella de neutrones que debió quedar tras la supernova de 1987
Super-Kamiokande
Ahora, según adelantaba la Agencia Sinc esta semana, los miembros de la colaboración internacional de científicos que trabaja en Super-Kamiokande han desarrollado un sistema de vigilancia para estar listo en caso de que estalle una supernova y poder detectarla. Según explica Luis Labarga, investigador de la Universidad Autónoma de Madrid y uno de los autores del artículo que explica el plan en la revista Astroparticle Physics, “se trata de un sistema informático que está analizando constantemente los datos que va recogiendo el detector para ver si hay algún tipo de exceso de flujo, de sucesos, que permita obtener una pequeña estimación probabilística de si es o no una supernova”. “La idea es poder saber si ha ocurrido una supernova en las siguientes horas o minutos a que suceda”, añade.
En caso de que la respuesta de esta alerta temprana sea positiva, se enviaría un aviso a observatorios de todo el mundo con las coordenadas del lugar del cielo en el que ha ocurrido para que puedan estudiar el fenómeno. “La ventaja de Super-Kamiokande es que si existe una supernova galáctica lo va a ver siempre porque no está mirando a ningún lado. Los telescopios ópticos, sí”, apunta Labarga.
Cuando estalla una supernova, la mayor parte de la energía que se libera lo hace en forma de neutrinos. Por eso, los estudiar estas partículas puede ayudar a entender bien estos fenómenos. Algunos de los objetos que se pueden estudiar mejor gracias a este nuevo tipo de astrofísica son las estrellas de neutrones y los agujeros negros, monstruos de materia superconcentrada que aparecen cuando las estrellas se colapsan bajo su propia gravedad.
Uno de los misterios que han rodeado a la supernova detectada en 1987 procede de la imposibilidad de detectar la estrella de neutrones que debería haber quedado tras el estallido de la estrella original. Algunas hipótesis para explicar la ausencia de esa estrella apuntan a que podría haber acumulado materia suficiente para producir un nuevo colapso y acabar convertida en un agujero negro. Gigantescas trampas para neutrinos como la japonesa de Kamioka pueden ayudar a resolver este y otros enigmas.
Nov
8
¿La Tierra? ¡Una maravcilla!
por Emilio Silvera ~
Clasificado en El Planeta Tierra ~
Comments (3)
¿Alguna vez has querido viajar a otros mundos y descubrir que hay más allá de tus fronteras? ¿Quieres conocer lugares que ni siquiera imaginarias que existen? Para esto no hace falta trabajar en la NASA ni salir de nuestra atmósfera, porque en nuestro planeta tenemos lugares que parecen sacados de otro planeta, lugares que en cuanto veas las imágenes no creerás que pertenecen a la Tierra. Te traigo algunos de ellos.
Lago Natron, Tanzania
Dicen que en este lago los animales se convertían en piedra, pero ¿es cierta esta leyenda? Este lago de agua salada y sin salida al mar, está ubicado en la región oriental del continente africano, más precisamente, en la frontera entre Kenia y Tanzania, sobre el Gran Valle del Rift. Este lago es de los más calmados de áfrica pero al estar cerca del estratovolcán Ol Doinyo Lengai, muchos de sus compuestos son químicos.

Desde este lago se suelen extraer distintos tipos de sales de cloro, sodio y magnesio. Sus aguas alcalinas tienen un increíble pH de 10.5 y puede provocar serias quemaduras en la piel y en los ojos de los animales que allí se acercan y que, lógicamente, aún no han logrado adaptarse. El carbonato de sodio, uno de los compuestos químicos que más abunda en el lago, es justamente uno de los que más se empleaban en el Antiguo Egipto para la momificación, actuando como un conservante muy eficaz.
Monte Roraima, Venezuela
Existe un mundo perdido y está en Venezuela. Este lugar es uno de los lugares más antiguos de la corteza terrestre y precisamente a Arthur Conan Doyle le sirvió de inspiración para su novela “El mundo perdido”. Esta meseta tan extensa está sobre la sabana tropical venezolana en el Parque Nacional de Canaima. Tiene 31 kilómetros cuadrados de superficie y está rodeada de acantilados verticales de 400 metros de caída.


Lago Spotted, Canadá
El conocido como Lago Manchado es una de las atracciones naturales conocidas de Canadá. Esta a unos 100 kilómetros al este de Vancouver y muy cerca de la frontera con Estados Unidos y debe su particular aspecto a la alta concentración de minerales tan diferentes, como sulfato de magnesio, calcio y sulfatos de sodio. Sin embargo es en verano, cuando el sol evapora parte de su agua y su imagen es francamente espectacular.


Volcan Mutnovsky, Rusia
Esta cueva parece sacada de un cuento. Descubierta hace pocos años, en 2012, en una expedición en la Península de Kamchatka, en Siberia, fue excavada en el hielo glaciar por un río de aguas termales del volcán Mutnovsky y posiblemente en la actualidad ya no exista por haberse derretido. Sin embargo, merece la pena disfrutar de estos momentos que la naturaleza, tan caprichosamente, nos brinda.



Badab-e-Surt, Irán
Ahora que llega el veranito apetecen los baños en sitios naturales. Badab-e Surt es un sitio natural en la provincia de Mazandaran en el norte de Irán. Se compone de una serie de formaciones escalonadas (terrazas de travertino) que se ha creado a lo largo de miles de años.
Badab-e Surt son dos manantiales de aguas minerales con diferentes características naturales, situados a 1840 metros de altitud. El primer manantial contiene agua muy salada que se reúne en una pequeña piscina natural y su agua se considera que tiene efectos medicinales, especialmente como cura para el reumatismo y algunos tipos de enfermedades de la piel. El segundo manantial tiene un sabor amargo y es predominantemente naranja debido a los grandes sedimentos de óxido de hierro en su salida.

Caño Cristales, Serrania de la Macarena, Colombia
Dicen de él que es el río más hermoso del mundo, y nosotros desde luego no vamos a desmentirlo. También dicen de él que es un río de cinco colores y es que, ubicado en la sierra de La macarena en el departamento de Meta en Colombia, está lleno de pozas, saltos y cascadas además de tonalidades que van del rojo, al amarillo pasando por el verde, azul y negro.

Lago Baikal, Rusia
Este lago es el lago más grande de agua dulce del planeta, de hecho contiene el 20% de las aguas continentales no heladas. Un solo lago alberga casi un cuarto de las reservas mundiales de agua dulce. Si este lago se vaciará por completo, se tardaría aproximadamente un año en volver a llenarlo uniendo todos los ríos del planeta, incluyendo el Nilo y el Amazonas.

Geiser Fly, Nevada, Estados Unidos
Esta maravilla es casi casi natural. En 1916 en Nevada, un grupo de hombres decidió perforar el terreno para encontrar agua para los cultivos y los animales. Efectivamente dieron con el agua, pero con una termal de más de 200 grados centígrados.
Este géiser improvisado no cesó su actividad y, gracias al carbonato cálcico que el agua termal lleva disuelta, empezó a formar un sistema de conos y toda una serie de estructuras en forma de terrazas y piscinas de una gran belleza que destacan por sus vivos colores. Colores extraordinariamente fotogénicos fruto del carbonato depositado y de las bacterias y algas termófilas (amantes del agua caliente) que viven alrededor.
Lo malo es que el geiser no tiene una entrada abierta al público, ya que pertenece a un rancho privado llamado “Fly Ranch”.
Pamukkale, Turquía
Impresionante esta cascada blanca en Turquía, que es en realidad un travertino, pero blanco. En Pamukkale podremos disfrutar de uno de esos lugares cuyo curioso origen natural, singularidad y belleza hacen que su visita sea obligada cuando se viaja a Turquía.

Son en realidad depósitos de calcio que han formado aguas termales naturales en una extensión de nada más y anda menos que 300 km2. El agua circulante por la superficie se encuentra a más de 35º C, motivo por el que los baños termales de Pamukkale son conocidos desde la antigüedad.
Calzada de los Gigantes, Irlanda del Norte
Uno de los fenómenos geológicos más singulares de la naturaleza, la conocida como la Calzada del Gigante, formada por varias de cenas de miles de columnas de basalto algunas con más de diez metros de altura y casi todas hexagonales. ¡No os la perdáis!
Si te han gustado estas escapadas tan originales, puedes descubrir muchas más en mi cuenta de Twitter: @EscapadasTiempo
Nov
7
Hoy un sueño ¿Realidad mañana?
por Emilio Silvera ~
Clasificado en Física Cuántica ~
Comments (0)
Seguramente, como hemos podido ver en una película de ciencia ficción, llegará un día en el que, podremos entrar en una inmensa habitación de hologramas, en la que, previa elección de la programación adecuada, todo se transformará en un “mundo ficticio” que, lo mismo podrá ser una playa luminosa con arena dorada, una Selva tropical o un desierto, dependiendo de los gustos del usuario.
Si repasamos la historia de la ciencia, seguramente encontraremos muchos motivos para el optimismo. Witten (el Físico de la Teoría M), está convencido de que la ciencia será algún día capaz de sondear hasta las energías de Planck. Como ya he contado en otras ocasiones, él dijo:
“No siempre es tan fácil decir cuáles son las preguntas fáciles y cuáles las difíciles. En el siglo XIX, la pregunta de por qué el agua hierve a 100 grados era desesperadamente inaccesible. Si usted hubiera dicho a un físico del siglo XIX que hacia el siglo XX sería capaz de calcularlo, le habría parecido un cuento de hadas… La teoría cuántica de campos es tan difícil que nadie la creyó completamente durante 25 años.”
En su opinión, las buenas ideas siempre se verifican. Los ejemplos son innumerables: la gravedad de Newton, el campo eléctrico de Faraday y el electromagnetismo de Maxwell, la teoría de la relatividad de Einstein en sus dos versiones y su demostración del efecto fotoeléctrico, la teoría del electrón de Paul Dirac, el principio de incertidumbre de Heisenberg, la función de ondas de Schrödinger, el Principio de exclusión de Pauli para los fermiones y tantos otros. Algunos de los físicos teóricos más famosos, sin embargo, protestaban de tanto empeño en la experimentación. El astrónomo arthur Eddington se cuestionaba incluso si los científicos no estaban forzando las cosas cuando insistían en que todo debería ser verificado.
Sin embargo, muchos son los ejemplos de un ingenio superior que nos llevaron a desvelar secretos de la Naturaleza que estaban profundamente escondidos, y, el trabajo de Dirac en relación al electrón, es una buena muestra de ese ingenio humano que, de vez en cuando vemos florecer.
Siendo m la masa en reposo del electrón, c la velocidad de la luz, p el operador de momento, la constante reducida de Planck, x y t las coordenadas del espacio y el tiempo, respectivamente; y ψ (x, t) una función de onda de cuatro componentes. La función de onda ha de ser formulada como un espinor (objeto matemático similar a un vectorque cambia de signo con una rotación de 2π descubierto por Pauli y Dirac) de cuatro componentes, y no como un simple escalar, debido a los requerimientos de la relatividad especial. Los α son operadores lineales que gobiernan la función de onda, escritos como una matriz y son matrices de 4×4 conocidas como matrices de Dirac.
“Es una ecuación muy poderosa por lo que significa y su papel en la historia de la física del siglo XX”.
La ecuación fue descubierta a finales de los años 20 por el físico Paul Dirac, y juntó dos de las ideas más importantes de la ciencia: la mecánica cuántica, que describe el comportamiento de objetos muy pequeños; y la teoría especial de Einstein de la relatividad, que describe el comportamiento de objetos en movimiento rápido.
Por lo tanto, la ecuación de Dirac describe cómo las partículas como electrones se comportan cuando viajan a casi la velocidad de la luz.
El premio Nobel Paul dirac incluso llegó a decir de forma más categórica: “Es más importante tener belleza en las ecuaciones que tener experimentos que se ajusten a ellas“, o en palabras del físico John Ellis del CERN, “Como decía en una envoltura de caramelos que abrí hace algunos años, «Es sólo el optimista el que consigue algo en este mundo».“
Yo, como todos ustedes, un hombre normal y corriente de la calle, escucho a unos y a otros, después pienso en lo que dicen y en los argumentos y motivaciones que les han llevado a sus respectivos convencimientos, y finalmente, también decido según mis propios criterios mi opinión, que no obligatoriamente coincidirá con alguna de esas opiniones, y que en algún caso, hasta me permito emitirla.
Niveles de aumento de la materia:
- Materia.
- Estructura molecular.
- Átomos.
- Electrones.
- Quarks.
- ¿Cuerdas.?
Suponiendo que algún físico brillante nos resuelva la teoría de campos de cuerdas y derive las propiedades conocidas de nuestro universo, con un poco de suerte, podría ocurrir en este mismo siglo, lo que no estaría nada mal considerando las dificultades de la empresa. El problema fundamental es que estamos obligando a la teoría de cuerdas a responder preguntas sobre energías cotidianas, cuando su “ámbito natural” está en la energía de Planck. Esta fabulosa energía fue liberada sólo en el propio instante de la creación, lo que quiere decir que la teoría de supercuerdas es naturalmente una teoría de la creación.
Las primeras observaciones realizadas por Planck | ESA y Axel Mellinger.
Fuimos capaces de predecir que el Big Bang produjo un “eco” cósmico reverberando en el universo y que podría ser mesurable por los instrumentos adecuados. De hecho, Arno Penzias y Robert Wilson de los Bell Telephone Laboratories ganaron el premio Nobel en 1.978 por detectar este eco del Big Bang, una radiación de microondas que impregna el universo conocido. El que el eco del Big Bang debería estar circulando por el universo miles de millones de años después del suceso fue predicho por primera vez por George Gamow y sus discípulos Ralpher y Robert Herman, pero nadie les tomó en serio.
La propia idea de medir el eco de la creación parecía extravagante cuando la propusieron por primera vez poco después de la segunda guerra mundial. Su lógica, sin embargo, era aplastante. Cualquier objeto, cuando se calienta, emite radiación de forma gradual. Ésta es la razón de que el hierro se ponga al rojo vivo cuando se calienta en un horno, y cuanto más se calienta, mayor es la frecuencia de radiación que emite. Una fórmula matemática exacta, la ley de Stefan-Boltzmann, relaciona la frecuencia de la luz (o el color en este caso) con la temperatura. De hecho, así es como los científicos determinan la temperatura de la superficie de una estrella lejana; examinando su color. Esta radiación se denomina radiación de cuerpo negro.
Esta radiación, cómo no, ha sido aprovechada por los ejércitos, que mediante visores nocturnos pueden operar en la oscuridad. De noche, los objetos relativamente calientes, tales como soldados enemigos o los carros de combate, pueden estar ocultos en la oscuridad, pero continúan emitiendo radiación de cuerpo negro invisible en forma de radiación infrarroja, que puede ser captada por gafas especiales de infrarrojo. Ésta es también la razón de que nuestros automóviles cerrados se calientes en verano, ya que la luz del Sol atraviesa los cristales del coche y calienta el interior. A medida que se calienta, empieza a emitir radiación de cuerpo negro en forma de radiación infrarroja. Sin embargo, esta clase de radiación no atraviesa muy bien el vidrio, y por lo tanto queda atrapada en el interior del automóvil, incrementando espectacularmente la temperatura.
Análogamente, la radiación de cuerpo negro produce el efecto invernadero. Al igual que el vidrio, los altos niveles de dióxido de carbono en la atmósfera, causados por la combustión sin control de combustibles fósiles, pueden atrapar la radiación de cuerpo negro infrarroja en la Tierra, y de este modo calentar gradualmente el planeta.
Gamow razonó que el Big Bang era inicialmente muy caliente, y que por lo tanto sería un cuerpo negro ideal emisor de radiación. Aunque la tecnología de los años cuarenta era demasiado primitiva para captar esta débil señal de la creación, Gamow pudo calcular la temperatura de dicha radiación y predecir con fiabilidad que un día nuestros instrumentos serían lo suficientemente sensibles como para detectar esta radiación “fósil”.
La lógica que había detrás de su razonamiento era la siguiente: alrededor de 300.000 años después del Big Bang, el universo se enfrió hasta el punto en el que los átomos pudieron empezar a componerse; los electrones pudieron empezar a rodear a los protones y neutrones formando átomos estables, que ya no serían destruidos por la intensa radiación que estaba impregnando todo el universo. Antes de este momento, el universo estaba tan caliente que los átomos eran inmediatamente descompuestos por esa radiación tan potente en el mismo acto de su formación. Esto significa que el universo era opaco, como una niebla espesa absorbente e impenetrable.
Pasados 300.000 años, la radiación no era tan potente; se había enfriado y por lo tanto la luz podía atravesar grades distancias sin ser dispersada. En otras palabras, el universo se hizo repentinamente negro y transparente.
Terminaré esta parte comentando que un auténtico cuerpo negro es un concepto imaginario; un pequeño agujero en la pared de un recinto a temperatura uniforme es la mejor aproximación que se puede tener de él en la práctica.
La radiación de cuerpo negro es la radiación electromagnética emitida por un cuerpo negro. Se extiende sobre todo el rango de longitudes de onda y la disminución de energías sobre este rango tiene una forma característica con un máximo en una cierta longitud de onda, desplazándose a longitudes de onda más cortas al aumentar las temperaturas*.
Hablar, sin más especificaciones, de radiación, es estar refiriéndonos a una energía que viaja en forma de ondas electromagnéticas o fotones por el universo. También nos podríamos estar refiriendo a un chorro de partículas, especialmente partículas alfa o beta de una fuente radiactiva o neutrones de un reactor nuclear.
La radiación actínida es la electromagnética que es capaz de iniciar una reacción química. El término es usado especialmente para la radiación ultravioleta y también para denotar radiación que podría afectar a las emulsiones fotográficas.
Radiación blanda, radiación cósmica, radiación de calor, radiación de fondo, de fondo de microondas, radiación dura, electromagnética, radiación gamma, infrarroja, ionizante, monocromática, policromática, de sincrotón, ultravioleta, de la teoría cuántica, de radiactividad… y, como se puede ver, la radiación en sus diversas formas es un universo en sí misma.
Siempre me llamó la atención y se ganó mi admiración el físico alemán Max Planck (1.858 – 1.947), responsable entre otros muchos logros de la ley de radiación de Planck, que da la distribución de energía radiada por un cuerpo negro. Introdujo en física el concepto novedoso de que la energía es una cantidad que es radiada por un cuerpo en pequeños paquetes discretos, en vez de una emisión continua. Estos pequeños paquetes se conocieron como cuantos y la ley formulada es la base de la teoría cuántica.
Einstein se inspiró en este trabajo para a su vez presentar el suyo propio sobre el efecto fotoeléctrico, donde la energía máxima cinética del fotoelectrón, Em, está dada por la ecuación que lleva su nombre: Em = hf – Φ.
Cada metal requiere, para que se produzca la extracción, una radiación con una frecuencia mínima (no). Cualquier otra radiación de menor frecuencia, no será capaz de arrancar electrones. Por debajo de la frecuencia mínima la intensidad de corriente -”i” (amperios)- será cero. No hay efecto fotoeléctrico.
Con su amigo Max Planc
En 1905, el mismo año que formuló su teoría de la relatividad especial, Albert Einstein propuso una descripción matemática de este fenómeno que parecía funcionar correctamente y en la que la emisión de electrones era producida por la absorción de cuantos de luz que más tarde serían llamados fotones. En un artículo titulado “Un punto de vista heurístico sobre la producción y transformación de la luz” mostró cómo la idea de partículas discretas de luz podía explicar el efecto fotoeléctrico y la presencia de una frecuencia característica para cada material por debajo de la cual no se producía ningún efecto. Por esta explicación del efecto fotoeléctrico Einstein recibiría el Premio Nobel de Física de 1921.
Planck publicó en 1.900 un artículo sobre la radiación de cuerpo negro que sentó las bases para la teoría de la mecánica cuántica que más tarde desarrollaron otros, como el mismo Einstein, Heisenberg, Schrödinger, Dirac, Feymann, etc. Todos los físicos son conocedores de la enorme contribución que Max Planck hizo en física: la constante de Planck, radiación de Planck, longitud de Planck, unidades de Planck, etc. Es posible que sea el físico de la historia que más veces ha dado su nombre a conceptos de física. Pongamos un par te ejemplos de su ingenio:
1. vale 10-35 metros. Esta escala de longitud (veinte órdenes de magnitud menor que el tamaño del protón, de 10-15 m) es a la que la descripción clásica de gravedad cesa de ser válida y debe ser tenida en cuenta la mecánica cuántica. En la fórmula que la describe, G es la constante gravitacional, ħ es la constante de Planck racionalizada y c en la velocidad de la luz.
2. . Es la masa de una partícula cuya longitud de onda Compton es igual a la longitud de Planck. En la ecuación, ħ es la constante de Planck racionalizada, c es la velocidad de la luz y G es la constante gravitacional. Así, Se denomina masa de Planck a la cantidad de masa (21,7644 microgramos) que, incluida en una esfera cuyo radio fuera igual a la longitud de Planck, generaría una densidad del orden de 1093 g/cm³. Según la física actual, esta habría sido la densidad del Universo cuando tenía unos segundos, el llamado Tiempo de Planck. Su ecuación, es decir la masa de Planc se denota:
El valor de la masa de Planck se expresa por una fórmula que combina tres constantes fundamentales, la constante de Planck, (h), la velocidad de la luz (c), y la constante de gravitación universal (G). La masa de Planck es una estimación de la masa del agujero negro primordial menos masivo, y resulta de calcular el límite donde entran en conflicto la descripción clásica y la descripción cuántica de la gravedad.
“Aunque todas estas descripciones reflejan más una abundante imaginación que un hecho existencial apoyado teóricamente con alguna hipótesis que pueda ser comprobada en el laboratorio sobre hechos que están más allá de poder ser medidos jamás en algún laboratorio construído por humanos. La única forma de confrontar la factibilidad o la posibilidad del modelo de la espuma cuántica nos lleva necesariamente a confrontar la carencia de un modelo que logre unificar exitosamente al macrocosmos con el microcosmos, a la Relatividad General con la Mecánica Cuántica, la Gravedad Cuántica. Si la energía y la materia (o mejor dicho la masa-energía) están discretizadas, se supone que también deben de estarlo el espacio y el tiempo (o mejor dicho, el espacio-tiempo), y la “partícula fundamental” del espacio-tiempo debe de serlo el gravitón, aunque de momento todo esto son especulaciones que seguirán siéndolo mientras no tengamos a la mano algo que pueda confirmar la existencia de tan exótica partícula, quizá la más exótica de cuantas hayan sido concebidas por la imaginación del hombre.”
La descripción de una partícula elemental de esta masa, o partículas que interaccionan con energías por partículas equivalentes a ellas (a través de E = mc2), requiere de una teoría cuántica de la gravedad. Como la masa de Planck es del orden de 10-8 Kg (equivalente a una energía de 1019 GeV) y, por ejemplo, la masa del protón es del orden de 10-27 Kg y las mayores energías alcanzables en los aceleradores de partículas actuales son del orden de 103 GeV, los efectos de gravitación cuántica no aparecen en los laboratorios de física de partículas. Únicamente en un laboratorio aparecieron partículas que tenían energías del orden de la masa de Planck: en el universo primitivo, de acuerdo con la teoría del Big Bang, motivo éste por el que es necesaria una teoría cuántica de la gravedad para estudiar aquellas condiciones. Esta energía de la que estamos hablando, del orden de 1019 GeV (inalcanzable para nosotros), es la que necesitamos para verificar la teoría de supercuerdas.
Máquinas inmensamente grandes que nos llevaron a las entrañas de la materia
Siempre, desde que puedo recordar, me llamó la atención los misterios y secretos encerrados en la naturaleza, y la innegable batalla mantenida a lo largo de la historia por los científicos para descubrirlos. Muchos han sido los velos que hemos podido descorrer para que, la luz cegadora del saber pudiera entrar en nuestras mentes para hacerlas comprender cómo actuaba la Naturaleza en ciertas ocasiones y el por qué de tales comportamientos, y, sin embargo, a pesar del largo camino recorrido, es mucho más el que nos queda por andar.
emilio silvera
Nov
6
¿Qué haríamos sin microbios?
por Emilio Silvera ~
Clasificado en Bioquímica ~
Comments (1)

Ciencia
Todo lo que les debemos a nuestros amigos los microbios
La Tierra alberga una inmensa variedad de “vida invisible” que la ciencia apenas está empezando a conocer y que en el futuro ofrecerá inmensas aplicaciones tecnológicas.


Los microbios. Aunque no podamos verlos, somos muy conscientes de su existencia. Pero hasta hace apenas siglo y medio eran prácticamente desconocidos para la ciencia, hasta que Louis Pasteur y otros pioneros de la microbiología comenzaron a desvelar un mundo de vida invisible que está siempre presente a nuestro alrededor, sobre nosotros, incluso dentro de nosotros, y que suma más de la mitad de la biomasa del planeta.
Hoy se diría que los conocemos bien; hemos catalogado los beneficiosos, los indiferentes y los peligrosos. Contra estos últimos hemos obtenido, precisamente gracias a otros microbios, todo un arsenal de antibióticos que han conseguido reducir las enfermedades bacterianas a una preocupación de segundo orden en los países desarrollados. Empleamos jabones antibacterianos, e incluso calcetines antibacterianos. Comemos alimentos esterilizados y dominamos las reglas caseras para protegernos de sus estragos; hasta un niño sabe que una chuche caída al suelo debe desecharse porque se ha contaminado con bacterias.
Proporciones de poblaciones microbioanas en distintas regiones del cuerpo humano
La mayoría de las células del cuerpo humano no son humanas. Las células bacterianas que albergamos en nuestro interior superan a las humanas en una proporción de 10 a 1. Aunque el el cálculo de Luckey estaba pasado de rosca como ha confirmado un nuevo estudio y la proporción es muy diferente (abajo está reseñada).
Y sin embargo, en este siglo XXI estamos descubriendo que nos falta mucho por saber de los microbios. Hace unos días nos sorprendía la noticia de que estábamos completamente equivocados respecto a la cantidad de habitantes bacterianos que albergamos en nuestro cuerpo. Durante décadas hemos manejado el dato de que las células microbianas en nuestro organismo superaban a las nuestras en una proporción de 10 a 1, una estimación elaborada por el microbiólogo Thomas Luckey en 1972 y que nadie se había preocupado de revisar.
Ahora lo ha hecho un equipo de investigadores de Israel y Canadá basándose en el conocimiento actual, y el resultado es que el cálculo de Luckey estaba pasado de rosca: el cuerpo de un hombre de 70 kilos, dice el nuevo estudio, está compuesto por unos 30 billones de células, y contiene unos 39 billones de bacterias. Es decir, que la proporción es solo de 1,3 bacterias por cada célula humana. Las cifras son tan similares, escriben los científicos, que “cada episodio de defecación, que excreta en torno a un tercio del contenido bacteriano del colon, puede desplazar la proporción a favor de las células humanas”. Así que ya lo sabe: usted es más usted después de ese rato íntimo en el baño.
Zombis bajo control bacteriano
Cierto que este descubrimiento es más bien recreativo. En cambio, no lo son los hallazgos más recientes sobre lo que todas estas bacterias hacen por nosotros. Es bien conocido su papel en la digestión, así como las obvias repercusiones de esta función en el bienestar de nuestras tripas. Hasta tal punto nuestra salud depende de la flora microbiana que en los últimos años se ha popularizado una técnica terapéutica tan innovadora como escatológica (y que solo debe ser practicada por especialistas, pese a que algunos vídeos en YouTube pretendan instruir sobre el “hágalo usted mismo”): el trasplante fecal, consistente en repoblar el colon de un paciente con bacterias de una persona sana. Este método ha demostrado gran eficacia en el tratamiento de infecciones resistentes y actualmente se estudia también para la enfermedad inflamatoria intestinal.
Pero lo que hasta hace unos años nadie podía sospechar es que las bacterias del tubo digestivo no solo mandan sobre nuestra salud intestinal. El descubrimiento de que ciertos microbios de la flora producen sustancias con efecto neurotransmisor, cuyo lugar natural de acción son las neuronas, fue en principio considerado como una extravagancia biológica. Hoy ya no lo es; por el contrario, es la base de lo que se ha llamado un nuevo paradigma de la neurociencia: el eje intestino-cerebro.
Las investigaciones recientes muestran que nuestro microbioma intestinal afecta a nuestro órgano sapiente, probablemente a través de mecanismos neuroendocrinos, y que esta insospechada conexión modula “el desarrollo cerebral y los fenotipos de comportamiento”, según una revisión sobre la materia. En concreto, dicen los científicos, “las alteraciones en el microbioma intestinal pueden desempeñar un papel fisiopatológico en enfermedades cerebrales humanas, incluyendo desórdenes del espectro autista, ansiedad, depresión y dolor crónico”.
El poder de nuestra flora intestinal no acaba ahí. Un estudio reciente ha descubierto que las bacterias digestivas controlan incluso nuestro apetito: cuando han obtenido suficientes nutrientes de nuestro almuerzo, producen proteínas que nos envían al cerebro una señal de saciedad; por increíble que parezca, en cierto aspecto somos como zombis bajo su control.

Otras investigaciones han revelado que nuestro microbioma varía con ciertas medicaciones o con enfermedades como la obesidad, la diabetes o la anorexia, y que incluso viene determinado por el hecho de si nacemos por cesárea o parto. Se comprende así que el estudio de nuestros microbios es hoy un área pujante de investigación que ha inspirado ambiciosas iniciativas como el Proyecto Microbioma Humano, lanzado en 2008 por los Institutos Nacionales de la Salud de EEUU.
La investigación de nuestra vida interior no deja de sorprendernos. Los estudios han determinado que cada uno transportamos nuestra nube personal de microbios, como una huella dactilar microbiana, y que cada persona que visita nuestra casa nos deja como regalo 38 millones de bacterias por hora. Un beso apasionado de diez segundos transfiere de boca a boca unos 80 millones de bacterias; y lejos de resultar asqueroso, algunos microbiólogos sostienen que precisamente este podría ser el motivo por el que los humanos inventamos el beso. Los microbios ahora también pueden servir para determinar la hora y el lugar de un crimen, o para rastrear las antiguas migraciones humanas. Esto último se ha logrado analizando el microbioma de Ötzi, una momia de 5.000 años hallada en el hielo de los Alpes y que llevaba la bacteria Helicobacter pylori, causante de la úlcera gástrica.
Planeta bacteria
Microbiología Marina y hongos
Pero naturalmente, fijarnos en nuestra propia flora es solo una minúscula parte de la historia. Los microbios están presentes desde el subsuelo de las fosas oceánicas hasta decenas de kilómetros de altura sobre nuestras cabezas. Los científicos calculan que cada mililitro de agua marina hospeda unos 100.000 microbios, y que un litro puede contener más de 20.000 especies bacterianas distintas.
Las arqueas posiblemente son las creaturas de mayor antigüedad en la Tierra. Ellas han vivido en las condiciones mas extremas existentes en la historia de nuestro mundo.
“Yo calcularía que en la Tierra existen 1.000 millones de especies de bacterias y arqueas, y solo se han nombrado unas 15.000”, expone a EL ESPAÑOL Jonathan Eisen, microbiólogo de la Universidad de California en Davis. “Apenas hemos empezado a tener una ligera idea; hay millones de especies animales, cada una con su propia comunidad de microbios, pero no sabemos casi nada del 99,999% de esos microbiomas”. Una parte del problema a la hora de analizar todo este mundo invisible es que muchas de estas bacterias se resisten al cultivo: menos del 1% de las especies presentes en cualquier muestra crecen en el laboratorio por los métodos tradicionales.
Hay millones de especies animales, cada una con su propia comunidad de microbios, pero no sabemos casi nada del 99,999% de esos microbiomas
Por suerte para los microbiólogos, nuevas tecnologías han venido en su auxilio: la metagenómica consiste en secuenciar en masa el ADN presente en una muestra heterogénea, para después separar las secuencias de cada especie gracias a herramientas bioinformáticas avanzadas. Estas técnicas han permitido avanzar pasos de gigante: “Estamos inmersos en una revolución, pero solo estamos al comienzo de esa revolución”, apunta Eisen. Microbiólogos como Rob Knight, de la Universidad de California en San Diego, hablan de una “edad de oro” de la ciencia microbiana. “La caracterización química nos permite saber también qué están haciendo esos microbios”, señala Knight a EL ESPAÑOL.
Knight y Eisen son dos de los responsables del Proyecto Microbioma Terrestre (EMP, en inglés), una colosal iniciativa lanzada en 2010 que reúne a 600 científicos de varios países con el fin de secuenciar unas 200.000 muestras tomadas de los rincones más dispares del planeta, para así obtener en torno a medio millón de genomas microbianos. “Queremos comprender las variaciones de las comunidades microbianas a lo largo de las escalas espaciales y temporales, y entender qué motiva estas variaciones”, dice Knight.
El director del EMP, Jack Gilbert, del Laboratorio Nacional Argonne en Illinois (EEUU), explica a este diario que el conocimiento del microbioma terrestre equivale a comprender cómo funciona nuestro planeta: “Su papel global relevante es reciclar los nutrientes y los compuestos químicos; básicamente recirculan toda la materia y la energía de los ciclos globales”. En resumen, el objetivo del EMP no es ni más ni menos que secuenciar la Tierra.
La Tierra considerada como un ente “vivo” se llama Gaia, y, desde luego, esconde muchos secretos
El EMP publicará sus primeros resultados globales a lo largo de este año. Sus responsables, que subrayan la necesidad de aunar esfuerzos para desarrollar nuevas tecnologías microbiológicas aún más punteras, estiman que en diez años podrán llegar las aplicaciones: microbios rediseñados por ingeniería genética que facilitarán avances revolucionarios en la medicina, la industria, la sostenibilidad ambiental o las fuentes renovables de energía, entre otros campos. Las posibles utilidades casi rayan en la ciencia ficción.
Actualmente se habla de bacterias oceánicas capaces de comerse el dióxido de carbono de la atmósfera para combatir el cambio climático; ya se estudia el uso de microbios para producir perfumes y fragancias, o incluso para generar electricidad a partir de la orina con el fin de cargar, por ejemplo, nuestros teléfonos móviles. El mundo de los microbios aún nos reserva extrañas y apasionantes sorpresas. “Y aún hay mucho por descubrir”, concluye Knight.
Nov
5
Nuestro Planeta: ¡Es tan complejo!
por Emilio Silvera ~
Clasificado en La Tierra y su energía ~
Comments (0)

Nuestro planeta, como nosotros mismos, es agua y luz
La biosfera y la hidrosfera están estrechamente relacionadas: el agua es el elemento esencial de todas las formas de vida, y la distribución del agua en el planeta (es decir, los límites de la hidrosfera) condiciona directamente la distribución de los organismos (los límites de la biosfera). El término biosfera, de reciente creación, indica el conjunto de zonas de la Tierra donde hay vida, y se circunscribe a una estrecha región de unos 20 Km de altura comprendida entre las cimas montañosas más elevadas y los fondos oceánicos más profundos. Sólo pueden hallarse formas de vida en la biosfera, donde las condiciones de temperatura, presión y humedad son adecuadas para las más diversas formas orgánicas de la Tierra.

Un equipo de espeleólogos y científicos españoles ha sacado de las entrañas de la tierra al animal que vive a mayor profundidad del mundo. Se trata de una nueva especie de artrópodo de seis patas y color blanquecino hallado a casi dos kilómetros bajo tierra. organismo milimétrico supone una sorpresa monumental, ya que casi ningún científico esperaba encontrar nada vivo en un lugar tan inaccesible.
Obviamente, las fronteras de dicha “esfera” son elásticas y su extensión coincide con la de la hidrosfera; se superpone a las capas más bajas de la atmósfera y a las superficiales de la litosfera, donde se sumerge, como máximo, unos 2 Km. Sin embargo, si por biosfera se entiende la zona en la que hay vida así como la parte inorgánica indispensable para la vida, deberíamos incluir en este concepto toda la atmósfera, sin cuyo “escudo” contra las radiaciones más fuertes no existiría ningún tipo de vida; o la corteza terrestre entera y las zonas superiores del manto, sin las cuales no existiría la actividad volcánica, que resulta necesaria para enriquecer el suelo con nuevas sustancias minerales.
Por tanto, la biosfera es un ecosistema tan grande como el planeta Tierra y en continua modificación por causas naturales y (desgraciadamente) artificiales.
Las modificaciones naturales se producen a escalas temporales muy variables: en tiempos larguísimos determinados por la evolución astronómica y geológica, que influyen decididamente en las características climáticas de los distintos ambientes (por ejemplo, durante las glaciaciones), o en tiempos más breves, relacionados con cambios climáticos desencadenados por sucesos geológicos-atmosféricos imprevistos (por ejemplo, la erupción de un volcán, que expulsa a la atmósfera grandes cantidades de cenizas capaces de modificar el clima de extensas áreas durante periodos considerables).
Estos sucesos naturales van transformando el pasisaje y nos trae cambios y nueva vida
En cambio, las modificaciones artificiales debidas a la actividad humana tienen efectos rápidos: la deforestación producida en África por las campañas de conquista romanas contribuyó a acelerar la desertificación del Sahara, como tampoco hay duda de que la actividad industrial de los últimos siglos determina modificaciones dramáticas y repentinas en los equilibrios biológicos.
La biosfera es el punto de encuentro entre las diversas “esferas” en las que se subdivide la Tierra: está surcada por un flujo continuo de energía procedente tanto del interior del planeta como del exterior, y se caracteriza por el intercambio continuo de materia, en un ciclo incesante que une todos los entornos.
Muchas son las criaturas de especies ditintas que enriquecen la diversidad de la vida en la Tierra
Pero no por esta razón hay vida por todas partes, pues la vida requiere condiciones particulares e imprescindibles. Existen determinados elementos físicos y químicos que “limitan” el desarrollo de la vida. La presencia y disponibilidad de agua es el primero y el más importante. El agua es el disolvente universal para la química de la vida; es el componente primario de todos los organismos y sin agua la vida es inconcebible (Tales de Mileto fue el primero en darse cuenta de ello). Pero no sólo es eso: al pasar del estado sólido al líquido y al gaseoso y viceversa, el agua mantiene el “efecto invernadero natural”, capaz de conservar la temperatura del planeta dentro de los niveles compatibles con la vida (es decir, poco por debajo de los 0º C y poco por encima de los 40º C).
La presión, que no deberá superar mucho el kilogramo por centímetro cuadrado (como sucede alrededor de los 10 m de profundidad en el mar), así como una amplia disponibilidad de sales minerales y de luz solar (indispensable – como expliqué antes – para la vida de las plantas) son también factores que marcan las posibilidades de vida.
Está claro que se nos ha dado un lugar privilegiado, que reúne todas y cada una de las condiciones excepcionales para la vida, y somos tan ignorantes que aún siendo un bien escaso (en nuestro enorme Sistema Solar, parece que el único), nos lo queremos cargar. Pero sin querer, me marcho por las ramas y me desvío del tema principal, la evolución por la energía, y como está directamente implicada, hablemos un poco de nuestra casa.
El planeta Tierra
Las fuerzas que actúan sobre la Tierra, como planeta en el espacio, tiene profundas implicaciones energéticas. La gravitación ordena y orienta, y obstaculiza y facilita los flujos de energía cinética. La rotación genera la fuerza centrífuga y la de Coriolis: la primera achata el planeta por los polos ensanchándolo por el ecuador, y la segunda desvía los vientos y las corrientes de los océanos (a la derecha del hemisferio norte y a la izquierda en el hemisferio sur). La rotación es también la causa de los ritmos diarios de las plantas y animales, y de la desaceleración de la Tierra, que alarga el día un promedio de 1’5 ms cada siglo, lo que representa una pérdida de tres teravatios por fricción de mareas.
Pero ni la gravitación ni la rotación (fricción) hacen de la Tierra un planeta único entre los cuerpos celestes de nuestro entorno. Su exclusividad procede de sus propiedades térmicas internas, que causan los ciclos geotectónicos que modifican la superficie, y de su atmósfera, océanos y plantas que transforman la radiación solar que reciben. Los orígenes de estos procesos no están claros. Sin embargo, sabemos que todos esos complejos fenómenos y circuntancias han dado vía libre a la aparición de la vida.
Un disco proto planetario como este pudo formar nuestro sistema solar a partir de la Nebulosa
Podemos fijar la edad de la Tierra en algo más de los 4.000 millones de años por la desintegración de los isótopos radiactivos, pero poco podemos asegurar sobre la formación del planeta o sobre la energética de la Tierra primitiva. Sobre el tema circulan varias teorías, y es muy plausible que el origen del Sistema Solar planetario fuera una nube interestelar densa en la que el Sol se formó por una inestabilidad gravitatoria y que la posterior aglomeración del resto de esta materia dispersa, que giraba a distintas distancias, a su alrededor, diera lugar a los planetas. No está claro si al principio la Tierra estaba extremadamente caliente o relativamente fría. Me inclino por lo primero y estimo que el enfriamiento fue gradual con los cambios de atmósferas y la creación de los océanos.
Las incertidumbres geológicas básicas se extienden hasta el presente. Diferentes respuestas a cuestiones como la cantidad de 40K en el núcleo terrestre o sobre la convección del magma en el manto (hay una o dos celdas) dan lugar a diferentes explicaciones para el flujo de calor y la geotectónica de la Tierra. Lo que sí está claro es que el flujo interno de calor, menos de 100 mW/m2, tiene un efecto pequeño comparado con la reflexión, absorción y emisión de la radiación solar.
El balance de la radiación terrestre (Rp) en la capa alta de la atmósfera es la suma de la radiancia extraterrestre (la constante sola Q0) reducida por el albedo planetario y el flujo saliente de larga longitud de onda (Qi): Rp = Q0(1-ap) + Qi = 0. El flujo emitido es igual a la suma de la radiación atmosférica y la terrestre: Qi = Qea + Qes. Los balances de la radiación en la atmósfera (Ra) y en la superficie de la Tierra (Rs) son iguales, respectivamente, a la diferencia entre la correspondiente absorción y emisión: Ra = Qaa + Qea y Rs = Qas + Qes, de manera que Rp = Ra + Rs = 0. Hay que continuar explicando la radiación saliente con los flujos irradiados y emitidos por la superficie terrestre, el flujo de radiación medio absorbida, etc., etc., etc., con una ingente reseña de símbolos y tedioso esquemas que, a mi parecer, no son legibles para el lector normal y no versado en estos conocimientos. Así que, aunque sea mutilar el trabajo, desisto de continuar por ese camino y prosigo por senderos más amenos y sugestivos para el lector.
La fuente más importante del calentamiento atmosférico proviene de la radiación terrestre de longitud de onda larga, porque el flujo de calor latente es una contribución secundaria y el flujo de calor sensible sólo es importante en las regiones áridas donde no hay suficiente agua para la evaporación. Los océanos y los continentes también reciben indirectamente, irradiadas por la atmósfera, la mayor parte de su calor en forma de emisiones de longitudes de onda larga (4 – 50 μm). En este flujo de radiación reenviado hacia la superficie terrestre por los gases invernadero, domina a la radiación del vapor de agua, que con una concentración variable, emite entre 150 y 300 W/m2, y al que también contribuye el CO2 con unos 75 W/m2.
El intercambio de radiación de longitud de onda larga entre la superficie y la atmósfera sólo retrasa temporalmente las emisiones de calor terrestre, pero controla la temperatura de la biosfera. Su máximo es casi 400 W/m2 en los trópicos nubosos, pero es importante en todas las estaciones y presenta significativas variaciones diarias. El simple paso de una nube puede aumentar el flujo en 25 W/m2. Las mayores emisiones antropogénicas de gases invernadero han aumentado este flujo en cerca de un 2’5 W/m2 desde finales del siglo XIX.
Como era de esperar, las observaciones de los satélites confirman que el balance de energía de la Tierra está en fase con la radiación solar incidente (Q0), pero la radiación media saliente (Qi) está desfasada con la irradiancia, alcanzando el máximo durante el verano en el hemisferio norte. La distribución asimétrica de los continentes y el mar explica este fenómeno. En el hemisferio norte, debido a la mayor proporción de masa terrestre, se experimentan mayores cambios estacionales que dominan el flujo global de la radiación saliente.
Quizás el resultado más sorprendente que se deriva de las observaciones por satélite sea que, estacionalmente, se observan cierto déficit y superávit de radiación y el balance de la radiación en el planeta no es igual a cero, pero sin embargo, en cada hemisferio la radiación anual está en equilibrio con el espacio exterior. Además, la contribución atmosférica por transporte de energía hacia los polos es asimétrica respecto al ecuador con valores extremos de unos 3 PW cerca de los 45º N, y -3 PW cerca de 40º S.
Si la Naturaleza se enfada… ¡Nosotros a temblar!
Podría continuar hablando sobre los vientos, los terremotos, las lluvias y otros fenómenos atmosféricos, sin embargo, no creo que, por ser estos fenómenos naturales muy conocidos de todos, pudieran tener gran interés. Pasemos pues a comentar sobre los océanos.
Agua, mejor que Tierra, habría sido el nombre adecuado para el tercer planeta, puesto que los océanos cubren más del 70 por ciento de la superficie terrestre, con una profundidad media de 3’8 Km. Debido a las especiales propiedades térmicas del agua, éstas constituyen un extraordinario regulador del balance energético del planeta.
Este líquido tiene cinco ventajas termodinámicas importantes: un punto de ebullición inusualmente alto, debido a su capacidad para formar enlaces de hidrógeno intermoleculares; un calor específico de 2’5 a 3’3 veces más elevado que el del suelo; una capacidad calorífica (calor específico por unidad de volumen) aproximadamente seis veces mayor que la tierra seca; un altísimo calor de vaporización que le permite transportar una gran cantidad de calor latente; y su relativamente baja viscosidad, que le convierte en un eficiente transportador de calor en los océanos mediante miríadas de remolinos y caudalosas corrientes.
No es sorprendente, pues, que los océanos, que tienen cerca del 94 por ciento de toda el agua, sean determinantes en el balance energético del planeta. Cuatro quintas partes de la radiación solar que llega a la Tierra entra en la atmósfera que cubre los océanos, los cuales con un albedo superior al 6% absorben la energía con una tasa cercana a 65 PW, casi el doble de la absorción atmosférica total y cuatro veces mayor que la continental. Inevitablemente, los océanos también absorben la mayor parte, casi dos tercios, del calor rerradioirradiado hacia abajo por la atmósfera elevando su ritmo de calentamiento a los 175 PW.
Salvo en los océanos menos profundos, la interacción aire-mar no afecta directamente a las aguas profundas. Las oscuras y frías aguas de las profundidades marinas están aisladas de la atmósfera por la capa mixta, una capa de poca profundidad que va de pocos metros a pocos cientos de metros y que está afectada por los vientos y el oleaje.
A pesar de que el alto calor específico del agua limita el rango de variación, las temperaturas de esta capa sufren importantes fluctuaciones diarias y estacionales. Sin embargo, variaciones relativamente pequeñas de la temperatura de la superficie de los océanos tienen importantes consecuencias climáticas: quizás el mejor ejemplo de esta teleconexión climática sea el fenómeno del Niño, que consiste en una extensión en forma de lengua de las aguas superficiales calientes hacia el este, cuyos efectos se extienden desde Canadá hasta África del sur.
Debido a que la conductividad térmica del agua es muy baja, la transferencia de energía de la capa mixta hacia las profundidades se realiza fundamentalmente mediante corrientes convectivas. Estas corrientes compensan la extremadamente baja fuerza ascensional de las aguas profundas, más calientes, que son desplazadas por el movimiento hacia el ecuador de las corrientes frías provenientes de los polos. En contraste con el gradual ascenso general de las aguas oceánicas, la convección hacia abajo se produce en corrientes bien delimitadas que forman gigantescas cataratas oceánicas. Seguramente la mayor es la que fluye hacia el sur bajo el estrecho de Dinamarca, entre Islandia y Groenlandia, y se sumerge unos 3’5 Km transportando 5 millones de m3/s, un caudal veinte veces mayor que el del Amazonas.
Miríadas de corrientes oceánicas, que a menudo viajan cientos de kilómetros a diferentes profundidades, transportan considerables cantidades de energía y sal. Quizás el ejemplo más importante de estas combinaciones de transportes sea la corriente de agua caliente y salada que sale del Mediterráneo a través del estrecho de Gibraltar. Este flujo caliente pero denso desciende sobre la pendiente de la plataforma continental hasta alcanzar el equilibrio entre el peso y el empuje ascensional a unos mil metros de profundidad. Aquí se separa en dos celdas lenticulares que se mueven durante siete años hacia el este y hacia el sur, respectivamente, hasta que decaen o chocan contra alguna elevación marina.
Un mapa global de los flujos de calor desde la superficie oceánica hasta las capas profundas muestra claramente máximos longitudinales a lo largo del ecuador y a lo largo de aproximadamente 45º S en los océanos Atlántico e Índico. Esta transferencia es también importante en algunas áreas costeras donde se producen intensos flujos convectivos ascendentes que intercambian calor entre las aguas superficiales y las profundas, como ocurre en la costa de California y al oeste de África. Un flujo en dirección contraria, que calienta la atmósfera, se produce en las dos mayores corrientes oceánicas calientes, la corriente del Golfo en el Atlántico y la de Kuroshio en el Pacífico oriental.
El giro de la Tierra hacia el Este influye también en las corrientes marinas, porque tiende a acumular el agua contra las costas situadas al oeste de los océanos, como cuando movemos un recipiente con agua en una dirección y el agua sufre un cierto retraso en el movimiento y se levanta contra la pared de atrás del recipiente. Así se explica, según algunas teorías, que las corrientes más intensas como las del Golfo en el Atlántico y la de Kuroshio en el Pacífico se localicen en esas zonas.
Este mismo efecto del giro de la Tierra explicaría las zonas de afloramiento que hay en las costas este del Pacífico y del Atlántico en las que sale agua fría del fondo hacia la superficie. Este fenómeno es muy importante desde el punto de vista económico, porque el agua ascendente arrastra nutrientes a la superficie y en estas zonas prolifera la pesca. Las pesquerías de Perú, Gran Sol (sur de Irlanda) o las del África atlántica se forman de esta manera.
Imagen esquemática y conceptual de distintos fenómenos eléctricos y luminosos generados por ciertas tormentas intensas. Imagen tomada de Internet, en su versión inglesa, y adaptada al español. La imagen originaria es de Lyons et al. (2000) de la American Geophysical Union.
Todas la regiones donde se produce este ascenso de aguas calientes (a lo largo de las costas del continente americano, África, India y la zona ecuatorial del Pacífico occidental) se distinguen fácilmente por los elevados niveles de producción de fitoplancton, causados por un importante enriquecimiento de nutrientes, comparados con los que, de otra manera, corresponderían normalmente a las aguas superficiales oligotrópicas.
La radiación transporta la mayor parte (casi 4/5) de la energía que fluye desde la capa mixta hasta la atmósfera, y el resto del flujo calorífico se produce por calor latente en forma de vapor de agua y lluvias.
Aún no se ha realizado una valoración cuantitativa del transporte total para cada latitud, pero en el océano Atlántico hay transferencia de calor hacia el norte a lo largo de toda su extensión, alcanzando en el trópico un valor aproximado de 1 PW, flujo equivalente al que se produce en el Pacífico norte. En el Pacífico sur, el flujo de calor hacia el polo a través del trópico es de 0’2 PW. La parte occidental del Pacífico sur puede constituir la mayor reserva de calor del Atlántico sur, de igual modo que es probable que el océano Índico sur constituya una reserva del Pacífico.
Los rios refrescan amplias zonas de la Tierra y hacen posible la vida
Ahora tocaría comentar algo sobre los ríos del planeta, sin embargo, me parece que merece un capítulo aparte y especial por su significado para muchos pueblos y culturas y también, por su contribución para hacer posible muchos ecosistemas y formas de vida. Así que, me dirijo directamente a comentar sobre el calor de la Tierra.
Aunque la Tierra se formara inicialmente a partir de materia fría (material cósmico) que se contrajo por acción de la gravedad, durante la formación posterior del núcleo líquido y en los periodos de intensa actividad volcánica se ha liberado una enorme cantidad de calor. Los frecuentes impactos de objetos pesados también han contribuido al calentamiento de la superficie. Hay mucha incertidumbre sobre la historia térmica de la Tierra de los últimos 3.000 millones de años, durante los cuales el planeta se ha ido enfriando y una gran parte de este flujo de calor ha alimentado los movimientos geotectónicos globales, creando nueva corteza en las dorsales oceánicas; un proceso que ha ido acompañado de terremotos recurrentes y erupciones volcánicas de lava, cenizas y agua caliente.
Solamente hay dos posibles fuentes de calor terrestre, pero la importancia relativa de las respectivas contribuciones no está aún muy clara. El calor basal, liberado por un lento enfriamiento del núcleo terrestre debe representar una gran parte del flujo total, si bien cálculos basados en la desintegración radiactiva del U235, U238, Th232 y K40 sugieren que éste representa al menos la mitad y quizás hasta nueve décimos del flujo total de calor del planeta. Esta disparidad obedece a la incertidumbre en la concentración de K40 en la corteza terrestre. Pero sea cual sea la proporción, el flujo total, basado en miles de medidas realizadas desde los años cincuenta, está próximo a los 40 TW.
Aunque inicialmente se pensó que los flujos continentales y oceánicos eran aproximadamente iguales, en realidad difieren de forma sustancial. Las regiones del fondo oceánico más recientes contribuyen con más de 250 mW/m2, cantidad que supera hasta tres veces las zonas continentales más recientes. El flujo medio para todo el fondo marino es aproximadamente igual a 95 mW/m2, lo que representa un 70% más que el correspondiente a la corteza continental. El flujo medio global es de 80 mW/m2, unos tres órdenes de magnitud inferior al valor medio del flujo de calor de la radiación solar global.
emilio silvera