sábado, 05 de abril del 2025 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




Sí, la complejidad nos rodea

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (22)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Sólo universos que están muy cerca de la divisoria crítica pueden vivir el tiempo suficiente y tener una expansión suave para la formación de estrellas y planetas… y ¡vida!

No es casual que nos encontremos viviendo miles de millones de años después del comienzo aparente de la expansión del universo y siendo testigos de un estado de expansión que está muy próximo a la divisoria que marca la “Densidad Crítica”

 

Gráfico: Sólo en el modelo de universo que se expande cerca de la divisoria crítica (en el centro), se forman estrellas y los ladrillos primordiales para la vida. La expansión demasiado rápida no permite la creación de elementos complejos necesarios para la vida. Si la densidad crítica supera la ideal (más cantidad de materia), el universo será cerrado y terminará en el Big Crunch.

El hecho de que aún estemos tan próximos a esta divisoria crítica, después de algo más de trece mil millones de años de expansión, es verdaderamente fantástico. Puesto que cualquier desviación respecto a la divisoria crítica crece continuamente con el paso del tiempo, la expansión debe haber empezado extraordinariamente próxima a la divisoria para seguir hoy tan cerca (no podemos estar exactamente sobre ella).

Pero la tendencia de la expansión a separarse de la divisoria crítica es tan solo otra consecuencia del carácter atractivo de la fuerza gravitatoria. Está claro con sólo mirar el diagrama dibujado en la página anterior que los universos abiertos y cerrados se alejan más y más de la divisoria crítica a medida que avanzamos en el tiempo. Si la gravedad es repulsiva y la expansión se acelera, esto hará, mientras dure, que la expansión se acerque cada vez más a la divisoria crítica. Si la inflación duró el tiempo suficiente, podría explicar por qué nuestro universo visible está aún tan sorprendentemente próximo a la divisoria crítica. Este rasgo del universo que apoya la vida debería aparecer en el Big Bang sin necesidad de condiciones de partida especiales.

 

Gráfico: La “inflación” es un breve periodo de expansión acelerada durante las primeras etapas de la Historia del Universo.

Composición del universo

Podemos concretar de manera muy exacta con resultados fiables de los últimos análisis de los datos enviados por WMAP. Estos resultados muestran un espectro de fluctuaciones gaussiano y (aproximadamente) invariante frente a escala que coincide con las predicciones de los modelos inflacionarios más generales.

El universo de Einstein– De Sitter tiene una Densidad proxima a la ideal, es decir, a la Densidad Crítica.

          El universo estaría compuesto de un 4 por 100 de materia bariónica, un 23 por 100 de materia oscura no bariónica y un 73 por 100 de energía oscura. Además, los datos dan una edad para el universo que está en 13’7 ± 0’2 ×109 años, y un tiempo de 379 ± 8×103 años para el instante en que se liberó la radiación cósmica de fondo. Otro resultado importante es que las primeras estrellas se formaron sólo 200 millones de años después del Big Bang, mucho antes de lo que se pensaba hasta ahora. Todavía no se han hecho públicos los resultados del análisis de una segunda serie de datos, pese a que su aparición estaba prevista para mayo de 2004.

 

El principio antrópico

Parece conveniente hacer una pequeña reseña que nos explique que es un principio en virtud del cual la presencia de la vida humana está relacionada con las propiedades del universo. Como antes hemos comentado de pasada, existen varias versiones del principio antrópico. La menos controvertida es el principio antrópico débil, de acuerdo con el cual la vida humana ocupa un lugar especial en el universo porque puede evolucionar solamente donde y cuando se den las condiciones adecuadas para ello. Este efecto de selección debe tenerse en cuenta cuando se estudian las propiedades del universo.

Foto

      Desde los Quarks a los pensamientos

Una versión más especulativa, el principio antrópico fuerte, asegura que las leyes de la física deben tener propiedades que permitan evolucionar la vida. La implicación de que el universo fue de alguna manera diseñado para hacer posible de la vida humana hace que el principio antrópico fuerte sea muy controvertido, ya que nos quiere adentrar en dominios divinos que, en realidad, es un ámbito incompatible con la certeza comprobada de los hechos a que se atiene la ciencia, en la que la fe, no parece tener cabida.

El principio antrópico nos invita al juego mental de probar a “cambiar” las constantes de la naturaleza y entrar en el juego virtual de ¿qué hubiera pasado si…?

 Principio antrópico, Dios, dios y la vida mas allá de la muerte

            Nuestra presencia en el Universo ¡La gran pregunta!

Especulamos con lo que podría haber sucedido si algunos sucesos no hubieran ocurrido de tal o cual manera para ocurrir de esta otra. ¿Qué hubiera pasado en el planeta Tierra si no aconteciera en el pasado la caída del meteorito que acabó con los dinosaurios? ¿Habríamos podido estar aquí hoy nosotros? ¿Fue ese cataclismo una bendición para nosotros y nos quitó de encima a unos terribles rivales?

Fantasean con lo que pudo ser…. Es un ejercicio bastante habitual; sólo tenemos que cambiar la realidad de la historia o de los sucesos verdaderos para pretender fabricar un presente distinto. Cambiar el futuro puede resultar más fácil, nadie lo conoce y no pueden rebatirlo con certeza. ¿Quién sabe lo que pasará mañana?

Por mucho que sondeemos en nuestras mentes, nunca podremos saber lo que mañana pasará, el futuro no existe, es algo por llegar y, aunque podemos formular teorías de lo que será…sólo serán eso, teorías. ¿Quién puede predecir que mañana no caerá un meteorito sobre nosotros?

Lo que ocurra en la naturaleza del universo está en el destino de la propia naturaleza del cosmos, de las leyes que la rigen y de las fuerzas que gobiernan su mecanismo sometido a principios y energías que, en la mayoría de los casos se pueden escapar a nuestro actual conocimiento.

Lo que le pueda ocurrir a nuestra civilización, además de estar supeditado al destino de nuestro planeta, de nuestro Sol y de nuestro Sistema Solar y la galaxia, también está en manos de los propios individuos que forman esa civilización y que, con sensibilidades distintas y muchas veces dispares, hace impredecibles los acontecimientos que puedan provocar individuos que participan con el poder individual de libre albedrío.

 http://www.moonmentum.com/blog/wp-content/uploads/2010/09/Del-apuro-solo-queda-cansancio.jpg

El Tiempo es como una escalera que, a medida que la subimos, se va destruyendo a nuestras espaldas. Nunca podremos regresar al pasado. El Universo sólo marcha en una sóla dirección: El Futuro.

Siempre hemos sabido especular con lo que pudo ser o con lo que podrá ser si…, lo que, la mayoría de las veces, es el signo de cómo queremos ocultar nuestra ignorancia. Bien es cierto que sabemos muchas cosas pero, también es cierto que son más numerosas las que no sabemos.

Sabiendo que el destino irremediable de nuestro mundo, el planeta Tierra, es de ser calcinado por una estrella gigante roja en la que se convertirá el Sol cuando agote la fusión de su combustible de hidrógeno, helio, carbono, etc, para que sus capas exteriores de materia exploten y salgan disparadas al espacio exterior, mientras que, el resto de su masa se contraerá hacia su núcleo bajo su propio peso, a merced de la gravedad, convirtiéndose en una estrella enana blanca de enorme densidad y de reducido diámetro. Sabiendo eso, el hombre está poniendo los medios para que, antes de que llegue ese momento (dentro de algunos miles de millones de años), poder escapar y dar el salto hacia otros mundos lejanos que, como la Tierra ahora, reúna las condiciones físicas y químicas, la atmósfera y la temperatura adecuadas para acogernos.

 

 Revelaciones científicas. El hallazgo por investigadores de la NASA de una bacteria capaz de alimentarse de arsénico en el lago Mono de California (en la imagen) alimenta el debate sobre la vida microbiana. Hay vida microbiana en unos entornos considerados hasta ahora inhabitables – La ciencia se pregunta si es un fenómeno generalizado en el Universo…La respuesta es: SÍ.

Pero el problema no es tan fácil y se extiende a la totalidad del universo que, aunque mucho más tarde, también está abocado a la muerte térmica, el frío absoluto si se expande para siempre como un universo abierto y eterno, o el más horroroso de los infiernos, si estamos en un universo cerrado y finito en el que, un día, la fuerza de gravedad, detendrá la expansión de las galaxias que comenzarán a moverse de nuevo en sentido contrario, acercándose las unas a las otras de manera tal que el universo comenzará, con el paso del tiempo, a calentarse, hasta que finalmente, se junte toda la materia-energía del universo en una enorme bola de fuego de millones de grados de temperatura, el Big Crunch. (ahora se sabe que el Big Crunch, nunca se producirá en este universo abierto cuya densidad de materia es muy cercana a la D.C.)

El irreversible final está entre los dos modelos que, de todas las formas que lo miremos, es negativo para la Humanidad (si es que para entonces aún existe). En tal situación, algunos ya están buscando la manera de escapar.

 http://manumev.files.wordpress.com/2010/01/universo_miles_galaxias.jpg

Las galaxias se alejan las unas de las otras, de manera que, al final, estaremos sólos y el frío será el principal factor para que la vida, no pueda estar presente. ¿Podremos solucionar ese gran problema?

Stephen Hawking ha llegado a la conclusión de que estamos inmersos en un multiuniverso, esto es, que existen infinidad de universos conectados los unos a los otros. Unos tienen constantes de la naturaleza que permiten vida igual o parecida a la nuestra, otros posibilitan formas de vida muy distintas y otros muchos no permiten ninguna clase de vida.

Este sistema de inflación autorreproductora nos viene a decir que cuando el universo se expande (se infla) a su vez, esa burbuja crea otras burbujas que se inflan y a su vez continúan creando otras nuevas más allá de nuestro horizonte visible. Cada burbuja será un nuevo universo, o mini-universo en los que reinarán escenarios diferentes o diferentes constantes y fuerzas.

 

                                                                       Gráfico: Inflación eternamente reproductora de otros universos

El escenario que describe el diagrama dibujado antes, ha sido explorado y el resultado hallado es que en cada uno de esos mini-universos, como hemos dicho ya, puede haber muchas cosas diferentes; pueden terminar con diferentes números de dimensiones espaciales o diferentes constantes y fuerzas de la naturaleza, pudiendo unos albergar la vida y otros no.

El reto que queda para los cosmólogos es calcular las probabilidades de que emerjan diferenta mini-universos a partir de esta complejidad inflacionaria ¿Son comunes o raros los mini-universos como el nuestro? Existen, como para todos los problemas planteados, diversas conjeturas y consideraciones que influyen en la interpretación de cualquier teoría cosmológica futura cuántico-relativista. Hasta que no seamos capaces de exponer una teoría que incluya la relatividad general de Einstein (la gravedad-cosmos) y la mecánica cuántica de Planck (el cuanto-átomo), no será posible contestar a ciertas preguntas.

 

No estaría mal que, llegado el momento, pudiéramos localizar esos otros universos a los que poder echar mano.

Todas las soluciones que buscamos parecen estar situadas en teorías más avanzadas que, al parecer, sólo son posibles en dimensiones superiores, como es el caso de la teoría de supercuerdas situada en 10 ó 26 dimensiones. Allí, si son compatibles la relatividad y la mecánica cuántica, hay espacio más que suficiente para dar cabida a las partículas elementales, las fuerzas gauge de Yang-Mill, el electromagnetismo de Maxwell y, en definitiva, al espacio-tiempo y la materia, la descripción verdadera del universo y de las fuerzas que en él actúan.

Científicamente, la teoría del hiperespacio lleva los nombres de Teoría de Kaluza-Klein y supergravedad. Pero en su formulación más avanzada se denomina Teoría de Supercuerdas, una teoría que desarrolla su potencial en nueve dimensiones espaciales y una de tiempo: diez dimensiones. Así pues, trabajando en dimensiones más altas, esta teoría del hiperespacio puede ser la culminación que conoce dos milenios de investigación científica: la unificación de todas las fuerzas físicas conocidas. Como el Santo Grial de la Física, la “teoría de todo” que esquivó a Einstein que la buscó los últimos 30 años de su vida.

 http://img405.imageshack.us/img405/8696/20070907blackholeov6sl3.jpg

La Gravedad, si en esos hipotéticos universos existe la Materia, allí estará presente. Sin Materia no puede haber Gravedad pero, tampoco espacio-tiempo. El espacio se crea a medida que la materia se mueve y expande creando el tiempo y el espacio.

Durante el último medio siglo, los científicos se han sentido intrigados por la aparente diferencia entre las fuerzas básicas que mantienen unido al cosmos: la Gravedad, el electromagnetismo y las fuerzas nucleares fuerte y débil. Los intentos por parte de las mejores mentes del siglo XX para proporcionar una imagen unificadora de todas las fuerzas conocidas han fracasado. Sin embargo, la teoría del hiperespacio permite la posibilidad de explicar todas las fuerzas de la naturaleza y también la aparentemente aleatoria colección de partículas subatómicas, de una forma verdaderamente elegante. En esta teoría del hiperespacio, la “materia” puede verse también como las vibraciones que rizan el tejido del espacio y del tiempo. De ello se sigue la fascinante posibilidad de que todo lo que vemos a nuestro alrededor, desde los árboles y las montañas a las propias estrellas, no son sino vibraciones del hiperespacio.

Antes mencionábamos los universos burbujas nacidos de la inflación y, normalmente, el contacto entre estos universos burbujas es imposible, pero analizando las ecuaciones de Einstein, los cosmólogos han demostrado que podría existir una madeja de agujeros de gusano, o tubos, que conectan estos universos paralelos.

 

Para poder viajar por el Hiperespacio, primero debemos encontrar la puerta que nos lleve a él, y, me temo que, las posibles navez que pudieran realizar tales viajes, necesitarían poseer condiciones y disponer de energías que, ahora, ni podemos imaginar. Pero, eso sí, el Hiperespacio está ahí, esperándonos.

Aunque muchas consecuencias de esta discusión son puramente teóricas, el viaje en el hiperespacio puede proporcionar eventualmente la aplicación más práctica de todas: salvar la vida inteligente, incluso a nosotros mismos, de la muerte de este universo cuando al final llegue el frío o el calor.

Esta nueva teoría de supercuerdas tan prometedora del hiperespacio es un cuerpo bien definido de ecuaciones matemáticas. Podemos calcular la energía exacta necesaria para doblar el espacio y el tiempo o para cerrar agujeros de gusano que unan partes distantes de nuestro universo. Por desgracia, los resultados son desalentadores. La energía requerida excede con mucho cualquier cosa que pueda existir en nuestro planeta. De hecho, la energía es mil billones de veces mayor que la energía de nuestros mayores colisionadores de átomos. Debemos esperar siglos, o quizás milenios, hasta que nuestra civilización desarrolle la capacidad técnica de manipular el espacio-tiempo utilizando la energía infinita que podría proporcionar un agujero negro para de esta forma poder dominar el hiperespacio que, al parecer, es la única posibilidad que tendremos para escapar del lejano fin que se avecina. ¿Que aún tardará mucho? Sí, pero el tiempo es inexorable, la debacle del frío o del fuego llegaría.

 http://3.bp.blogspot.com/_eqb8qL2GKZc/SwWlUSrOYKI/AAAAAAAACTk/EZ68cuxIaAw/s1600/warsp.jpg

           ¿Qué encontraríamos en ese Hiperespacio imaginado?

No existen dudas al respecto, la tarea es descomunal, imposible para nuestra civilización de hoy, ¿pero y la de mañana?, ¿no habrá vencido todas las barreras? Creo que el hombre es capaz de plasmar en hechos ciertos todos sus pensamientos e ideas, sólo necesita tiempo: Tiempo tenemos mucho.

 http://2.bp.blogspot.com/_eqb8qL2GKZc/SwWk_8IPR9I/AAAAAAAACTE/k6VtSPX04Hs/s1600/arrival.jpg

Esos mundos futuros con poderosas tecnologías, nos llevarán a lugares ahora sólo imaginados.

Necesitaremos paciencia, mucha curiosidad que satisfacer y estar dispuesto a realizar el trabajo necesario. Cuando en 1.900, Max Planck, el físico alemán escribió un artículo sobre la radiación de cuerpo negro que él decía emitirse en paquetes discretos, no continuos, a los que llamó “cuantos”, nadie fue capaz de suponer que allí estaba la semilla de lo que más tarde se conocería como la Teoría de la Mecánica Cuántica que describía a la perfección el sistema matemático que nos descubrió el universo del átomo, de lo muy pequeño, infinitesimal. Por los años de 1.925 y 1.926, Edwin Schrödinger, Werner Heisemberg y otros muchos desarrollaron esta teoría que derribó las barreras de creencias firmes durante siglos.

En 1.905 y más tarde en 1.916, llegó Einstein y nos trajo otra visión del mundo de la Física y del Universo, la Teoría de la Relatividad fue como supernova, aquello explotó y su onda expansiva aún está en camino y nos puede decir muchas cosas.

¡El Universo! ¡Es todo tan complicado!

emilio silvera

Los misterios de la Tierra

Autor por Emilio Silvera    ~    Archivo Clasificado en La Tierra y su energía    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Encuentros espaciales

La más destructiva intensificación temporal de los normalmente suaves flujos de energía geotectónica – erupciones volcánicas o terremotos extraordinariamente potentes – o de energía atmosférica – vientos o lluvias anormalmente intensas –, parecen irrelevantes cuando se comparan con las repetidas colisiones del planeta con cuerpos extraterrestres relativamente grandes.

Hace unos seis mil años, en una región argentina denominada Campo del Cielo, se suscitó una lluvia de meteoritos, producto de la explosión en la atmósfera de un asteroide que pesaba unos 840 mil kilos. En la actualidad, se conserva uno de esos fragmentos, al cual se le denominó como “El Chaco”. Es el segundo más pesado del cual se tiene registro, pues en la báscula registra 37 toneladas.

En los primeros años del siglo XIX, varios exploradores se asentaron en Cape York, Groenlandia, en donde descubrieron que los habitantes de las tribus del lugar utilizaban armas punzocortantes hechas, supuestamente, con materiales de origen meteórico. Años más tarde, Robert E. Peary fue quien encontró los resquicios de un gran asteroide que golpeó la Tierra en la llamada “Edad de Hierro”. A esta gran piedra se le llamó Ahnighito, la cual fue venida al Museo Americano de Historia Natural, en donde actualmente se le puede observar.

Este meteorito cayó hace miles de años en Bacubirito, Sinaloa. Se dice que en 1863, varios pobladores de dicha localidad hallaron esta gran piedra, aunque no se dio a conocer al mundo sino hasta finales del siglo XIX, gracias a la labor periodística de Gilbert Ellis. Bacubirito pesa cerca de 20 toneladas; mide más de cuatro metros de largo y dos metros de ancho, características por las cuales lo convierten en el quinto meteorito más grande que ha caído en el planeta. Hoy en día se encuentra en la explanada del Centro de Ciencias de Culiacán.

apophis_keyhole_300

No sabemos cuando un asteroide “asesino”, caerá sobre la Tierra. Los Encuentros espaciales, han sido relativamente frecuentes en la historia del planeta y, desde luego, no podemos asegurar que no se volverá a repetir, sino que, por el contrario, lo único que no sabemos es cuando pasará.

Existen simulaciones de lo que puede ser el choque del meteorito en la Tierra y, desde luego, no quisiera estar aquí cuando suceda. La Tierra está siendo bombardeada continuamente por invisibles partículas microscópicas de polvo muy abundantes en todo el Sistema Solar, y cada treinta segundos se produce un choque con partículas de 1 mm de diámetro, que dejan un rastro luminoso al autodestruirse en la atmósfera. También son relativamente frecuentes los choques con meteoritos de 1 metro de diámetro, que se producen con una frecuencia de, al menos, uno al año.

 

 

 

 

Pero los impactos, incluso con meteoritos mayores, producen solamente efectos locales. Esto es debido a que los meteoritos que deambulan por la región de asteroides localizada entre Marte y Júpiter están girando alrededor del Sol en el mismo sentido que la Tierra, de manera que la velocidad de impacto es inferior a 15 Km/s.

Entre Marte y Júpiter hay cientos de miles de cuerpos pequeños que orbitan alrededor del Sol llamados asteroides. También podemoas encontrarlos más allá de Plutón, llamado cinturón de Kuiper, y que en este caso reciben el nombre de objetos transneptunianos y que están hecho de hielo. Ceres es el asteroide más grande y tiene 913 km de diámetro.

http://1.bp.blogspot.com/-SwuAJK5Bz2U/TV76KPZo_lI/AAAAAAAACQc/JZfFb_Du7kE/s1600/crater_c%255B2%255D.jpg

El cráter de Arizona, casi perfectamente simétrico, se formó hace 25.000 años por el impacto de un meteorito que iba a una velocidad de 11 Km/s, lo que representa una potencia cercana a 700 PW. Estas gigantescas liberaciones de energías palidecen cuando se comparan con un choque frontal con un cometa típico. Su masa (al menos de 500 millones de toneladas) y su velocidad relativa (hasta 70 Km/s) elevan su energía cinética hasta 1022 J. Aunque se perdiera un diez por ciento de esta energía en la atmósfera, el impacto sería equivalente a una explosión de unas 2.500 bombas de hidrógeno de 100 megatones. Está claro que un fenómeno de estas características produciría impresionantes alteraciones climatológicas. Sin embargo, no es seguro y sí discutible que un impacto parecido fuese la causa de la extinción masiva del cretácico, siendo lo más probable, si tenemos en cuenta el periodo relativamente largo en que se produjo, que se podría explicar por la intensa actividad volcánica de aquel tiempo.

La frecuencia de impactos sobre la Tierra disminuye exponencialmente con el tamaño del objeto. Muchas toneladas son las que recibimos cada año de pequeños fragmentos de todo tipo pero, cuando estos van aumentando de tamaño, los sucesos de espacian de manera sustancial

Aproximadamente, cada cincuenta o sesenta millones de años se produce una colisión con un cometa, lo que significaría que la biosfera, que ha evolucionado durante cuatro mil millones de años, ha debido superar unos cuarenta impactos de este tipo. Está claro que ha salido airosa de estas colisiones, ya que aunque haya sido modificada, no ha sido aniquilada.

 

         Esperemos que esta imagen no la podamos ver nunca en directo

Igualmente, la evolución de la biosfera ha sobrevivido a las explosiones altamente energéticas de las supernovas más “cercanas”. Dado que en nuestra galaxia se produce por término medio la explosión de una supernova cada 50 años, el Sistema Solar se encuentra a una distancia de 100 parsecs de la explosión cada dos millones de años y a una distancia menor de 10 parsecs cada dos mil millones de años. En este último caso, la parte alta de la atmósfera se vería inundada por un flujo de rayos X y UV de muy corta longitud de onda, diez mil veces mayor que el flujo habitual de radiación solar, lo que implica que la Tierra recibiría, en unas pocas horas, una dosis de radiación ionizante igual a la que recibe anualmente. Exposiciones de 500 roentgens son setales para la mayoría de los vertebrados y, sin embargo, los diez episodios de esta magnitud que se han podido producir en los últimos 500 millones de años no han dejado ninguna consecuencia observable en la evolución de la biosfera.

          La imagen de arriba corresponde a un suceso que ninguno quisiéramos que ocurriera

Si suponemos que una civilización avanzada podría preparar refugios para la población durante el año que transcurre ente la llegada de la luz y la llegada de la radiación cósmica, se encontraría con la inevitable dosis de 500 roentgens cada mil millones de años, tiempo suficiente para permitir el desarrollo de una sociedad cuyo conocimiento le sirviera para defenderse de un flujo tan extraordinario y de consecuencias letales.

Como nos queda tiempo, hablemos de… ¡La fotosíntesis! Y, sus consecuencias.

Todo el Oxígeno de la Atmósfera terrestre procede del oxígeno que desprenden los organismos autótrofos durante la fotosíntesis.

          La fotosíntesis es el principal proceso bioquímico que consigue pasar materiales desde el biotopo hasta la biocenosis de un ecosistema. Una vez incorporados como parte de los organismos autótrofos, los heterótrofos (por ejemplo, los animales) solo tienen que aprovecharse de aquellos; con la existencia de pequeñas cantidades de agua, todo está preparado para que el ecosistema entero comience a funcionar. Además, siempre habrá animales depredadores, carnívoros, que seguirán aprovechando los materiales de otros.

La conocida ecuación básica que describe la reacción endotérmica por la cual se sintetiza una molécula de glucosa a partir de sus seis moléculas de CO2 y H2O, y 2’8 MJ de radiación solar, es una simplificadísima caja negra. Una caja negra más realista sería la siguiente:

106 CO2 + 90 H2O + 16 NO3 + PO4 + nutrientes minerales + 5’4 MJ de radiación = 3’258 g de protoplasma (106 C, 180 H, 46 O, 16 N, 1 P y 815 g de cenizas minerales) + 154 O2 + 5’35 MJ de calor disipado.

Sin macronutrientes ni micronutrientes no se puede producir fitomasa, que está compuesta por los nutrientes básicos necesarios para todos los seres heterótrofos: azúcares complejos, ácidos grasos y proteínas.

Para entender esta caja negra hay que comenzar por destacar la acción de unos pigmentos sensibles a la luz entre los cuales destacan las clorofilas. Éstas absorben la luz en dos bandas estrechas, una entre 420 y 450 nm, y la otra entre 630 y 690 nm. Así, la energía necesaria para la fotosíntesis sólo procede de la radiación azul y roja a la que corresponde menos de la mitad de la energía total de la insolación. Esta parte de la radiación fotosintéticamente activa (RFA) no se utiliza en reducir CO2, sino en la regeneración de compuestos consumidos durante la fijación del gas.

La síntesis de fitomasa en el ciclo reductor del fosfato pentosa (RPP) – un proceso con varios pasos de carboxilación por catálisis enzimática, reducción y regeneración – tiene que empezar con la formación de trifosfato de adenosina (ATP) y nicotinamida adenina dinucleótido fosfato (NADP), que son los dos compuestos que suministran energía a todas las reacciones biosintéticas. La síntesis de las tres moléculas de ATP y las dos de NADP que se necesitan para reducir cada molécula de CO2 requiere de diez cuantos de radiación solar con longitud de onda próxima al pico rojo de absorción de la clorofila (680 nm). El carbono procedente del CO2, combinado con el hidrógeno del agua y con los micronutrientes, dará lugar a nueva fitomasa que contiene 465 KJ/mol.

La cantidad de energía de un cuanto de luz roja es de 2’92×10-19 J (el producto de la constante de Planck, 6’62×10-34 por la frecuencia de la luz, que a su vez es el cociente entre la velocidad de la luz y la longitud de onda).

Un einstein (definido como un mol o número de Avogadro, 6’02×1023) de fotones rojos tiene una energía aproximadamente igual a 17 Kg. Suponiendo que la RFA es el 45% de la luz directa, la eficiencia global de la fotosíntesis es del 11%, que equivale a 456/(1.760/0’43). Esta eficiencia se reduce por lo menos en una décima parte más si tenemos en cuenta la reflexión de la luz en las hojas y la pérdida que supone atravesar la cubierta vegetal. Ninguna planta, sin embargo, se acerca siquiera a esta eficiencia teórica, porque parte de la luz absorbida por las clorofilas (generalmente, el 20 – 25 por ciento) vuelve a ser emitida en forma de calor, debido a que los pigmentos no pueden almacenar la luz y las reacciones enzimáticas no se producen con suficiente velocidad como para utilizar completamente el flujo de energía incidente. En la respiración se cede el carbono fijado en el metabolismo de la planta y en el mantenimiento de las estructuras que la soportan.

 La luz y el calor que en una pequeña fracción recibinmos de la energía solar, hace posible todas estas maravillas en nuestro planeta. La vida incluida.

Para cada especie, la tasa con la que se pierde carbono está determinada principalmente por el tipo de fotosíntesis. Así, existen diferencias sustanciales entre las plantas C3 y C4. La respiración a escala de una comunidad o ecosistema depende del estado de crecimiento, y varía entre menos del 20 por ciento en plantas jóvenes en rápido crecimiento, hasta más del 90 por ciento en bosques maduros.

Con una pérdida del 25 por ciento para la reacción, y otro tanto para la respiración, la eficiencia fotosintética es ligeramente superior al 5 por ciento. En este punto, las estimaciones teóricas y los valores reales coinciden, ya que el valor medio de fotosíntesis neta en plantas muy productivas y en condiciones óptimas y durante cortos periodos de tiempo, oscila entre el 4 y el 5 por ciento. La mayoría de las plantas rinden en función de los nutrientes, especialmente nitrógeno y agua, o por las bajas temperaturas en las regiones de mayor altura y latitud. Los mejores rendimientos en sistemas naturales muy productivos, como los humedales y los cultivos, están entre el 2 y el 3 por ciento. En otros ecosistemas, como los pantanos tropicales templados y los bosques templados, el rendimiento de la transformación es del 1’5 por ciento, y en las praderas muy áridas sólo del 0’1 por ciento. Globalmente, la producción anual es, al menos, de 100.000 millones de toneladas de fitomasa, que se sintetizan con un rendimiento medio del 0’6 por ciento.

http://rainforestradio.com/wordpress/wp-content/uploads/2010/11/vidamar2.gif

La fotosíntesis en los océanos, muy afectada por la escasez de nutrientes, es incluso menos eficiente. La productividad medie es de poco más de 3 MJ/m2 y se realiza con un rendimiento fotosintético del 0’06 por ciento. La media ponderada total es 0’2 por ciento, es decir, que sólo uno de cada 500 cuantos de energía solar que llega a la superficie de la Tierra se transforma en energía de biomasa en forma de tejido vegetal.

La mayor parte de esta energía se almacena en forma de azúcares simples, que contienen más energía, y que sólo se encuentran en las semillas.

La mayor parte de la fitomasa está en los bosques. En los océanos, los principales productores son los organismos que componen el fitoplancton, que son muy pequeños y flotan libres. Su tamaño varía entre algo menos de 2 y 200 μm de diámetro y están formados por cantidades variables de bacterias y protoctistas eucarióticos. Las cianobacterias cocoides son tan abundantes en algunas aguas oligotrópicas que pueden ser las responsables de la mayor parte de la producción de fitoplancton.

http://www.conciencianatural.com/wp-content/uploads/2011/08/plani.jpg

Los protoctistas fotosintetizadores varían entre los más pequeños flagelados pigmentados (como las criptomonas y crisofitos), hasta las diatomeas y dinoflagelados, que son mayores (más de 10 mm) y generalmente dominantes. Las diatomeas están formadas por células sin flagelos, con paredes de silicio amorfo mezclados con otros compuestos orgánicos. Presentan una sorprendente y amplia variedad de diseño, desde las que tienen simetría central (las de forma radial son las dominantes en el océano), a las pennadas (simetría lateral), y otras forman largas cadenas.

La productividad de fitoplancton está controlada por la temperatura del agua y por la disponibilidad de radiación solar y nutrientes. La temperatura no es determinante, porque muchas especies son muy adaptables y consiguen una productividad similar en distintos ambientes. Aunque es frecuente la adaptación a diferentes condiciones lumínicas, tanto el volumen como en contenido en clorofila de las diatomeas aumenta con la intensidad de la luz. En el mar abierto, la mayor limitación es la cantidad de nutrientes disponibles.

Entre las carencias que más limitan la producción de fitoplancton está la de nitrógeno, el macronutriniente más importante, la de fósforo, y la de algunos otros micronutrientes clave como el hierro y el silicio.

http://www.conciencianatural.com/wp-content/uploads/2011/08/plancton-.jpg

Los medios menos productivos de la Tierra están en la capa superficial y la capa inmediatamente inferior de los océanos. En el mar abierto, las concentraciones más altas de nutrientes se encuentran entre los 500 y los 1.000 metros, a bastante más profundidad que la zona eufórica, capa en la que penetra la luz solar y que se extiende a unos 100 metros en las aguas transparentes.

El pequeñísimo tamaño de los productores dominantes es una adaptación eficaz a la escasez de nutrientes, ya que cuanto mayor sea el cociente entre la superficie y el volumen, y más lento el hundimiento de las células de fitoplancton en la capa eufórica, mayor es la tasa de absorción de nutrientes.

Cuando las corrientes elevan a la superficie las aguas frías y cargadas de nutrientes, la producción de fitoplancton aumenta sustancialmente. Las aguas costeras de Perú, California, noroeste y sudoeste de África, y de la India occidental son ejemplos destacados de ascensión costera de aguas frías. También se dan casos de ascensión mar adentro en la mitad del Pacífico, cerca del ecuador y en las aguas que rodean la Antártida. Otras zonas altamente productivas se encuentran en las aguas poco profundas cercanas a la costa que están enriquecidas por el aporte continental de nutrientes. Este enriquecimiento, con una proporción N/P muy descompensada, es especialmente elevados en los estuarios adonde van a parar grandes cantidades de aguas residuales y fertilizantes.

 

Las diferentes medidas de la productividad en las aguas oligotróficas de los mares subtropicales y de las aguas eutróficas con corrientes ascensionales, varían entre menos de 50 gC/m2 y 1 gC/m2, más de un orden de magnitud. Las estimaciones de la producción global de fitoplancton están comprendidas entre 80.000 y 100.000 millones de toneladas, que representan entre dos tercios y cuatro quintos de la fitomasa total terrestre. Contrasta con el resultado anterior el hecho de que, dado el corto periodo de vida del fitoplancton (1 – 5 días), la fitomasa marina represente sólo una pequeña fracción de todo el almacenamiento terrestre.

La distribución espacial del fitoplancton muestra zonas delimitadas que se extienden a escala local y global. La exploración desde los satélites es, con gran diferencia, la que permite detectar con mayor precisión las concentraciones de clorofila y la que ha posibilitado obtener las pautas de la distribución de fitoplancton. En las aguas que rodean la Antártida se observa claramente una distribución asimétrica en dos bandas casi concéntricas. La mejor distribución se explica por el hecho de que se deba a corrientes circumpolares y a la abundancia de ácido silicílico. Pero las zonas de mayor riqueza de fitoplancton se encuentran cerca de los continentes donde los ríos arrastran abundantes nutrientes disueltos.

Figura 4-3 > Ejemplo de cadena trófica” width=”484″ height=”383″ border=”1″ /></p>
<p align=

La vida necesita un aporte continuo de energía que llega a la Tierra desde el Sol y pasa de unos organismos a otros a través de la cadena trófica.

El fitoplancton es la base energética de las intrincadas pirámides tróficas. Las cadenas alimenticias en el océano, generalmente, son redes complicadas. Una gran parte de la fitomasa disponible no la consumen directamente los herbívoros, sino que primero se almacena en depósitos de materia muerta que, transformada por bacterias, se convertirá en alimento para otros seres heterótrofos.

Diatomeas vistas a través de un microscopio electrónico.

La gran producción de fitoplancton puede alimentar grandes cantidades de zoomasa. El kril, pequeños crustáceos parecidos a las quisquillas que se alimentan de diatomeas, son los organismos más abundantes en la superficie del mar; sus densas acumulaciones pueden contener hasta mil millones de individuos y su producción anual de zoomasa quizá llegue hasta los 1.300 millones de toneladas. Esta prodigiosa cantidad de zoomasa sirve de alimento a focas, calamares y peces, así como a los mayores carnívoros de la biosfera, las especies de ballenas con barbas que se alimentan filtrando el agua.

emilio silvera

Energías de la Tierra

Autor por Emilio Silvera    ~    Archivo Clasificado en Energías de la Tierra    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

File:Ojos del Salado summit.jpg
                                 El volcán Nevado Ojos del Salado, en la frontera entre Argentina y Chile, es el más alto del planeta

Los volcanes

La unívoca asociación de los volcanes activos con las zonas de subducción de las grandes placas tectónicas permite localizar casi todas las erupciones recientes alrededor del océano Pacífico y, sobre todo, en América central, Sudamérica, Filipinas, Japón y Kamchatka. Una categoría menos común incluye los volcanes asociados a los puntos calientes, donde las placas tectónicas se ven atravesadas por flujos magmáticos procedentes del manto, a la cual pertenecen los volcanes de Hawai y África central.

File:Pahoeoe fountain original.jpg

                                                             Fuente de lava de 10 metros de altura en un volcán de Hawái

Las erupciones históricas más conocidas son las Théra, en Grecia (alrededor del 1.500 a. C.), del Vesubio en Italia (79 a. C.) y del Cracatoa (1.883 d. C.) en Indonesia, y el del monte St. Helens en el estado de Washington en 1.980. Éste último caso es la erupción volcánica mejor estudiada hasta la fecha. Se conoce, no solamente el volumen de los depósitos expulsados (0’18 Km3) y de lava (0’5 Km3), sino también un detallado desglose de la energía relacionada con la erupción.

 

El Vesubio: En Italia, se encuentra ubicado uno de los volcanes que más devastación ha causado en la historia. Hace varios siglos, este volcán hizo erupción destruyendo Pompeya y Herculano, matando a 25 mil personas. Según los registros, mucha gente fue petrificada viva.

File:MSH82 st helens spirit lake reflection 05-19-82.jpg

                                                       Imagen del Monte St. Helens tomada el 19 de mayo de 1982.

Los flujos de calor dominan en el proceso: la energía térmica de los productos expulsados, las avalanchas, los chorros de agua, los flujos piroplásticos y las nubes de ceniza, dan un total de 1’66 EJ, cerca de veinte veces la energía cinética total de la erupción.

El 18 de mayo de 1.980, el volcán del monte St. Helens desarrolló, durante nueve horas de erupción, una energía total de 1’7 EJ, lo que equivale a una potencia media de 52 TW, es decir, unas cinco veces el consumo anual mundial de energía en el sector primario en los primeros años noventa. Aún más potentes fueron las de Bezymyannyi, Kamchatka, en 1.956 (3’9 EJ), y la de Sakurajima, Japón, en 1.914 (4’6 EJ). La mayor erupción que tuvo lugar en el siglo XIX fue la del volcán Tambora, en 1.815, que liberó más de 80 EJ de energía (basado en los depósitos de cenizas) que es un orden de magnitud superior a los anteriormente mencionados. Pero incluso la más potente erupción conocida es irrelevante comparada con las sucedieron hace varios vientos de miles de años, y que a su vez, son pequeñas comparadas con las erupciones magmáticas más antiguas.

yellowstone1

                                                                    Cuando Yellowstone estalle

Debajo del parque de Yellowstone, una monstruosa pluma de roca caliente levanta la tierra y la hace temblar. Las pasadas erupciones tuvieron una potencia comparable a la de mil montes Saint Helens. El futuro es imprevisible.

Entre las cerca de diez calderas jóvenes, enormes cráteres formados en las gigantescas erupciones que se produjeron en el último millón de años, están la de Yellowstone (formada hace 600.000 años, con un diámetro de 70 Km y 1.000 m3 de material expulsado, principalmente piedra pómez y cenizas), y la de Toba (situada en el noroeste de Sumatra, formada hace 75.000 años, de casi 100 Km de anchura y con más de 2.000 m3 de material eyectado).

                               Decan Traps de la India

Un prolongado periodo de erupciones volcánicas que empezó hace 66 millones de años – varios cientos de millones de años de cataclismos que lanzaron a la atmósfera enormes cantidades de cenizas y produjeron dos millones de Km3 de lava, creando la inmensa Decan Traps de la India – parece ser la causa, al menos tan plausible como la colisión de la Tierra con un asteroide, de la masiva extinción que se produjo en la frontera del cretácico y el terciario.

Aunque las erupciones históricas han supuesto una considerable pérdida en vidas humanas (cerca de 250.000 desde 1.700), pérdidas materiales enormes y han sido una de las causas más importantes de los cambios climáticos temporales, ninguna de estas consecuencias está claramente correlacionada con la energía total liberada en las mismas. Las emisiones térmicas son casi siempre dominantes, de una a tres órdenes de magnitud mayores que todos los demás flujos de energía, y se dividen en varias clases de flujos diferentes. En algunas erupciones, la mayor parte de la energía térmica liberada está asociada con la emisión de nubes de cenizas que se elevan hasta la estratosfera; así las cenizas de la erupción del monte St. Helens se elevaron a 20 Km, y otras hasta los 30 Km, e incluso más, con cambios atmosféricos locales y espectaculares puestas de Sol y uno o dos años con temperaturas más bajas de las habituales en algunas regiones. En Nueva Inglaterra, por ejemplo, no hubo verano en 1.816.

En otras erupciones, la mayor parte de la energía térmica es transportada por las corrientes piroclásticas. Estas corrientes se forman por explosión y están compuestas por partículas volcánicas, cuyos tamaños varían entre los μm y varios metros, y gases calientes. Alcanzan temperaturas cercanas a los 1.000º C, se propagan a velocidades de hasta 300 m/s y se extienden a distancias de cientos de kilómetros del lugar de origen.

                                                                          Monte Pelée, 1902

En la erupción del monte Pelée, isla de Martinica en 1.902, estas nubes incandescentes acabaron con la vida de 28.000 personas. En las erupciones de los volcanes hawaianos, el principal flujo de calor está predominantemente asociado a la emisión de lavas que se desplazan lentamente; así, en la erupción del Mauna Loa en 1.950, con una energía liberada de magnitud parecida a la del monte St. Helens, no se produjeron desplazamientos de lodos, avalanchas ni nubes de cenizas.

Siendo espectaculares y a veces devastadoras, las erupciones volcánicas representan una fracción muy pequeña de la energía térmica que mueve la geotectónica terrestre. Suponiendo que en total aflora 1 Km3/año de lava continental y que las erupciones oceánicas contribuyen con otros 4 Km3/año, el calor global perdido anualmente está cerca de los 800 GW, lo cual representa solamente el 2 por ciento del flujo geotérmico terrestre global. La grandiosidad de estos fenómenos está enmascarada en ámbitos de límites regionales, que a nivel global son casi insignificantes.

emilio silvera

Fenómenos naturales

Autor por Emilio Silvera    ~    Archivo Clasificado en Naturaleza misteriosa    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Varias personas observan la silueta de La Habana desde el castillo del Morro el 21 de agosto del 2013. En los últimos días ha habido una bruma causada por nubes de polvo sahariano que llegan desde el norte de Africa. Los científicos dicen que estas nubes pueden incrementar la incidencia del asma y cambiar el patrón de los huracanes.  Foto: Ramón Espinosa / AP

Los científicos del Caribe están preocupados con las ráfagas de arena venidad del Sahara

Varias personas observan la silueta de La Habana desde el castillo del Morro el 21 de agosto del 2013. En los últimos días ha habido una bruma causada por nubes de polvo sahariano que llegan desde el norte de Africa. Los científicos dicen que estas nubes pueden incrementar la incidencia del asma y cambiar el patrón de los huracanes.

http://www.gustavopierral.net/wp-content/woo_custom/3586-splitEW.jpg

En estos días, los amaneceres y atardeceres podrían verse en tono rojizo en los países del Caribe, pero el bello espectáculo podría traer un mensaje poco alentador, ya que se trata de una tormenta de arena proveniente del Sahara conteniendo material biológico y químico potencialmente dañino para la salud.

Como cada año, partículas infinitamente pequeñas recorrieron miles de kilómetros desde el desierto del Sahara hacia el Caribe. A simple vista solo provocan atardeceres más intensos y algo de bruma en las mañanas, pero ahora los científicos saben que también pueden incrementar la incidencia del asma y cambiar el patrón de los huracanes.

Inusualmente grande, la cobertura de polvo que llegó en las semanas pasadas descargó material sobre las Antillas y llegó hasta Yucatán e incluso Wyoming, en el centro de Estados Unidos, según la NASA.

Aunque el fenómeno existe desde que hay arena en el desierto, los científicos están cada vez más preocupados por sus efectos, mientras buscan comunicarse para compartir investigaciones y tratan de desentrañar muchos misterios sobre estas nubes.

“Es un tema de gran envergadura y sumo interés y de importancia para la salud”, manifestó a la AP el toxicólogo de la Universidad de Puerto Rico en Mayagüez Braulio Jiménez-Vélez. “La inhalación de partículas contaminadas se puede asociar con varias enfermedades respiratorias, alergias, asma, enfermedades cardiovasculares”, agregó.

En casos extremos podría inducir cáncer de pulmón, pero los científicos aseguran que aún falta mucho por estudiar. Este año hubo dos alertas en Puerto Rico por nubes del Sahara por lo cual las autoridades hicieron un llamado a las personas que sufren de alergias y asma para que eviten actividades al aire libre. En República Dominicana se dieron a conocer alertas más suaves.

              Esta tormenta cruza por encima de Las Islas Canarias camino de otros lugares que fastidiar

En Cuba los meteorólogos recordaron al público que el fenómeno es anual y se mostraron precavidos, mientras en México fue tratado como una “curiosidad meteorológica”. El fenómeno es parecido a las gigantescas tormentas de polvo que pintan el cielo de amarillo en las metrópolis asiáticas y que pueden llegar a la costa del Pacífico estadounidense, aunque sus nubes son más polvorientas todavía.

Un estudio del 2011 de Atmospheric Chemistry and Physics estimó que más del 70% de las emisiones de polvo mundiales se originan en el norte de Africa. Este fenómeno fue estudiado por el naturalista Charles Darwin a mediados del siglo XIX y es, aseguran los expertos, un ejemplo de cómo la acción humana está distorsionando un fenómeno natural.

Varios científicos consultados por AP en Cuba, Puerto Rico, México y Estados Unidos indicaron que los compuestos detectados en el polvo incluyen entre otros hierro, arsénico, mercurio, virus, bacterias, hongos, fertilizantes, pesticidas y hasta compuestos fecales.

La mayor parte del polvo atmosférico en todo el mundo tiene trazas químicas y material biológico, pero las cantidades son por lo general pequeñas como para constituir un riesgo. Joseph M. Prospero, profesor emérito de la Universidad de Miami, aseguró que algunas muestras tomadas en Barbados contenían niveles elevados de arsénico y cadmio, pero no eran peligrosos.

“Ha sido extremadamente difícil vincular la composición de la partícula específica a efectos en la salud “, dijo Prospero, autor de un artículo sobre el tema que se publicará en septiembre en el boletín de la Sociedad Americana de Meteorología. “No se puede decir qué efecto tiene todo este polvo, pero sí hay motivos para cierta preocupación”.

El fenómeno es seguido de cerca por el Instituto de Meteorología de Cuba.

Diagrama de ciclo

Además hay que tener en cuenta que este proceso genera otros efectos sobre los territorios al sur del Sahara, el incremento de la sequía produce un gran stress en los bosques y plantaciones que propician la ocurrencia de incendios forestales cada vez más frecuentes y devastadores con sus correspondientes consecuencias.

“Hemos hecho un estudio amplio de muchos años del comportamiento del polvo”, comentó a la AP el experto cubano Eugenio Mojena, del Instituto de Meteorología.

 

Mojena indicó que el mecanismo de la nube es “sencillo”: bajo las condiciones extremas de sequía del norte de Africa, las tormentas del Sahara levantan partículas súper finas y los vientos Alisios las trasladan.

Los compuestos, explicó Mojena, no solo pertenecen al desierto como tal, sino a las zonas al sur aledañas (Sahara-Sahel) donde se realiza una agricultura con el uso de productos químicos.

Los expertos coinciden además en la incidencia que tiene en los ecosistemas, por ejemplo los corales que se afectan con el aumento de algas “abonadas” por el hierro de la nube, un aspecto de interés económico para unos países que viven del turismo de playa.

“El polvo actual no es el mismo que medía Darwin, no tenía DDT, no tenía pesticidas, ni herbicidas”, manifestó Mojena. Las nubes también pueden complicar el tráfico aéreo, reduciendo la visibilidad, explicó Jason Dunion, investigador de la Administración Nacional Oceánica y Atmosférica de Estados Unidos, pero no lo suficiente como para obligar a las desviaciones de los vuelos comerciales o cerrar aeropuertos.

Para Mojena la cantidad de polvo que llega a Cuba se incrementó en 10 veces en las últimas tres décadas, mientras su colega puertorriqueño Jiménez-Vélez aseguró que en lo que a ellos respecta detectaron un incremento en el número de tormentas a lo largo de estos los años.

Omar Torres, investigador especializado en física atmosférica de la NASA, explicó que los estudios por satélite comenzaron en 1980 y no muestran aumento de las emisiones de polvo del Sahara fuera de la variabilidad estacional normal, aunque admitió que las emisiones son más altas que los niveles de 1960.

En esta ocasión, advirtió Torres, la nube de comienzos de agosto llegó hasta el centro de los Estados Unidos. “El avance de este año hasta llegar a Wyoming (Estados Unidos) fue totalmente inesperado. Nunca he visto nada como eso en los últimos años”, expresó Torres.

Red Sea

Por otra parte, lo cierto es que, las tormentas de arena del Sahara son una fuente importante de minerales escasos para las plantas de la pluvisilva amazónica. Nunca llueve a gusto de todos y, como dicen que la Naturaleza es “sabia”… ¿quién sabe por qué hace muchas de las cosas que hace?

En los últimos años, además, los científicos han estado descubriendo el papel que juegan las nubes del Sahara en la formación –o desintegración– de los huracanes, cuya mayor intensidad debido al cambio climático preocupa a los países del Caribe.

La nube del desierto tiene un efecto “trascendental para la inhibición de los de ciclones tropicales”, manifestó a la AP el experto del Servicio Meteorológico Nacional de la Comisión Nacional del Agua de México, Juan Antonio Palma Solís.

Pero incluso con todo lo que hoy sabemos del fenómeno gracias al desarrollo de la tecnología satelital, los científicos coincidieron en la necesidad de compartir más sus trabajos y coordinarlos regionalmente. “Estamos en un planeta que no deja de moverse… hay que meterle invstigación”, señaló Palma.

Los científicos que estudian las tormentas de arena saben desde hace tiempo que la arena del Sahara puede viajar a través del Atlántico hasta América. Sin embargo, la arena asiática tiene que viajar mucho más lejos para llegar al mismo destino. En Abril del 2001, los investigadores observaron con sorpresa como la arena de una tormenta asiática cruzó el Pacífico alcanzando lugares tan lejanos cómo los Grandes Lagos e incluso Maryland.

emilio silvera

El presente trabajo, en su mayor parte (salvo algunos añadidos) corresponde al redactor de ciencia Seth Borenstein en Washington y los corresponsales Peter Orsi en La Habana y Dánica Coto en Puerto Rico que contribuyeron con este reportaje.

¡La Física Cuántica! ¿Llegaremos a comprenderla?

Autor por Emilio Silvera    ~    Archivo Clasificado en Física Cuántica    ~    Comentarios Comments (5)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

Es realmente maravilloso que podamos haber llegado, en el extremo de las escalas, hasta esos mundos fantáscitos que nos proporcionan los “universos” de lo muy pequeño y de lo muy grande. Lo más cotidiano para nosotros es lo que se encuentra en el macro mundo, lo que se interrelaciona directamente con nosotros, lo que podemos ver y tocar. Sin embargo, ahí está ese otro “mundo” que se nos escapa a los sentidos pero que es, tan real como el otro. Es el espacio que describe la mecánica cuántica y que nos habla de maravillas y procesos asombrosos que son, tan reales como los que contemplamos a nuestro alrededor.

 

No podemos ver todo lo que existe. Sin embargo, no por estar fuera de nuestra visión deja de existir, ahí está formando parte de ese otro mundo que se nos escapa, al que nuestras percepciones directas, nuestros sentidos, no pueden llegar pero que henmos podido alcanzar a “ver” mediante los ingenios que hemos podido inventar para acceder, de manera indirecta, a ese espacio que se escapa de nosotros por su pequeñez y que, no por ello deja de tener una gran importancia para nosotros y para todo el mundo que nos rodea, de hecho, de esas “pequeñas cositas” resulta estar hecho el Universo. He leído por ahí:

“La mayor parte de la gente desconoce que la mecánica cuántica, es decir, el modelo teórico y Reiki - Escaneo PETpráctico dominante hoy día en el ámbito de la ciencia, ha demostrado la interrelación entre el pensamiento y la realidad. Que cuando creemos que podemos, en realidad, podemos. Sorprendentes experimentos en los laboratorios más adelantados del mundo corroboran esta creencia.

El estudio sobre el cerebro ha avanzado mucho en las últimas décadas mediante las tomografías.

Conectando electrodos a este órgano, se determina donde se produce cada una de las actividades de la mente. La fórmula es bien sencilla: se mide la actividad eléctrica mientras se produce una actividad mental, ya sea racional, como emocional, espiritual o sentimental y así se sabe a qué área corresponde esa facultad.

Estos experimentos en neurología han comprobado algo aparentemente descabellado: cuando vemos un determinado objeto aparece actividad en ciertas partes de nuestro cerebro…. pero cuando se exhorta al sujeto a que cierre los ojos y lo imagine, la actividad cerebral es ¡idéntica! Entonces, si el cerebro refleja la misma actividad cuando “ve” que cuando “siente”, llega la gran pregunta: ¿cuál es la Realidad?

“La solución es que el cerebro no hace diferencias entre lo que ve y lo que imagina porque las mismas redes neuronales están implicadas; para el cerebro, es tan real lo que ve como lo que siente”, afirma el bioquímico y doctor en medicina quiropráctica, Joe Dispenza en el libro “¿y tú qué sabes?”. En otras palabras, que fabricamos nuestra realidad desde la forma en que procesamos nuestras experiencias, es decir, mediante nuestras emociones.”

 

La mecánica cuántica que conocemos en nuestros días se ha conseguido gracias a la suma de muchos esfuerzos y sería preciso entrar en la historia pasada de esta disciplina que investiga como es el mundo, como funciona la Naturaleza, para saber como se llegó a moldear esos conocimientos que nos llevan al “universo” de lo infinitesimal, de los objetos más pequeños pero que, sin ellos, no podrían existir los más grandes. Ninguna duda nos puede caber ya sobre el hecho cierto de que, la mecánica cuántica, es una de las ramas principales de la Física y está entre uno de los más grandes avances del pasado siglo XX en lo que al conocimiento humano del mundo se refiere. Nos explica el comportamiento de la materia-energía y, de hecho, sin esos conocimientos hubiera sido imposible alcanzar el nivel tecnológico del que hoy podemos disfrutar.

Un día de 1900, Max Planck escribió un artículo de ocho páginas que cambió el mundo de la física. En él nos habló del cuanto, unos pequeños paquetes de energía que eran emitidos por los cuerpoos calientes y, dejó sembrada la semilla de un árbol que no ha dejado de crecer desde entonces. Más tarde llegó Einstein que inspirado en aquel trabajo de Planck, fue un poco más allá y realizó aquel famoso trabajo conocido del Efecto fotoeléctrico. Desde entonces, los físicos no dejaron de ampliar y desarrollar las bases de nuestros conocimientos actuales.

La estructura de las fuerzas familiares como la Gravedad y el magnetismo fueron desarrolladas relativamente temprano. Todos conocemos la historia de Newton y sus trabajos y que, mucho después, dejó perfeccionado Einstein en relación a la fuerza gravitatoria. Las fuerzas electromagnéticas se determinaron también bastante pronto pero, no fue hasta 1927 cuando Dirac realizaría los primeros cálculos cuánticos de interacción de la radiación con la materia y en los años cuarenta y cincuenta gracias a los trabajos de, entre otros, Schwinger y Feynman, se construyó una teoría (electrodinámica cuántica) compatible con los principios básicos de la relatividad y la mecánica cuántica y con una capacidad predictiva asombrosa. Se han conseguido comprender éstos fenómenos, podríamos decir que al nivel de un acuerdo entre los cálculos teóricos y los resultados experimentales de más de diez cifras decimales, y, tal cosa, amigos míos, es un inmenso logro de la mente humana.

No podríamos comprender el macrocosmos sin haber descubierto antes que, en realidad, está fuertemente ligado al microcosmos, a la física subnuclear, ese mundo de lo muy pequeño que, cuando se profundiza en él, nos habla del futuro dinámico del universo y se comienza a ver con claridad como aquellas cuestiones antes no resultas, están ahí, ante nuestros ojos y para que nuestras mentes la puedan entender gracias a la dinámica activa de ese ámbito que resulta ser el campo de las partículas elementales y las fuerzas que con ellas actúan.

Las interacciones débiles y las interacciones fuertes, por su profunda lejanía, tardaron en ser comprendidas. Está claro que, el corto alcance en el que se desarrollan imposibilitaron bastante su hallazgo. Antes, los físicos no tenían acceso al mundo subatómico al que más tarde pudieron entrar de la mano de los microscopios electrónicos, los grandes aceleradores y otros ingenios de increíble alcance y precisición. Así que, a diferencia de lo que pasó con la Gravedad y el electromagnetismo, no se partía de una teoría clásica bien establecida, de manera que se tuvo que construir directamente, una teoría cuántica y relativista de ambas interacciones: la interacción nuclear débil y la interacción nuclear fuerte.

Paradoja EPR

La empresa de comprender aquellas interacciones fue ardua y se tuvo que esperar hasta los año setenta para encontrar las teorías correctas y completas. En estos años se produjeron, primero la demostración por el holandés Gerard ´t Hooft, culminando los trabajos de su mentor, el también holandés, Martinus Veltman, de la autoconsistencia (llamada, por motivos técnicos, renormalización) de las teorías propuestas fenomenológicamente por Glashow, Wienberg y Salam para interacciones débiles; y segundo, el descubrimiento de la propiedad de libertad asintótica (por Gross, Wilczek y Plotzer) de las interacciones fuertes. Ambos grupos consiguieron el Nobel, pero los tres últimos no vieron premiados sus esfuerzos hasta 30 años después, en 2004, cuando se había comprobado de manera suficiente la veracidad de sus predicciones sobre la libertad de los Quarks en su confinamiento, cuando éstos, están juntos y los Gluones, se comportan como si no estuvieran allí, sólo actúan cuando tratan de separse.

En 1973, Wilczek, un estudiante graduado trabajando con David Gross en la Universidad de Princeton, descubrió la libertad asintótica que afirma que mientras más próximos estén los quarks menor es la interacción fuerte entre ellos; cuando los quarks están extremadamente próximos la interacción nuclear entre ellos es tan débil que se comportan casi como partículas libres.

Estosd avances hicieron posible obtener teorías consistentes con la relatividad y la mecánica cuántica de ambos tipos de interacciones; teorías que, además han superado con éxito las muchas confrontaciones experimentales que han sido realizadas hasta nuestros días. Aunque no hay ni cálculos teóricos, ni resultados experimentales tan exactos como en el caso de la electrodinámica cuántica, es cierto que el nivel de precisión de los cálculos con interacciones débiles llegan a cuatro y más cifras significativas y, para interacciones fuertes, estamos alcanzando el nivel del uno por ciento.

La Interacción gravitatoria que se deja notar  en las grandes estructructuras se hace presente y se deja sentir, podemos ver como funciona y cuáles son sus consecuencia. Sin embargo, en el mundo de lo muy pequeño, esta interacción, continúa siendo la cenicienta en lo que se refiere a la comprensión de la estructura microscópica y la incidencia que la interacción gravitatoria pueda tener ahí y, curiosamente, es la interacción que se conoce desde hace mucho tiempo y sabemos, perfectamente de su funcionamiento en ese ámbito de lo muy grande pero, hace mutis por el foro cuando nos acercamos al mundo de las partículas, de la mecánica cuántica. Por eso se habla tanto de que necesitamos una teoría cuántica de la gravedad.

No tenemos información alguna de la fuerza de Gravedad a nivel experimental sobre la interacción gravitatoria a cortas distancias, donde sólo se puede llegar a través de inmensas energías. A lo más que hemos podido llegar es a experimentos del tipo realizado por Eötvös, midiendo la interacción gravitatoria entre dos cuerpos a distancias del orden del centímetro: las interacciones gravitatorias entre partículas elementales (quarks, electrones o incluso núcleos) es tan minúscula que son pocas las esperanzas de poderlas medir…por ahora ni en muchom tiempo futuro, y, siendo así (que lo es), nos tenemos que dedicar a emitir conjeturas y a especular con lo que podría ser.

En el siglo XIX se consiguió uno e los logros más impresionantes que nunca pudo alcanzar la Humanidad. ¡La comprensión de los fenómenos electromagnéticos. Comprensión en la que participaron (como casi siempre) muchos científicos, entre los que podemos destacar a dos británicos: el inglés Muchael Faraday, responsable de una buena parte de la investigación y de los conceptos experimentales (de él es el concepto de campo que tan importante sería para la Física), y, el escocés James Clerk Maxwell al que le debemos la síntesis teórica que condensó en unas pocas ecuaciones fundamentales, de las propiedades de las interacciones electromagnéticas a nivel clásico, esto es, macroscópico.

Los fenómenos electromagnéticos tal y como se entendían a finales del siglo XIX, se suponían debidos a la fuerza que una carga eléctrica ejerce sobre otra: tanto si las cargas son estáticas (y entonces la fuerza viene dada por la conocida ley de Coulomb) como si están en movimiento, situación en la que se generan campos magnéticos. Las vibraciones de estos campos electromagnéticos se suponían propagándose por el éter (el “éter luminífero”) y la luz se identificaba como un caso particular de estas vibraciones electromagnéticas. La corriente eléctrica se interpretaba como una especie de fluido: recuérdese que, todavía en 1896, Lord Kelvin defendía esta naturaleza continua de la electricidad.

Lo que supuso el descubrimiento de la luz eléctrica para la Humanidad, aunque ahora lo podamos ver como cosa trivial y cotidiana, en realidad vino a cambiar el mundo que se vio de pronto, sacado bruscamente de la penunmbra para sumergirse en la más maravillosa claridad del día artificial. Aquello supuso un cambio enorme para muchos de los ámbitos sociales en las ciudades y, no digamos, más tarde, en el de los hospitales, laboratorios y también en el más cotidiano mundo doméstico.

Está claro que la luz es algo tan importante enn nuestras vidas que, sin ella, nos encontramos desamparados, desnudos y, si nos referimos a la natural, la que nos manda el Sol, la cosa sería más grave ya que, sin  ella, no podríamos estar aquí. De todo esto, como de cualquiera de los temas de Física que pudiéramos escoger al azar, nos podríamos estar hablando durante años…¡es tan fascinante! ¡son tan maravillosos! todos esos conocimientos que, de alguna manera, nos acercan a que podamos comprender en funcionamiento del mundo y nos cuentan el por qué ocurren las cosas de la, manera en que la vemos que pasan. Muchas son las historias que se podrían contar de todos estos sucesos que, por el camino de los descubrimientos tuvimos que recorrer.

http://3.bp.blogspot.com/_OLZpGdNM9tw/TCACf7X99bI/AAAAAAAAAGo/f9Gmf3pmA9M/s200/mec-cuantica.jpg

La teoría cuántica, recordémoslo, afirma que para todo objeto existe una función de onda que mide la probabilidad de encontrar dicho objeto en un cierto punto del espacio y del tiempo. La teoría cuántica afirma también que nunca se conoce realmente el estado de una partícula hasta que se haya hecho una observación. Antes de que haya una medida, la partícula puede estar en uno de entre una diversidad de estados, descritos por la función de onda de Schrödinger. Por consiguiente, antes de que pueda hacerse una observación o medida, no se puede conocer realmente el estado de la partícula. De hecho, la partícula existe en un estado ultramundano, una suma de todos los estados posibles, hasta que se hace una medida.

Cuando esta idea fue propuesta por primera vez por Niels Bohr y Werner Heisemberg, Einstein se revolvió contra ella. “¿Existe la luna sólo porque la mira un ratón?“, le gustaba preguntar. Según la teoría cuántica, en su más estricta interpretación, la Luna, antes de que sea observada, no existe realmente tal como la conocemos.

La Luna puede estar, de hecho, en uno cualquiera de entre un número infinito de estados, incluyendo el estado de estar en el cielo, de estar explotando, o de no estar allí en absoluto. Es el proceso de medida que consiste en mirarla el que decide que la Luna está girando realmente alrededor de la Tierra“.

Decía Einstein con ironía.

Edwin Schrödinger, autor de la ecuación con su función de onda, se disgustó con estas interpretaciones de su ecuación. Para demostrar lo absurdo de la situación creada, Schrödinger colocó un gato imaginario en una caja cerrada. El gato estaba frente a una pistola, que está conectada a un contador Geiger, que a su vez está conectado a un fragmento de uranio. El átomo de uranio es inestable y sufrirá una desintegración radiactiva. Si se desintegra un núcleo de uranio, será detectado por el contador Geiger que entonces disparará la pistola, cuya bala matará al gato.

 

Para decidir si el gato está vivo o muerto, debemos abrir la caja y observar al gato. Sin embargo, ¿cuál es el estado del gato antes de que abramos la caja? Según la teoría cuántica, sólo podemos afirmar que el gato está descrito por una función de onda que describe la suma de un gato muerto y un gato vivo.

Para Schrödinger, la idea de pensar en gatos que no están ni muertos ni vivos era el colmo del absurdo, pero la confirmación experimental de la mecánica cuántica nos lleva inevitablemente a esta conclusión. Hasta el momento, todos los experimentos han verificado, favorablemente, la teoría cuántica.

La paradoja del gato de Schrödinger es tan extraña que uno recuerda a menudo la reacción de Alicia al ver desaparecer el gato de Cheshire en el centro del cuento de Lewis Carroll: “Allí me verás“, dijo el Gato, y desapareció, lo que no sorprendió a Alicia que ya estaba acostumbrada a observar cosas extrañas en aquel lugar fantástico. Igualmente, los físicos durante años se han acostumbrados a ver cosas “extrañas” en la mecánica cuántica.

 

                      La Mecánica cuántica, es , más fascinante el el Pais de las Maravillas de Alicia

Existen varias maneras de abordar esta dificultad de lo incomprensible en mecánica cuántica. En primer lugar, podemos suponer que Dios existe. Puesto que todas las “observaciones” implican un observador, entonces debe haber alguna “conciencia” en el universo. Algunos físicos como el premio Nobel Eugene Wigner, han insistido en que la teoría cuántica prueba la existencia de algún tipo de conciencia cósmica universal.

La segunda forma de tratar la paradoja es la preferida por la gran mayoría de los físicos en activo: ignorar el problema.

El físico Richard Feynman dijo en cierta ocasión: “Creo que es justo decir que nadie comprende la mecánica cuántica. No siga diciéndose a sí mismo, si puede evitarlo, “¿pero cómo puede ser así?” porque usted se meterá “hasta el fondo” en un callejón sin salida del que nadie ha escapado. Nadie sabe como puede ser eso“. De hecho, a menudo se ha dicho que de todas las teorías propuestas en el siglo XX, la más absurda es la teoría cuántica. Algunos dicen que la única cosa que la teoría tiene a su favor es que “es indudablemente correcta”.

 http://gua30.files.wordpress.com/2008/05/mecanicacuantica.jpg

            ¿Siempre será parte del misterio?

Sin embargo, existe una tercera forma de tratar esta paradoja, denominada teoría de los muchos universos. Esta teoría (como el principio antrópico) no gozó de mucho favor en la última década, pero está siendo revitalizada por la función de onda del universo de Stephen Hawking.

Pero, bueno… ¿cómo he llegado hasta aquí? Es cierto que… ¡Los senderos de la Física te pueden llevar a tántos sitios…!

emilio silvera