Jun
3
Biología cuántica: una ciencia que es y no es a la vez
por Emilio Silvera ~ Clasificado en Física Cuántica ~ Comments (0)
Reportaje de Prensa: En El Español.
Los científicos estudian si los seres vivos utilizan las extrañas propiedades de la física cuántica en sus procesos biológicos, pero aún no lo han decidido.
Imagen de una estructura de ADN molecular en el Museo de Ciencias de Oxford. Allispossible.org.uk (CC)
Circula por ahí un chiste sobre los ordenadores cuánticos, esas máquinas del futuro de las que se hablan maravillas: “Los ordenadores cuánticos son extremadamente potentes, y al mismo tiempo aún no funcionan”, cuenta a EL ESPAÑOL el físico Franco Nori, director del Grupo de Investigación en Materia Condensada Cuántica del Instituto RIKEN, en Japón. El chiste es una parodia del famoso experimento mental del gato de Schrödinger, que estaba vivo y muerto al mismo tiempo.
Contradice la física cuántica nuestra intuición y sentido. Lo que no puede ser… ¡ES!
Y es que la física cuántica es así: paradójica, contraria a la intuición de los seres grandes como nosotros, que nos regimos por la lógica de la mecánica clásica y la relatividad einsteniana. En nuestra experiencia cotidiana, algo no puede aparecer al mismo tiempo en dos estados incompatibles entre sí. Las reglas de la cuántica sólo operan en lo extremadamente diminuto; e incluso a esa escala, no siempre funcionan. Pero sobre todo, aún no ha logrado tenderse el puente en el que los físicos cuánticos y los relativistas puedan darse la mano; no hay una teoría que ligue ambos ingredientes en una sola salsa.
Sin embargo, es evidente que las partículas subatómicas son la base de todo, así que podríamos decir, apunta Nori, que “todo en el universo es cuántico… porque todo está hecho de átomos”. Pero aclara: “Sin embargo, no describimos cómo se mueven los satélites o cómo fluye el agua utilizando mecánica cuántica, porque para esto no necesitamos la parte cuántica. Muchos átomos se pueden describir bien clásicamente”. De hecho, añade, “pocos fotones requieren un tratamiento de óptica cuántica; no se necesita”.
Y dado que lo ocurrido en los círculos cuánticos no deja rastro aparente en eso que los no-físicos llamarían el mundo real, ¿Cómo podría tener alguna importancia para la vida? Debería quedar perfectamente zanjado que las enormes moléculas en las que se basan los procesos biológicos no pueden enterarse ni de lejos de lo que sucede al minúsculo nivel de los electrones de sus átomos, por mucho que dependan de ello. ¿O sí?
¿Qué es la vida?
En 1944 Erwin Schrödinger, el del gato, publicó un ensayo de divulgación tituladoWhat is Life? (¿Qué es la vida?), basado en una serie de conferencias públicas que había pronunciado el año anterior en el Trinity College de Dublín. En su obra, Schrödinger ataba la relación entre química y biología, y por tanto entre física y biología, en una época en que aún no se conocía que la herencia genética residía en una sustancia ya conocida llamada ADN.
Aunque el austríaco no fue el primero en suponer que la información genética de los seres vivos debía de codificarse en enlaces químicos, sus ideas influyeron en la posterior investigación de la estructura del ADN por James Watson y Francis Crick. Pero Schrödinger hizo algo más: acuñó el término “teoría cuántica de la biología”, refiriéndose al hecho de que las mutaciones son saltos en la herencia, del mismo modo que la energía de las partículas salta de un valor discreto a otro (está cuantizada). “El mecanismo de la herencia está estrechamente relacionado con, o mejor dicho, está fundado sobre, la misma base de la teoría cuántica”, escribía el físico.
Con todo, Schrödinger se quedó corto: además de no extender su idea más allá de los genes, se centró únicamente en cómo la asimetría de las moléculas y sus múltiples formas podían servir para codificar toda la diversidad de la información genética. En cambio, negó expresamente que las transiciones en los átomos pudieran tener alguna influencia en la biología: “La indeterminación cuántica no juega ningún papel biológicamente relevante”, escribió.
A la biología cuántica aún le aguardaba una larga espera. Al menos, hasta 2007. Aquel año, un equipo de la Universidad de California en Berkeley dirigido por el físico Graham Fleming demostraba algo que otros científicos llevaban tiempo barruntando: la fotosíntesis, ese proceso cuasimágico por el que muchos organismos consiguen producir oxígeno a partir del dióxido de carbono, funciona gracias a la física cuántica.
Los investigadores aislaron los centros fotosintéticos de dos microbios, la bacteria verde del azufre Chlorobium tepidum y la bacteria púrpura Rhodobacter sphaeroides, y los bombardearon con pulsos láser para estudiar cómo la energía de los fotones se transfería desde los pigmentos que recogen la luz hasta el centro de reacción, donde se cuece esa química necesaria para la vida. Los mensajeros de esta transferencia son los electrones, que corren alimentados por esa poción mágica de la energía fotónica. Pero ¿cómo encuentran su camino entre el desorden molecular para evitar perderse y desperdiciar esa energía?
Fleming y su equipo descubrieron que lo hacen como ondas, no como partículas. De este modo, la onda se dispersa para encontrar el mejor camino sin tener que recorrerlos todos uno a uno. Y esta capacidad de estar en distintos lugares al mismo tiempo, o de tener dos estados incompatibles entre sí, es el privilegio de la física cuántica; por fin había nacido la biología cuántica.
Cataratas de sangre
Los análisis químicos y biológicos indican que hay un extraño ecosistema subglacial de bacterias autótrofas que metaboliza iones de azufre y hierro. Según la geomicrobióloga Jill Mikucki, en las muestras de agua existen como mínimo 17 tipos diferentes de microbios, que viven prácticamente sin oxígeno. Nunca antes se había observado en la naturaleza el proceso metabólico mediante el cual los microbios utilizan un sulfato como catalizador para respirar con iones férricos y metabolizar la materia orgánica microscópica atrapada con este compuesto químico.
Pero no tan aprisa. Fleming y su equipo llevaron a cabo sus experimentos en condiciones típicas de la física cuántica; por ejemplo, por debajo de los 100 grados bajo cero. Y está claro que las bacterias no suelen vivir a esas temperaturas. Para un físico, una célula es la peor de sus pesadillas: caliente, húmeda, ruidosa y desordenada. En tan miserables condiciones es imposible que ninguna tarea importante pueda confiarse a la extrema levedad de los fenómenos cuánticos. “Muchos científicos creen que estos fenómenos son tan frágiles que sólo aparecen en sistemas muy simples, compuestos por muy pocas partículas y donde el ruido molecular se congela a temperaturas cercanas al cero absoluto”, resume a EL ESPAÑOL el genetista molecular de la Universidad de Surrey (Reino Unido) Johnjoe McFadden.
O al menos eso parecía, hasta que en 2010 dosestudios demostraron que lo dicho para la fotosíntesis en el frío glacial era válido también a temperatura ambiente. Pero, de hecho, éste no es el único sistema biológico en el que la física cuántica puede marcar las reglas, ni siquiera el primero en el que sospechó algo semejante: durante décadas, los biofísicos intuyeron que las enzimas, esos mediadores que convencen a las moléculas para que reaccionen, funcionan según un conocido mecanismo cuántico llamado efecto túnel que permite a una partícula, en este caso un protón, pasar de un estado a otro sin saltar la barrera de energía que los separa, excavando un túnel. En 1989 se mostró por primera vez el efecto túnel en las enzimas.
Con todo esto, parece que la biología cuántica debería ser ya un miembro de pleno derecho del club de las disciplinas científicas. Y sin embargo, ni sus propios patrocinadores se atreven a ir tan lejos. Regresando al chiste del comienzo, Nori aplica a la biología cuántica esa misma doble condición del gato vivo y muerto: “Es a la vez un campo excitante para estudiarlo con precaución en el futuro, y también en el que muchas cuestiones importantes aún no están demostradas”.
“Muchos científicos aún no están convencidos de que estos efectos requieran la mecánica cuántica para explicarse”, apunta a EL ESPAÑOL el físico de la Universidad de Surrey Jim Al-Khalili, coautor junto con McFadden del libro Life on the Edge: The Coming of Age of Quantum Biology (Bantam Press, 2014). El obstáculo esencial es esa diferencia de pulcritud entre los experimentos cuánticos y el aparente caos de una célula viva, que suscita el escepticismo de no pocos expertos. Para el físico de la Universidad de Viena Markus Arndt, este es “un rasgo de la ciencia de la vida, no tan limpia como los laboratorios de física o los tubos de ensayo de la química”. “¿Pueden estas acciones sobrevivir en las escalas macroscópicas de tiempo y tamaño de los medios biológicos? Esta cuestión todavía está abierta”, comenta Arndt a este diario.
La brújula de las aves
La escala temporal que menciona Arndt es uno de los factores que levantan las cejas de los físicos. Un posible ejemplo de biología cuántica muy de actualidad es el sistema que guía a las aves migratorias, basado en el fenómeno de entrelazamiento cuántico. Según estudios en el petirrojo europeo, la luz dispara en la retina un par de electrones gemelos que responden al magnetismo terrestre, como la aguja de una brújula. Un estudio reciente ha prestado nuevo crédito a esta hipótesis. Pero un problema es que este entrelazamiento duraría unos pocos microsegundos. Para los físicos, esto es una eternidad jamás lograda ni de lejos en un laboratorio, y no digamos a una temperatura a la que el petirrojo no se convierta en un fósil congelado.
Sin embargo, el nuevo estudio no es experimental, sino una simulación por ordenador. “Todavía necesitamos pruebas experimentales de que la teoría es correcta”, dice Al-Khalili. El obstáculo principal al que se enfrenta la biología cuántica es la dificultad de llevar sus predicciones al laboratorio. “Los experimentos adecuados para evaluar estas cuestiones son complicados y difíciles de interpretar”, señala Nori. Otra pega es que los científicos aún se resisten a creer que estos mecanismos cuánticos en la biología tengan realmente un significado evolutivo; es decir, que existan porque los seres vivos han encontrado en la cuántica una ventaja aprovechable. “¿Por qué la naturaleza habría seleccionado estas superposiciones cuánticas? ¿Qué propósito tienen?”, se pregunta Nori.
Los expertos no ven demasiado claro que las tecnologías actuales vayan a ofrecer respuestas “en muchos años o unas pocas décadas”, estima Arndt. Y menos en casos todavía más aventurados y difíciles de testar: en 1996, el biofísico del University College de Londres Luca Turin lanzó una idea que trataba de dar respuesta a un enigma clásico de la biología del olfato: ¿Cómo puede nuestra nariz, con un repertorio grande pero limitado de receptores olfativos, detectar más de un billón de olores? La audaz hipótesis de Turin es que los receptores son capaces de distinguir las vibraciones de las moléculas de olor mediante un mecanismo de efecto túnel, lo que ampliaría la gama olfativa. Sin embargo, la propuesta no ha ganado el aplauso general. “La mayoría de la literatura no apoya el modelo de Turin”, dice Arndt.
En resumen, y pese a lo que afirman McFadden y Al-Khalili en el título de su libro, realmente no parece que la biología cuántica esté pasando a la madurez, sino sufriendo aún un larguísimo parto. Y eso que sus aplicaciones podrían ser provechosas, más allá de responder a la pregunta de Schrödinger. Por ejemplo, dominar el efecto cuántico de la fotosíntesis permitiría diseñar células solares más eficientes. Los dos autores subrayan que la manipulación a nanoescala abriría la puerta a logros como la creación de nanorrobots que depositen un fármaco en la célula que lo necesita.
Y cómo no, también está el futuro de los ordenadores cuánticos: lo que hace el electrón en la fotosíntesis no es otra cosa que computar la mejor solución a un problema sin tener que realizar las operaciones una por una. La naturaleza ya sabe cómo hacerlo. Curiosamente, Arndt sugiere que los ordenadores cuánticos, a su vez, generarían modelos detallados que darían una respuesta definitiva a las incógnitas sobre biología cuántica.
Por algo la ventaja de los ordenadores cuánticos es que son extremadamente potentes. Si no fuera porque aún no funcionan.
No necesitan comer ni dormir, no sufren enfermedades, la radiación del espacio no les afecta, son más fuertes que nosotros. El día que sus cerebros positrónicos lleguen a tener consciencia de SER… ¿Para que nos necesitarán?
Claro que, eso mismo nos pasa con no pocos proyectos que perseguimos desde hace años, hemos gasto en ello más de lo que imaginamos. Sin embargo, ahí estamos persiguiendo sueños que, de hacerse realidad, incluso podrían causa de nuestro propio final… ¿Por qué seres así?
¡Humanos! ¿Qué se podría esperar de nosotros?
Jun
3
Nuevos materiales, nuevos procesos, nuevos dispositivos
por Emilio Silvera ~ Clasificado en Física ~ Comments (0)
Tal vez creas que términos como nanopartículas o nanotecnología son cosa del futuro, pero no, forman parte de tu día a día y colaboran en muchas investigaciones y aplicaciones que seguramente no conozcas pero que puede que estés usando en este momento.
El uso de nanopartículas está a la orden del día en estudios médicos, cosméticos o veterinarios. Pero puede que te preguntes ¿Qué es eso de las nanopartículas y para qué sirven? Y es que si no conoces mucho sobre nanotecnología, puede parecer algo difícil de entender.
Por ello hoy vas a conocer esta tecnología de micropartículas, que no sólo es interesante, además es el futuro en muchas investigaciones que conducirán a grandes avances médicos, farmacéuticos y en muchas áreas más.
Los investigadores han aprovechado las posibilidades que brindan las nanopartículas y la nanotecnología para avanzar en sus investigaciones cuyos resultados pueden ser muy beneficiosos para la economía y la sociedad.
Nanotecnología para tratar trastornos cerebrales
En los últimos años se han desarrollado materiales que, debido a su estructura nanométrica, presentan nuevas propiedades, y por tanto tienen aplicaciones en campos tan diversos como son la transmisión de información mediante luz, el almacenamiento de datos, la generación y el transporte de energía eléctrica, la síntesis de catalizadores, la elaboración de textiles más resistentes, o la implantación de nuevos implantes óseos.
El gran número de nuevos materiales y dispositivos demostradores que se han desarrollado en estos años ha sido fruto, por un lado del desarrollo de sofisticadas técnicas de síntesis, caracterización y manipulación que se han puesto a punto y, por otro, del gran avance en los métodos de computación en la nano-escala (técnicas ab-initio, dinámica molecular, etc.) que se han probado en las grandes instalaciones dedicadas al cálculo científico de altas prestaciones. Es precisamente la combinación de experimentos punteros con métodos teóricos precisos un elemento esencial para comprender un gran número de procesos y mecanismos que operan en la nano-escala. En concreto, una de las aportaciones teóricas más importantes al desarrollo de la Nanotecnología ha llegado de la mano de la Teoría de Funcionales de la Densidad (DFT, en sus siglas en inglés) por la que en 1998 Walter Kohn recibió el Premio Nobel en Química, compartido con John A. Pople, “padre” de la Química Cuántica. Con respecto al desarrollo experimental, cabe resaltar el alto grado de desarrollo de las técnicas SPM para ver y manipular la materia a escala nanométrica en multitud de ambientes diferentes (ultra alto vacío, humedad controlada, celdas catalíticas, temperaturas variables,…). Esta capacidad nos ha permitido diseñar nuevos experimentos con los que comprender el comportamiento de nuevos materiales y dispositivos. Dado la gran variedad de materiales y sus aplicaciones, es imposible en un artículo presentar una visión completa de la situación de la Nanotecnología, por lo que nos vamos a limitar a presentar algunos ejemplos que ilustran el estado actual de este campo.
Hacia la electrónica molecular
Debido a su tamaño nanométrico, las estructuras moleculares pueden poner de manifiesto nuevas propiedades electrónicas. Sin embargo, la necesidad de poder producir estructuras nanométricas de forma masiva, tal y como requieren las aplicaciones industriales hace que la manipulación individual de nano-objetos como las moléculas pase a un segundo plano, requiriéndose alternativas más útiles para incorporar la Nanotecnología a los procesos de fabricación. Por esta razón, en los últimos años se están estudiando profusamente las condiciones de formación y las propiedades de capas autoensambladas de diferentes moléculas orgánicas sobre superficies. En estos casos la superficie no sólo proporciona un soporte, sino que posee un papel activo en la formación de diferentes patrones moleculares en dos dimensiones. Así, la posibilidad de generar sistemas autoensamblados de moléculas con propiedades bien definidas y dirigidas hacia la realización de funciones concretas abre un camino para cambiar desde el imperante paradigma del silicio en la electrónica hacia otro basado en la electrónica molecular. Este nuevo paradigma será mucho más rico por la gran diversidad de componentes moleculares que pueden entrar en juego. Entre los componentes prometedores para la Nanotecnología, que están relacionados con las moléculas orgánicas, y que habrá que tener en cuenta en el futuro de la microelectrónica, estarán los fullerenos, los nanotubos de carbono y el grafeno, de los que hablamos a continuación.
Los fullerenos o “bucky-balls”
Con este nombre se denomina al conjunto de distintas moléculas cerradas sobre sí mismas con formulación. El más conocido, por lo estable y abundante en naturaleza es el llamado Cn. El más conocido, por lo estable y abundante en la Naturaleza es el llamado C60, que está formado por 12 pentágonos y 20 exagonos, dispuestos como en un balón de futbol. Las aplicaciones Nanotecnológicas que se pueden derivar del uso de esta molécula están todavía en fase de estudio y son muy variadas. Sin embargo, aunque actualmente no existen aplicaciones concretas ya se han sintetizado más de mil nuevas moléculas basadas en fullereno y hay más de cien patentes internacionales registradas. El carácter rectificador de los fullerenos les hace atractivos para su uso en electrónica molecular.
La formación de este tipo de estructuras se produce más fácilmente de lo que podemos imaginar, pues son uno de los principales integrantes de la carbonilla y se generan abundantemente en cualquier combustión. Sin embargo, a día de hoy uno de los principales problemas para su utilización es el de conseguir una síntesis controlada de fullereno. Esto requiere complicadas técnicas, tales como la vaporización del grafito o la pirolisis láser, que normalmente producen exclusivamente los fullerenos más estables. Recientemente se ha propuesto un nuevo método para conseguirlo basado en principios “nano”. Se trata de partir de una molécula precursora sintetizada de forma tal que sea como un fullereno abierto, con los enlaces rotos saturados por hidrógeno. Esta molécula se puede plegar sobre sí misma mediante una transformación topológica de manera que de lugar a un fullereno. Se trata de partir de una estructura plana (un recortable) para posteriormente ensamblar un objeto en tres dimensiones. Este plegado se consigue mediante un proceso des-hidrogenación catalizada por una superficie. Una vez que la molécula plana ha perdido estos hidrógenos se cierran sobre sí misma de forma expontánea formando un fullereno.
Este proceso se ha podido seguir, entre otras técnicas, mediante imágenes de microscopía túnel in-situ. Los mecanismos existentes en el proceso se pueden entender gracias a los cálculos ab-initio que apoyan la investigación experimental. Esta combinación pone de manifiesto como una molécula plana de carbono sin hidrógeno se pliega espontáneamente. La belleza de este nuevo método de síntesis reside en que si se sintetizan moléculas precursoras planas con diferentes topologías se pueden conseguir moléculas cerradas de diferentes formas, tamaños e incluso que contengan átomos diferentes al Carbono. Así se ha sintetizado por primera vez la molécula C57 N3 sobre una superficie.
¡La Naturaleza! La NASA encontró fulerenos esféricos o buxkybolas en la nebulosa Tc1 a 6.000 años-luz. Posiblemente sean una de las moléculas más bellas que podamos encontrar, es una de las formas más estables del carbono, y sus 60 átomos se distribuyen formando 20 hexágonos y 12 pentágonos que ofrecen una forma idéntica al clásico balón de fútbol.
Nanotubos de Carbono
Si el descubrimiento del C60 fue un hito importante para la Nanotecnología, el de los llamados Nanotubos de Carbono lo ha superado con creces. Los Nanotubos de Carbono, unas diez mil veces más finos que un cabello, presentan excelentes propiedades físicas y su fabricación resulta relativamente económica. Un cable fabricado de Nanotubos de Carbono resultaría diez veces más ligero que uno de acero con el mismo diámetro pero sería ¡cien veces más resistente! A estas impresionantes propiedades mecánicas se le añaden unas interesantes propiedades eléctricas, puesto que pueden ser tanto conductores como aislantes, según la topología que presenten.
Un Nanotubo de Carbono se obtiene mediante el plegado sobre sí mismo de un plano atómico de grafito (enrollándolo). Según como se pliegue el plano grafítico se obtiene un Nanotubo que puede conducir la corriente eléctrica, ser semiconductor o ser aislante. En el primer caso, los Nanotubos de Carbono son muy buenos conductores a temperatura ambiente, pudiendo transportar elevadas densidades de corriente. En el segundo presentan propiedades rectificadoras. Por otra parte, si inducimos defectos en la estructura podemos generar moléculas semiconductoras y así formar diodos o transistores. Es decir, tenemos todos los elementos en nuestras manos para construir nano-circuitos basados en Carbono.
Grafeno
A un solo plano atómico de grafito se le llama grafeno, y éste, a diferencia del grafito, es difícil de obtener. Recientemente, mediante cálculos teóricos, se han realizado predicciones acerca de las importantes propiedades electrónicas que podría tener este material. Entre ellas una altísima movilidad electrónica y una baja resistividad, de manera que estos planos atómicos podrían ser los futuros sustitutos del silicio en los dispositivos electrónicos. Ahora bien, al día de hoy, estas propuestas provienen esencialmente de cálculos teóricos y, por tanto, antes de que el grafeno pase a sustituir al silicio en la electrónica del futuro, es necesario verificar las predicciones teóricas en el laboratorio. Actualmente, éste es un campo muy activo de investigación, y muchos grupos están trabajando en la obtención de capas de grafeno soportadas sobre diferentes materiales, como polímeros o aislantes, para poder determinar sus propiedades eléctricas y comprobar las predicciones teóricas.
El estudio de grafeno sobre metales de transición es un campo muy activo de investigación ya que las capas de grafeno crecen de manera fácil, muy controladas y con un bajo número de defectos sobre estas superficies. Además el grafeno sobre un substrato forma patrones conocidos como redes de Moiré, en las que la periodicidad atómica de las dos redes cristalinas (substrato y grafeno), coincide cada dos-tres nm, dando lugar a deformaciones de la capa de grafeno, que se reflejan como prominencias en la imagen STM.
Nanohilos
No sólo las moléculas, los Nanotubos o el grafeno son las apuestas para sustituir al silicio. Otros elementos como los Nano-hilos fabricados a partir de materiales semiconductores o los Nano-hilos metálicos tendrán también cierto protagonismo. En concreto, los Nano-hilos semiconductores presentan un gran potencial como transistores pero también presentan aplicaciones en campos como octo-electrónica o en la fabricación de censores biológicos. Por otro lado los Nano-hilos metálicos, cuya síntesis controlada es más difícil, poseen gran interés como inter-conectores. En el caso de los Nano-hilos formados de materiales Ni, Co o Fe se puede aprovechar también su potencial comportamiento magnetorresistivo para ser usados en dispositivos de almacenamiento magnético. Los Nano-hilos metálicos son interesantes a su vez porque los efectos de tamaño inducen en ellos la aparición de transiciones de fase martensíticas y la aparición de configuraciones no cristalinas.
En el siguiente hablaremos de las Nanopartículas y la fuente de estos conocimientos aparece publicada en…
Editadas por la RSEF.
Publica: emilio silvera
Jun
3
Nuevos Materiales, nuevos procesos, nuevos dispositivos. II
por Emilio Silvera ~ Clasificado en Física ~ Comments (0)
https://www.youtube.com/watch?
https://www.facebook.com/
Una investigación ha desarrollado una nueva estructura cuántica capaz de emitir fotones individuales de color rojo. El avance, que se publica en la revista Nature Materiales, se basa en el confinamiento cuántico que se genera en cada uno de los puntos y que les permite modular la energía de la luz que emiten.
En este trabajo han participado investigadores de la Universidad de Zaragoza, el Institut de Recerca en Energia de Catalunya (IREC), la Universidad de Barcelona y del Instituto de Ciencia de Materiales de Barcelona del CSIC. El investigador Jordi Arbiol de este último explica:
“El resultado final son hilos unidimensionales, de tamaño nanométrico, compatibles con la tecnología electrónica actual, que permitirían crear dispositivos a mayor escala con un control total de la emisión de luz, fotón a fotón”.
Pero centrémonos en el trabajo que aquí se presenta hoy y que comienza hablando de los…
Minerales estratégicos Nanohilos de diamantes
No sólo las moléculas, los Nanotubos o el grafeno son las apuestas para sustituir al silicio. Otros elementos como los Nanohilos fabricados a partir de materiales semiconductores o los Nanohilos metálicos tendrán también cierto protagonismo. En concreto, los Nanohilos semiconductores presentan un gran potencial como transistores pero también presentan aplicaciones en campos como octoelectrónica o en la fabricación de censores biológicos. Por otro lado los Nanohilos metálicos, cuya síntesis controlada es más difícil, poseen gran interés como interconectores. En el caso de los Nanohilos formados de materiales Ni, Co o Fe se puede aprovechar también su potencial comportamiento magnetorresisitivo para ser usados en dispositivos de almacenamiento magnético. Los Nanohilos metálicos son interesantes a su vez porque los efectos de tamaño inducen en ellos la aparición de transiciones de fase martensíticas y la aparición de configuraciones no cristalinas.” Veamos que pasa con las Nanopartículas.
Nanopartículas
Quizás, junto a los nanotubos de carbono, las nanopartículas representan los materiales que tienen una repercusión tecnológica más inmediata. Además de sus propiedades intrínsecas, las nanopartículas representan los materiales que tienen una repercusión tecnológica más inmediata. Además de sus propiedades intrínsecas, las nanopartículas, debido a su pequeño tamaño, pueden convertirse en diminutos dispositivos capaces de realizar otras funciones, como transportar un medicamento específico por el torrente sanguíneo sin obstruirlo. Para lograr esto, las nanopartículas deben ser el soporte de capas de moléculas autoensambladas que confieren una funcionalidad adicional a las mismas.
Como su propio nombre indica, el término “nanopartícula” designa una agrupación de átomos o moléculas que dan lugar a una partícula con dimensiones nanométricas. Es decir, que su tamaño está comprendido entre 1 y 100 nm. Dependiendo de cuáles sean los átomos o moléculas que se agrupan se originarán diferentes tipos de nanopartículas. Así, por ejemplo, tendremos nanopartículas de oro, de plata o nanopartículas magnéticas si están formadas por átomos de Fe o Co. Su pequeño tamaño hace que la relación superficie/volumen crezca y por tanto que estas estructuras tengan unas propiedades características y esencialmente distintas a las que presenta el material en volumen.
Una estrategia para la formación de nanopartículas es recubrirlas con distintas capas de manera tal que cada una aporte funcionalidades diferentes al sistema. Así, por ejemplo, recientemente se han descrito nanopartículas cuyo interior está formado por un material magnético, como el Co, seguido de una capa intermedia de SiO2 que aporta estabilidad al sistema y finalmente una superficie de oro.
El tamaño final de la nanopartícula es de 3 nm, y esta estructura laminar hace que tengan un núcleo magnético que posibilite su guiado, y una superficie de oro que facilite el autoensamblado de moléculas orgánicas o biológicas para diferentes aplicaciones. Entre éstas destaca su uso como biosensores. Para ello se inmoviliza material biológico, como ácido desoxirribonucleico (ADN) o el llamado ácido nucléico péptidico (PNA, del inglés peptide nucleic acid), que siendo un ácido nucléico artificial, presenta un “esqueleto” molecular formado por enlaces peptidicos y una estructura de bases nucleicas exactamente igual a la del ADN. El PNA puede reconocer cadenas complementarias de ADN, incluso con mayor eficiencia para la hibridación que la que representa el ADN para reconocer su hebra complementaria. Por este motivo, el PNA se ha propuesto como sonda para la fabricación de biosensores altamente eficientes. Estas macromoléculas unidas a superficies o nanopartículas son capaces de detectar diferentes analítos de interés, particularmente otars moléculas biológicas.
Sin embargo, el concepto de nanopartícula debe concebirse en un sentido más amplio ya que no sólo puede estar basada en un núcleo inorgánico, pudiéndose sintetizar nanopartículas poliméricas. Yendo un poco más allá una cápsida vírica puede entenderse como una nanopartícula formada por una carcasa proteica. Esta cápsida vírica tiene dimensiones nanométricas y, en muchos casos, burla con facilidad las membranas celulares. Por esta razón este tipo de “nanopartículas” se proponen para su uso en nanomedicina, y son el objeto de estudios básicos en los que las herramientas como los microscopios de fuerzas atómicas juegan un papel esencial. En particular, estas herramientas nos permiten caracterizar las propiedades mecánicas y las condiciones de ruptura de cápsidas víricas así como la forma en la que dichas cápsidas se comportan ante, por ejemplo, cambios controlados de humedad.
En un discurso recientemente impartido en la Universidad Europea de Madrid, William F. Clinton, ex-Presidente de los EE.UU, afirmó que ” el cometido del siglo XXI será salvar al mundo del cambio climático, regenerar la economía y crear empleo. El futuro más allá será la Nanotecnología y la biotecnología”. El propio W.F. Clinton fue el impulsor de la Iniciativa Nacional de Nanotecnología durante su mandato, convirtiendo durante los últimos 10 años a EE.UU en el líder mundial en la generación de conocimientos básicos y aplicados en el ámbito de la Nanotecnología.
Nadie puso en duda las afirmaciones de W.F. Clinton sobre el papel de la Nanotecnología en nuestro futuro a medio y largo plazo, por lo que es imperativo estar suficientemente preparados para construir este nuevo paradigma científico. En el caso concreto de España, las dos últimas ediciones del Plan Nacional de I+D+I han encumbrado las investigaciones en Nanociencia y Nanotecnología a la categoría de Acción Estratégica. En la actualidad se están poniendo en marcha varios centros dedicados a Nanotecnología. Dichas iniciativas son producto, por lo general, de costosos impulsos puntuales, locales, dirigidos por científicos con iniciativa, pero no son fruto de una actuación de conjunto, planificada siguiendo una estrategia quiada por unos objetivos ambiciosos, en los que impere la coordinación y el uso eficiente de los recursos. La actual coyuntura económica no invita al optimismo a este respecto, por lo que sería necesario poner en marcha iniciativas que promuevan la adquisición de infraestructuras, la formación de técnicos, la coordinación entre centros emergentes, etc.
Otro punto sobre el que no hay que descuidarse tiene que ver con la formación, en todos los niveles educativos, en Nanotecnología. En este sentido son numerosas las universidades españolas que ofrecen cursos de master y/o doctorado con contenidos relacionados con la Nanotecnología. Sin embargo, muchos de estos cursos tienen pocos estudiantes inscritos, al igual que ocurre con muchos estudios de grado relacionados con las ciencias básicas. La tarea de fascinar y atraer a nuestros jóvenes hacia la ciencia debe comenzar mucho antes. En este sentido, los conceptos inherentes a la Nanotecnología deben formar parte del conocimiento que debe llegar a los estudiantes de educación secundaria, como ocurre en países como Alemania, Finlandia, Taiwán, Japón, EE.UU., etc. Además, la Nanotecnología es una materia que causa cierta fascinación a los adolescentes por lo que puede ser un buen punto de partida para incentivar las vocaciones científicas. Esta ha sido una de las principales razones por las que los autores de este artículo junto con otros investigadores (Carlos Briones del Centro de Astrobiología y Elena Casero de la Universidad Autónoma de Madrid) accedieron a la petición de la Fundación Española de Ciencia y Tecnología (FECyT) para escribir una Unidad Didáctica de Ciencia y Tecnología. Dicho libro ya se encuentra en todos los institutos españoles de educación secundaria y bachillerato, y se puede descargar desde la web de la FECyT. Esperemos que esta pequeña contribución, junto con otras de mayor calado que deben promoverse desde las diversas administraciones públicas, permita tomar la senda que nos lleve a medio plazo hacia la tan ansiada sociedad basada en el conocimiento.
Fuente: Revista Española de Física
Los Autores:
D. José Ángel Martín Gago, del Instituto de Ciencia de Materiales de Madrid, Concejo Superior de Investigaciones científicas, Centro de Astrobiología /CSIC/INTA), Instituto Nacional de Técnica Aerpespacial, y, D. Pedro A. Serena Domingo, del Instituo de Ciencia y Materiales de Madrid y del Consejo Superior de Investigaciones Científicas.
Jun
1
Sobre la formación de la Tierra y su evolución hasta la vida
por Emilio Silvera ~ Clasificado en General ~ Comments (0)
Capítulo 2
La Tierra en el Universo
La Tierra es un pequeño cuerpo celeste, opaco, perteneciente a un grupo de planetas que giran alrededor de la estrella denominada Sol.
Galaxia irregular en la constelación de la Osa Mayor. Situada a 12 millones de años luz de distancia, en la constelación de la Osa Mayor, la galaxia del Cigarro (Messier 82) es una galaxia irregular que ha experimentado unos espectaculares brotes de formación estelar en su región central
El conjunto de éste y los planetas ligados a él por la gravedad constituye un sistema solar, que no es más que un pequeñísimo fragmento de una Galaxia, denominada Vía Láctea, constituida por gran número de estrellas. El Universo, a su vez, está formado muy probablemente por millones de galaxias semejantes a la Vía Láctea.
Nuestro sistema solar está formado por un astro principal y centro del sistema, el Sol, y nueve planetas, algunos de los cuales presentan astros secundarios denominados satélites. Además de estos constituyentes principales, el sistema solar comprende gran número de asteroides o planetoides, meteoritos y cometas.
Los planetas de nuestro sistema solar se pueden dividir en dos grupos: los planetas menores, sólidos, de pequeño tamaño, de densidad elevada, relativamente cercanos al Sol y constituidos esencialmente por hierro (Fe), oxígeno (0), silicio (Si) y magnesio (Mg), y los planetas mayores, de superior tamaño que los anteriores, de densidad menor y constituidos por elementos ligeros, hidrógeno (H) y helio (He) principalmente, o sus combinaciones más estables, como amoníaco, agua, metano, etc.
Abundancia de elementos en el Universo
(número de átomos por cada 10.000 de Si)
Z | Elemento | Abundancia | Z | Elemento | Abundancia | |
1 | H | 4,0x10 8 | 21 | Sc | 0,28 | |
2 | He | 3,1 x 10 7 | 22 | Ti | 24 | |
3 | Li | 1,0 | 23 | V | 2,2 | |
4 | Be | 0,20 | 24 | Cr | 78 | |
5 | B | 0,24 | 25 | Mn | 69 | |
6 | C | 35.000 | 26 | Fe | 6.000 | |
7 | N | 66.000 | 27 | Co | 18 | |
8 | 0 | 215.000 | 28 | Ni | 270 | |
9 | F | 16 | 29 | Cu | 2,1 | |
10 | Ne | 86.000 | 30 | Zn | 4,9 | |
11 | Na | 440 | 31 | Ga | 0,11 | |
12 | Mg | 9.100 | 32 | Ge | 0,51 | |
13 | Al | 950 | 33 | As | 0,04 | |
14 | Si | 10.000 | 34 | Se | 0,68 | |
15 | P | 100 | 35 | Br | 0,13 | |
16 | S | 3.750 | 36 | Kr | 0,51 | |
17 | Cl | 90 | 37 | Rb | 0,07 | |
18 | Ar | 1500 | 38 | Sr | 0,19 | |
19 | K | 32 | 39 | Y | 0,09 | |
20 | Ca | 490 | 40 | Zr | 0,55 |
El grupo de planetas menores, denominados también planetas terrestres, lo constituyen Mercurio, Venus, Tierra y Marte, citados en orden de distancia creciente al Sol, mientras que el grupo de planetas mayores lo componen Júpiter, Saturno, Urano, Neptuno, citados también en orden de distancia creciente al Sol.
Fotografía del Sol, la estrella más próxima a la Tierra.
A los ocho planetas mencionados hay que añadir Plutón, que es el planeta más lejano, pero cuyas características de masa son bastante semejantes a la de los planetas menores.
“En la inmensidad del espacio, la Tierra parece aislada y solitaria; pero si realmente fuera así, nuestro globo sería un mundo frío y sin vida flotando en una eterna oscuridad, sin una historia registrada y sin pistas sobre su origen.”CARL O. DUMBAR |
Todos los planetas del sistema solar giran alrededor del Sol describiendo en un mismo sentido órbitas elípticas de poca excentricidad, es decir, muy próximas a una circunferencia. Las características del sistema solar se exponen en el cuadro adjunto.
Las distancias de los planetas al Sol siguen una proporción en la que la separación entre aquéllos aumenta con su distancia al Sol, según una progresión geométrica. Esta ley fue enunciada por Bode en 1772, prediciendo en base a ella la existencia de un décimo planeta en el sistema solar, situado, según sus cálculos, entre las órbitas de Marte y Júpiter. Posteriormente se ha comprobado que dicho planeta no existe, pero la región que teóricamente tendría que ocupar se encuentra poblada por gran número de planetoides o asteroides y es la zona de origen de los meteoritos.
Cráter lunar fotografiado por el Apolo XVII.
El Sol representa el 99 % de la masa del sistema solar, mientras que Júpiter comprende el 71 % de la masa de los planetas y junto con Saturno constituyen el 93 % de dicha masa.
Esquema comparativo de las masas y de las distancias de los planetas al Sol.
Este gigantismo de Júpiter y Saturno determina el que la primera imagen de nuestro sistema solar, visto desde el exterior a él, presente el aspecto de una estrella brillante alrededor de la cual giran un planeta muy grande, Júpiter, y otro mucho menor, Saturno. Para descubrir los restantes planetas se necesitarían telescopios de gran poder de resolución. El gran tamaño de Júpiter determina igualmente que el centro de gravedad del sistema solar esté ligeramente fuera del Sol.
Fotografía de Saturno con sus anillos ecuatoriales
La Tierra, dentro del conjunto del sistema solar, comprende una pequeñísima cantidad de masa, aproximadamente 1/330.000 parte de la del Sol, del que dista unos 150 millones de km (valor que toman los astrónomos para distancias en el Universo y que denominan unidad astronómica o u.a.)
La Tierra recibe del Sol una pequeña cantidad de la radiación, aproximadamente 5,2x10 -24kilocalorías/milímetro, lo que representa media millonésima de millón de la radiación solar. De esta radiación recibida la Tierra refleja (albedo) 0,4 ó, lo que es lo mismo, un 40 %.
La Tierra presenta un único satélite natural, la Luna, situada a una distancia media de 384.000 km, con una masa que es la centésima parte de la terrestre, un radio 3,6 veces menor que el del globo terráqueo y una densidad de 3,3. Gira alrededor de la Tierra describiendo una órbita ligeramente elíptica, y completa una vuelta en 27 días y 8 horas.
Fotografía de Júpiter.
La composición química de los cuerpos que componen la galaxia a la que pertenece la Tierra y de la materia interestelar de la misma es bastante uniforme y se caracteriza por un gran predominio del hidrógeno (para numerosos autores este elemento constituye el 87 % del Universo), al que sigue en abundancia el helio, presentándose los restantes elementos prácticamente como simples impurezas. En la tabla puede observarse la concentración aproximada de los elementos en el Universo.
Origen del sistema solar
Sobre el origen del sistema solar y de la Tierra como constituyente del mismo hay dos grandes grupos de hipótesis:
a) un primer grupo de hipótesis sostiene que el sistema solar se originó a partir de una nebulosa (nube de gases y de partículas de polvo) giratoria de composición cósmica, es decir, formada en su mayor parte por hidrógeno y helio;
Hay otras conjeturas circulando por ahí pero, la más creíble es la de la Nebulosa
b) un segundo grupo de hipótesis sostienen que el sistema solar se originó por aproximación de dos estrellas, y que la atracción gravitatoria entre ambas fue tan intensa que de la más ligera se desprendieron fragmentos a partir de los cuales se formaron los planetas cuando las dos estrellas se alejaron.
Esquema que intenta reflejar la hipótesis del origen del sistema solar a partir de una nebulosa.
En la actualidad, los hechos conocidos y una serie de deducciones lógicas han determinado que numerosos científicos se inclinen por una hipótesis del primer grupo.
Nebulosa de Cygnus
Los modernos radiotelescopios han revelado que existen en nuestra galaxia enormes nebulosas, como la que debió originar el sistema solar, constituidas probablemente por acumulación de partículas emitidas por las estrellas. La nebulosa que probablemente dio origen a nuestro sistema solar era al principio fría y de enormes dimensiones, extendiéndose con toda seguridad más allá de la órbita que en la actualidad describe Plutón.
Telescopio de Monte Palomar, en California, uno de los mayores del mundo.
En un determinado momento de su desarrollo toda la nebulosa comenzó a contraerse, aumentó rápidamente su temperatura y a través de un proceso sobre el que existen diferentes modelos, se individualizaron fragmentos de la misma, denominados protoplanetas, a partir de los cuales se originaron los planetas. La parte central y cuantitativamente más importante de la nebulosa dio origen al Sol.
Espectrograma de la superficie solar para evidenciar la distribución del hidrógeno.
Evolución pregeológica de la Tierra
La evolución pre-geológica de la Tierra comprende una sucesión de procesos, desde la individualización del protoplaneta terrestre, a partir de la nebulosa matriz del sistema solar, hasta la consolidación de la superficie de nuestro planeta en una estructura semejante a la actual, es decir, formada por rocas y agua, con una temperatura media determinada fundamentalmente por la radiación solar. Teniendo en cuenta que la edad aproximada de la Tierra como cuerpo celeste es de unos 4.500 millones de años y que las edades de las rocas más antiguas de la corteza terrestre oscilan alrededor de unos 3.500 millones de años, la duración del período pre-geológico de la evolución de la Tierra se estima en unos 1.000 millones de años.
En sus orígenes, el protoplaneta terrestre debió de ser mucho mayor que la Tierra actual, por tratarse todavía de un simple fragmento de una nebulosa difusa constituida esencialmente por gases entre los que predominaban el hidrógeno y el helio. Los demás constituyentes debían de encontrarse en concentraciones semejantes a la concentración de los elementos en el Universo. Por contracción y acreción de materia interestelar el protoplaneta fue aumentando de masa y creó a su alrededor un potente campo gravitatorio. Simultáneamente, a causa de la contracción, la temperatura aumentaba hasta alcanzar valores de 2.000 ó 3.000°C.
Durante el período pre-geológico de la evolución de la Tierra se debieron producir las principales reacciones entre los átomos para originar los primeros compuestos químicos. H. C. Urey ha estudiado los procesos mediante los cuales se formaron tales compuestos, teniendo en cuenta la hipotética composición del protoplaneta terrestre y los principios de la termodinámica. Sus conclusiones pueden resumirse así:
a) el hidrógeno, elemento más abundante en el Universo, se combinó con el nitrógeno y con el carbono dando lugar respectivamente a amoníaco (NH 3 ) y metano (CH 4 );
b) la primitiva atmósfera del protoplaneta estaría formada por hidrógeno, helio, amoníaco y metano, al igual que las atmósferas actuales de algunos de los planetas mayores;
c) el oxígeno se combinó activamente con silicio, aluminio, magnesio, hierro, calcio y potasio, dando lugar a los silicatos a partir de los cuales se formaron las partes sólidas más externas del planeta.
Modelos de una molécula de butano, arriba, etino, centro, y metano, abajo.
d) el hierro, elemento bastante abundante en el cosmos, dio lugar, según la temperatura, a óxidos y sulfuros, por debajo de 25 °C, mientras que por encima de 327 °C se concentraría en forma de hierro metálico.
Como consecuencia de los procesos descritos el protoplaneta terrestre debió de estar formado por una atmósfera muy distinta de la actual, en la que predominaban hidrógeno, helio, amoníaco y metano, y una parte sólida constituida por hierro y silicatos.
En las fases posteriores de la evolución pregeológica de la Tierra se produjo la pérdida de la mayor parte de la atmósfera primitiva, la formación de la atmósfera e hidrosfera actuales y la diferenciación geoquímica primaria de los constituyentes sólidos.
Modelos de una molécula de anhídrido carbónico (CO 2 ). Abajo, modelo de una molécula de agua (H 2O).
Origen de la atmósfera y la hidrosfera
Los conocimientos obtenidos hasta la actualidad sobre la atmósfera han permitido establecer ciertas conclusiones acerca de su constitución y origen:
a) por composición y estructura la atmósfera terrestre actual, constituida esencialmente por nitrógeno y oxígeno, es muy diferente de las atmósferas de los restantes planetas;
b) los elementos más abundantes en el cosmos, hidrógeno y helio, se encuentran en muy escaso porcentaje en la atmósfera terrestre actual, prácticamente su presencia en ella resulta tan pequeña que sólo pueden ser considerados elementos-traza.
La mayor parte de los geofísicos admiten que la actual atmósfera de la Tierra es muy diferente de la atmósfera del protoplaneta terrestre, la mayor parte de la cual posiblemente se perdió en el período pre-geológico del planeta, formándose la atmósfera actual a partir de gases provenientes de la parte sólida de la Tierra.
La atmósfera primitiva estaba formada, según Urey, por hidrógeno, helio, amoníaco (NH 3 ) y metano (CHO), además de pequeñas cantidades de oxígeno y carbono. A causa de la elevación de la temperatura provocada por la contracción del protoplaneta terrestre la primitiva atmósfera se perdió en el espacio por escape de la mayor parte de sus constituyentes, especialmente del hidrógeno y del helio. Los gases que no escaparon quedaron englobados en forma de compuestos sólidos. Así, el oxígeno fue retenido en forma de agua y de silicatos, el nitrógeno en forma de amoníaco y de nitruros metálicos y el carbono en forma de metano residual.
Erupción volcánica en Hawaii.
Al formarse la nueva atmósfera a base de los gases englobados en los compuestos sólidos se produjeron importantes cambios en su composición.
Cráter volcánico
El agua proveniente del interior del planeta era continuamente disociada por las radiaciones solares originando hidrógeno, el cual escapaba, y oxígeno, que era retenido a causa de su inferior velocidad de escape.
Erupción volcánica
El residuo de amoníaco que se hallaba presente en la composición de la primitiva atmósfera era atacado por el oxígeno, proceso que daba lugar a la formación de nitrógeno libre y de agua, mientras que los nitruros metálicos se descomponían originando igualmente nitrógeno libre.
El residuo de metano, por su parte, reaccionaba con el oxígeno dando lugar a anhídrido carbónico y agua.
Estos procesos determinaron la composición de la atmósfera actual, constituida en más de un 99 % por nitrógeno y oxígeno. También están contenidos en ella anhídrido carbónico y vapor de agua, pero, por supuesto, en cantidades infinitamente menores.
La hidrosfera se originó a partir del agua desprendida por las rocas del interior de la Tierra, y que alcanzaba la superficie a través de fenómenos volcánicos. Se admite actualmente que la hidrosfera ha aumentado progresivamente a través de los tiempos pre-geológicos y geológicos, pero más que por un incremento de la superficie de los océanos por un aumento de la profundidad de la cuenca de los mismos.
Colada de lava
Respecto al contenido salino de las aguas oceánicas, los geoquímicos sostienen que la mayor parte proviene del interior de la Tierra, llegando a la superficie a través de las erupciones volcánicas.
Diferenciación geoquímica primaria
Al principio del período preg-eológico de la Tierra se produjo una diferenciación general de la materia terrestre acumulándose los elementos o sus compuestos más estables según sus afinidades químicas y según las condiciones de presión y temperatura existentes. En ese proceso diferenciador desempeñó un papel importante la acción de la fuerza gravitatoria. Como consecuencia de la diferenciación geoquímica, el planeta adquirió una estructura en capas concéntricas, con los materiales más densos acumulados en las zonas más profundas y los más ligeros progresivamente en capas más externas. La fase final de dicha diferenciación estuvo constituida, sin duda, por la formación de la atmósfera y de la hidrosfera.
La mayor parte de los autores que investigan el origen y formación de la Tierra sostienen que durante las primeras fases la temperatura era lo suficientemente alta como para que los constituyentes del protoplaneta estuviesen fundidos o muy cerca del estado de fusión. A causa de la pérdida de los gases predominantes, hidrógeno y helio, los elementos más abundantes en el protoplaneta en cuestión eran el hierro (Fe), el oxígeno (0), el silicio (Si) y el magnesio (Mg), con cantidades mucho menores de níquel (Ni), azufre (S), calcio (Ca) y sodio (Na). Como la cantidad de oxígeno no era lo suficientemente alta para oxidar los restantes elementos metálicos, la mayor parte del hierro y del níquel que no habían sido oxidados precipitaron hacia el centro de la masa planetaria y constituyeron el origen del núcleo metálico.
Una parte del hierro y casi todo el magnesio se combinaron activamente con el oxígeno y el silicio para formar los silicatos que se acumularon por encima del núcleo, dando lugar al manto silicatado. Por último, la corteza terrestre se originó por segregación de los elementos más ligeros del manto.
Mapa geológico de la Tierra: 1. Plataformas continentales. 2. Escudos arcaicos. 3. Llanuras y mesetas sedimentarias en escudos arcaicos. 4. Plegamientos alpinos. 5. Llanuras y mesetas sedimentarias en plegamientos alpinos. 6. Llanuras y mesetas sedimentarias en macizos primarios. 7. Macizos primarios. 8. Regiones de origen volcánico. 9. Fosas marinas. 10. Dirección de los pliegues. 11. Volcanes.
Composición química de la Tierra
Teniendo en cuenta la composición química de las zonas accesibles de la Tierra (corteza terrestre, hidrosfera y atmósfera) y la hipotética composición de las zonas profundas, en parte confirmada por procedimientos geofísicos, se puede afirmar que nuestro planeta no constituye una muestra representativa del Universo. En efecto, del estudio de la composición química terrestre se pueden extraer dos conclusiones importantes:
1) Los elementos gaseosos ligeros que componen la mayor parte de la materia cósmica son muy escasos en nuestro planeta;
2) ciertos elementos pesados, cuantitativa en peso es muy escasa. Otros cuantitativamente poco abundantes en el elementos abundantes en el cosmos, como cosmos, se presentan en nuestro planeta en el nitrógeno y el carbono, se encuentran en concentraciones elevadas. De entre los gases ligeros que abundaron en el protoplaneta terrestre únicamente se conservó el oxígeno debido a su gran capacidad para formar compuestos sólidos estables.
Galería en la cueva de Ojo Guareña (Burgos, España).
El hidrógeno sólo se encuentra en concentraciones apreciables en la hidrosfera, pero a nivel global de la Tierra su importancia cuantitativa en peso es muy escasa.
Formas de erosión fluvial en la misma cueva
Otros elementos abundantes en el cosmos, como el nitrógeno y el carbono, se encuentran en concentraciones escasas en la Tierra y totalmente concentrados en la atmósfera y biosfera. El silicio se presenta en concentraciones similares a la cósmica debido a su alta capacidad para formar silicatos con el oxígeno y ciertos metales. Esquemáticamente, puede afirmarse que durante su formación la Tierra se enriqueció en elementos pesados, especialmente hierro, y se empobreció en elementos gaseosos ligeros.
La electricidad atmosférica se manifiesta con gran aparato eléctrico en una tormenta sobre Nueva York.
La composición global del planeta es difícil de calcular, por carecerse de conocimientos directos acerca de los materiales que la constituyen a profundidades superiores a pocos miles de metros. Teniendo en cuenta las hipótesis aceptadas sobre la estructura interna de la Tierra y la composición y frecuencia de los distintos tipos de meteoritos conocidos se pueden extraer las siguientes conclusiones sobre la composición global de nuestro planeta:
- la zona más interna de la Tierra, denominada núcleo, está formada por una aleación de hierro y níquel, con cantidades menores de silicio, carbono y azufre;
- la zona intermedia o manto está formada esencialmente por silicatos, siendo su composición muy semejante a la de las pendotitas.
- la composición media de la corteza terrestre, con escasa influencia en la composición global del planeta, ya que sólo representa el 1 % de la masa total, es prácticamente igual a la composición de las rocas eruptivas con predominio de oxígeno, silicio y aluminio.
Los meteoritos
Hasta la culminación de la misión del Apolo XI con el traslado a la Tierra de materiales lunares, los meteoritos eran las únicas muestras de materia extraterrestre de que se disponía en los laboratorios para efectuar análisis.
Los meteoritos son cuerpos sólidos del sistema solar que se mueven según órbitas muy elípticas alrededor del Sol y que con frecuencia caen sobre la Tierra. El estudio de estos fenómenos astronómicos ha sido y es de gran interés, pues permite la obtención de datos muy valiosos sobre el origen del sistema solar, sobre la formación de los planetas y sobre la probable estructura interna de la Tierra.
Anualmente caen sobre la superficie terrestre numerosos meteoritos, la mayoría de los cuales se pulverizan al atravesar la atmósfera llegando a la superficie terrestre en forma de polvo meteórico.
Cráter Meteor en Arizona (EE.UU.)
Todas las pruebas de datación radiactivas efectuadas por los diversos laboratorios y centros de investigación con meteoritos indican que se originaron hace aproximadamente unos 4.500 millones de años, es decir, mucho antes que las rocas más antiguas de la corteza terrestre, cuyas edades nunca superan los 3.500 millones de años.
Diversos tipos de meteoritos
Mineralógicamente, los meteoritos están formados por dos fracciones principales: aleaciones de hierro, níquel (camacita y tenita) y silicatos (especialmente olivino y piroxenos, es decir, los minerales característicos de las rocas básicas y ultrabásicas). Según el predominio de una u otra de ambas fracciones los meteoritos se dividen en tres grandes grupos:
- Sideritos , constituidos esencialmente por una aleación de hierro (90 %) y níquel (8,5 %) y caracterizados por una elevada densidad (7,5);
- Siderolitos , formados por aleación de ferroníquel y silicatos en proporciones aproximadamente equivalentes, con densidad alrededor de 5;
- Aerolitos , constituidos predominantemente por silicatos, con una densidad aproximada de 3,5, es decir, igual que las rocas básicas de la corteza terrestre.
El estudio de la composición media y de la frecuencia de los diversos tipos de meteoritos antes descritos ha hecho suponer a los geoquímicos que el cuerpo o los cuerpos del sistema solar a partir de los que se originaron aquéllos presentaba una estructura zonada, con un núcleo denso y metálico a partir del cual se habrían formado los sideritos, una capa intermedia constituida por materiales ultrabásicos que dieron lugar a los siderolitos y una capa superficial poco densa a partir de la que se originaron los aerolitos. Dado que los cuerpos a partir de los cuales se formaron los meteoritos debían ser esencialmente similares a la Tierra, se supuso una estructura semejante para nuestro planeta, estructura que en parte ha sido confirmada por procedimientos geofísicos.
Recientemente el estudio de la composición química de ciertos meteoritos, denominados condritos carbonosos, ha proporcionado datos muy importantes. En efecto, dichos meteoritos contienen una fracción orgánica constituida por hidrocarburos aromáticos y alifáticos y por aminoácidos y pirimidinas, es decir, los constituyentes esenciales de los organismos terrestres. Estos descubrimientos permiten afirmar que en el sistema solar al que pertenece la Tierra, y probablemente en otros sistemas análogos, se han producido y se producen fenómenos de síntesis químicas en los que se originan estructuras químicas intermedias e imprescindibles en la génesis de los seres vivos.
Edad de la Tierra
Muchos personajes han dado su opinión acerca de la edad de la Tierra: el Conde de Buffon, Lord Kelvin, Jhon Joly, Jhon Phillips y George Darwin en base a los datos que se han ido recopilando a través del tiempo y a medida que los adelantos permitían mejor aproximación a la realidad.
La Tierra primitiva se define vagamente como la Tierra en sus primeros mil millones de años, o giga año (Ga, 109 años). La “Tierra primitiva” abarca aproximadamente el primer giga año en la evolución de nuestro planeta, desde su forGa hasta algún momento del eón Arcaico, alrededor de 3,5 Ga.Por edad de la Tierra se entiende el tiempo transcurrido desde que nuestro planeta posee una masa y un volumen semejantes a los actuales. El cálculo de la probable edad de la Tierra se ha intentado realizar en numerosas ocasiones y mediante diversos métodos. Los geólogos han intentado repetidamente evaluarla basándose en el estudio del ritmo de los procesos geológicos; por ejemplo, se ha intentado calcularla a partir del tiempo necesario para que se depositaran las series sedimentarias conocidas. Este método presenta dos defectos esenciales: por una parte, el espesor de un sedimento puede haber variado después de su formación, debido por ejemplo a una fase erosiva; por otra parte, la velocidad de formación de los sedimentos es muy variable.
En la actualidad los métodos de datación de los materiales terrestres se basan en la radiactividad. Desde cl descubrimiento de la misma por Becquerel en 1895 se sabe que ciertos elementos químicos, denominados radiactivos, son inestables y se desintegran espontáneamente y a ritmo constante por emisión de partículas, hasta dar lugar a un producto estable final. La velocidad y el modo de desintegración de los elementos radiactivos son característicos en cada uno de ellos y pueden hallarse experimentalmente. La velocidad de desintegración de un elemento radiactivo se expresa en función de su período de semidesintegración o vida media, es decir, el tiempo necesario para que dicho elemento reduzca su masa a la mitad por transformación de la otra mitad en elemento estable final.
Conociendo de una muestra rocosa las cantidades de elemento radiactivo que contiene y la de su producto estable final, así como el período de semidesintegración del primero, se puede calcular fácilmente la edad de la muestra rocosa mediante la fórmula:
T = P x período de semidesintegración / E r
donde t es el tiempo de formación, P es el producto estable final de un elemento radiactivo expresado en gramos y E r es el elemento radiactivo también expresado en gramos.
Mediante la aplicación de los métodos radiactivos se ha calculado que la edad de la Tierra, como la del resto de los planetas del sistema solar y de los meteoritos viene a ser, aproximadamente, de 4.500 millones de años.
Origen de la vida en nuestro planeta
Un acontecimiento importante en el desarrollo de nuestro planeta lo constituyó el origen y desarrollo de la vida.
A. I. Oparin, que en 1922 desarrolló la primera teoría científica sobre el origen de la vida
En un caldo primordial surgieron las primeras moléculas
Se acepta en la actualidad que la vida se originó de manera espontánea cuando se dieron las condiciones necesarias para que ciertos elementos químicos se combinaran para generar moléculas orgánicas muy sencillas primero y progresivamente más complejas después, hasta originar un sistema capaz de autoduplicarse y relacionarse en el medio en que vivía, es decir, hasta un organismo viviente. La teoría más aceptada sobre el origen de la vida fue esbozada por el bioquímico ruso Oparin en 1922, teoría que posteriormente ha sido ampliada y comprobada en gran parte de sus puntos básicos. La vida, según Oparin, es el resultado de un proceso evolutivo de progresiva complicación de la materia orgánica. En dicho proceso se pueden distinguir cuatro etapas o eslabones principales, que se describen a continuación.
ARN, el mensajero
- Primer eslabón o evolución nuclear, durante el cual se originaron los elementos organogénicos, es decir, los elementos básicos de las moléculas orgánicas, como hidrógeno, carbono, nitrógeno, oxígeno, fósforo y azufre. Se sabe poco sobre el origen de dichos elementos, pero se supone que todos ellos se formaron a partir del hidrógeno por medio de reacciones termonucleares ocurridas en el interior de las estrellas.
Comparativa entre ARN y ADN
- Segundo eslabón o evolución molecular, durante el cual se originaron las moléculas orgánicas por combinación de los elementos organogénicos. Este segundo eslabón puede subdividirse en dos fases principales, una de formación de moléculas orgánicas simples y otra de formación de moléculas orgánicas complejas denominadas moléculas biológicas. Sobre la primera fase del eslabón molecular se dispone de numerosos datos. Por ejemplo, los modernos radiotelescopios han descubierto en nuestra galaxia moléculas de agua, de amoníaco (NH 3 ), de formaldehído (HCHO), de monóxido de carbono (CO), de dióxido de carbono (CO 2 ), de ácido do cianhídrico (HCN), de cianoacetileno (C 2 HCN), etc., es decir de moléculas orgánicas muy simples. Durante la segunda fase del eslabón molecular se formaron las moléculas orgánicas más complejas, como los aminoácidos y los nucleótidos, elementos arquitectónicos básicos de las macromoléculas esenciales de los organismos. Sobre esta segunda fase se dispone de importantes datos experimentales. Así, S. L. Miller, en la Universidad de California, consiguió sintetizar aminoácidos a partir de los elementos y de la energía que debía existir en la primitiva atmósfera terrestre. Su experimento consistió en someter una mezcla de metano, agua y amoníaco a fuertes descargas eléctricas consiguiendo la formación de aminoácidos semejantes a los que constituyen las proteínas de los seres vivos. Por otra parte, el científico español Juan Oró, en la Universidad de Houston, ha conseguido sintetizar bases púricas y pirimidínicas (constituyentes básicos de los ácidos nucleicos) simulando las condiciones que debieron existir en la primitiva atmósfera terrestre.
- Tercer eslabón o evolución proto-biológica, durante el cual se produjeron los procesos de interacción entre las proteínas y los ácidos nucleicos para dar lugar al primer complejo molecular capaz de auto reproducirse. Un paso importantísimo en esta evolución proto-biológica debió ser la aparición de los primeros complejos enzimáticos responsables y directores de las funciones vitales de los organismos.
- Cuarto eslabón o evolución biológica, incluye desde la formación de los primeros y simples sistemas vivientes hasta la aparición de los organismos más complejos y el hombre. Sobre este eslabón, especialmente en sus fases más avanzadas, se dispone de numerosos datos facilitados por el hallazgo y la interpretación de los fósiles.
Continuará.
Jun
1
¿Dómde estçá todo el mundo?
por Emilio Silvera ~ Clasificado en General ~ Comments (0)
El Físico Italiano lo decía, cuando se hablaba de extraterrestres se hacía esa pregunta
Para detectar inteligencia en nuestro planeta, lo único que tienen que hacer lo seres de otros mundos es localizar obras hechas por los habitantes de ese mundo, es decir, obras artificiales, ondas de radio y de TV.
Y, no es que seamos muy inteligentes pero, ¿Serán ellos muy tontos? Bueno supongo todo esto s una ironía.