sábado, 05 de abril del 2025 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




¡La Física! Siempre nos sorprende

Autor por Emilio Silvera    ~    Archivo Clasificado en Astronomía y Astrofísica    ~    Comentarios Comments (2)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

                            Foto: COSMIN BLAGA, OHIO STATE UNIVERSITY.
Investigadores de la Universidad Estatal de Ohio (Estados Unidos), han registrado, utilizando una nueva cámara ultrarrápida, la primera imagen en tiempo real de dos átomos vibrando en una molécula. La clave del experimento, que ha sido publicado en la revista ‘Nature’, fue la utilización de la energía del propio electrón de una molécula.  El equipo usó pulsos láser ultrarrápidos para expulsar un electrón fuera de su órbita natural en una molécula; el electrón retrocedió, entonces, hacia la molécula, dispersándose, de forma análoga a la manera en que un destello de luz se dispersa alrededor de un objeto, o una onda expansiva de agua se dispersa en un estanque.
Podemos comprobar que cada día estamos más cerca de saber, sobre la verdadera naturaleza de la materia al poder acceder a ese microscópico “mundo” de lo muy pequeño, allí donde residen los cuantos, esos infinitesimales objetos que se unen para conformar todo lo que podemos ver en nuestro universo, desde la más pequeña mota de polvo hasta la galaxia más grande.

 

 

 

 

 

Las veloces computadoras cuánticas hechas con átomos atrapados por haces de luz pueden estar un poco más cerca, gracias a las primeras imágenes de átomos individuales obtenidas en una de estas grillas.

 

La velocidad de las computadoras cuánticas tiene que ver con el hecho de que sus componentes pueden ocupar una serie de estados en lugar de sólo dos como ocurre en una computadora binaria. Ciertos algoritmos especiales podrían explotar estos estados cuánticos para resolver problemas que derrotarían a una computadora convencional.

Una candidata a computadora de este tipo es la llamada “rejilla óptica”, en la que haces de rayos láser estratégicamente ubicados hacen que los átomos ultrafríos se coloquen en forma de grilla, como si fueran huevos en su envase de cartón. Pero antes de que uno pudiera leer o escribir sobre estos átomos, algo indispensable si la rejilla fuera a actuar como una computadora cuántica, haría falta determinar las posiciones exactas de los mismos.

Ahora dos equipos de investigadores, uno conducido por Stefan Kuhr del Instituto Max Planck de Óptica Cuántica de Garching, Alemania, y el otro por Markus Greiner de la Universidad de Harvard, han dado el primer paso al obtener imágenes de átomos individuales de rubidio en una rejilla óptica. Este es un reto no sólo porque los átomos son pequeños, sino también porque los fotones de los átomos cercanos pueden interferir unos con otros, enturbiando cualquier patrón.

Para superar esto, los equipos estudiaron el patrón de luz de un solo átomo. Luego crearon un algoritmo capaz de generar una combinación de este patrón a partir de diferentes disposiciones de una grilla de átomos. Cotejando estas simulaciones con el modelo real observado, el algoritmo podía determinar cuál era la distribución de los átomos.

Cada átomo en la grilla actúa como un bit cuántico. Kuhr dice que la rejilla óptica tiene muchos más de estos “qubits” que otros sistemas enfocados en la computación cuántica, por lo que puede ofrecer mayor velocidad.

 

 

 

 

 

 

 

Los láseres pueden volver reales las partículas virtuales. Los láseres de última generación tienen el poder de crear materia por medio de la captura de partículas fantasmales que, de acuerdo a la mecánica cuántica, permean el espacio aparentemente vacío

El principio de incertidumbre de la mecánica cuántica implica que el espacio nunca puede estar realmente vacío. En cambio, las fluctuaciones aleatorias causan el nacimiento de un caldero hirviente de partículas, como electrones y sus homólogos de antimateria, los positrones.

Las llamadas “partículas virtuales” normalmente se aniquilan entre sí demasiado rápido para que las veamos. Pero los físicos predijeron en los años 30 que un campo eléctrico muy fuerte transformaría las partículas virtuales en reales, y entonces las podríamos observar. El campo las impulsa en direcciones opuestas, porque tienen cargas eléctricas que se oponen, y las separándolos de modo que no puede destruirse mutuamente.

 

 

 

 

 

 

Los láseres son ideales para esta tarea, porque su luz posee campos eléctricos fuertes. En 1997, los físicos del Stanford Linear Accelerator Center (SLAC), en Menlo Park, California, utilizaron luz láser para crear unas pocas parejas de electrón-positrón. Ahora, nuevos cálculos indican que los láser de nueva generación serán capaces de crear pares por millones.

Reacción en cadena

En el experimento de SLAC, sólo se creó un par electrón-positrón a la vez. Pero con los láseres más potentes, es probable que se produzca una reacción en cadena.

El primer par es acelerado a gran velocidad por el láser, haciendo que emita luz. Esta luz, junto con la del láser, genera aún más pares, dice Alexander Fedotov de la Dirección Nacional de Investigaciones Nucleares de la Universidad de Moscú y sus colegas en un estudio que aparecerá en Physical Review Letters.

“Surgirá una gran cantidad de partículas del vacío”, dice John Kirk del Instituto Max Planck de Física Nuclear en Heidelberg, Alemania, que no participó en el estudio.

En los láseres que pueden concentrar cerca de 1026 vatios en un centímetro cuadrado, esta reacción desatada debería convertir de manera eficiente la luz del láser en millones de pares de electrones positrones, calcula el equipo.

 

Fábrica de antimateria

 

 

 

 

Ese nivel de intensidad lo podría alcanzar un láser que será construido por el proyecto Extreme Light Infrastructure en Europa. La primera versión del láser se podría construir en 2015, pero podría llevar un año más completar las actualizaciones necesarias para llegar a 1026 vatios por centímetro cuadrado, dice el coautor del estudio Georg Korn del Instituto Max Planck de Óptica Cuántica en Garching , Alemania.

La capacidad de generar una gran cantidad de positrones podría ser útil para los colisionadores de partículas, como el propuesto del Colisionador Lineal Internacional, que impactará electrones y positrones, dice Kirk McDonald de la Universidad de Princeton en Nueva Jersey.

Pero Pisin Chen, de la Universidad Nacional de Taiwan en Taipei, dice que el costo de los poderosos láseres puede hacer que este método sea más caro que el alternativo. En la actualidad, la manera estándar de crear una gran cantidad de positrones es disparar un haz de electrones de alta energía a una pieza de metal, para producir pares electrón-positrón.

 

La materia supera a la antimateria en un experimento que imita a la creación

 

 

 

 

El desequilibrio en el acelerador de partículas de Illinois podría presagiar grandes avances en Física

 

Menos de una billonésima de segundo después del Big Bang ocurrió otro evento tumultuoso. Aunque el Cosmos nació con partes iguales de materia y antimateria, que se destruyeron una a la otra al entrar en contacto, de alguna forma la materia comenzó a predominar. Los físicos han descubierto una nueva pista sobre la causa de este desequilibrio fortuito, que condujo a la existencia de galaxias, planetas y personas.

 

 

 

 

 

Circunferencia de 4 kilómetros de diámetro del Acelerador de Partículas del Laboratorio Fermi de Chicago

 

El nuevo hallazgo se basa en ocho años de estudio de la desintegración de partículas de vida corta, llamadas mesones B, que se produce durante las colisiones de alta energía en el acelerador de partículas Tevatrón del Laboratorio Fermi (Fermilab), ubicado en Batavia, Illinois. Los científicos del experimento DZero del Tevatrón han descubierto que los mesones B, cuando se desintegran, producen cerca del 1 % más de pares de muones (una versión pesada del electrón) que de pares de sus antipartículas, los antimuones. Los físicos se refieren a este fenómeno como una violación CP.

El desequilibrio, reportado el 14 de mayo en un seminario del Fermilab y publicado en Internet el 18 de mayo, podría servir para entender cómo fue que la materia superó a la antimateria en el Universo. También aumenta las posibilidades de que el hadrones” target=”_blank”>Gran Colisionador de Hadrones, el acelerador de Suiza que sustituyó al Tevatrón como el colisionador de partículas más poderoso del mundo, encuentre nuevas partículas elementales o una nueva física.

 

 

 

 

 

“Aunque pequeño, este excedente del 1 % es 50 veces más grande que la asimetría entre materia y antimateria prevista para la desintegración de mesones B por el modelo estándar de la Física de Partículas”, señala el portavoz del DZero, Stefan Söldner-Rembold, de la Universidad de Manchester en Inglaterra.

“Se nos puso la piel de gallina”, cuenta Söldner-Rembold acerca del momento en el que él y los 500 colaboradores del DZero comprendieron lo que habían descubierto. “Estábamos muy contentos porque significa que hay una nueva Física más allá del modelo estándar que tiene que estar a nuestro alcance para que la asimetría sea tan grande”.

“Aunque hay una probabilidad de menos del 0,1 % de que los resultados del DZero sean una casualidad, de acuerdo con las normas de la Física de Partículas hay que considerarlos como indicios aún por confirmar”, advierte el teórico Yuval Grossman de la Universidad de Cornell. Söldner-Rembold señala que los hallazgos del DZero son similares a una asimetría en la producción de materia-antimateria descubierta hace un año por otro experimento llevado a cabo en el Tevatrón, el CDF, pero los nuevos resultados tienen una precisión mayor.

 

 

 

 

 

“Las teorías que podrían explicar las observaciones del DZero incluyen la supersimetría, que supone que cada partícula elemental en el modelo estándar de la Física de Partículas tiene una superpareja más pesada todavía por descubrir”, explica la teórica del Fermilab Marcela Carena, que no pertenece al equipo descubridor. “Otras teorías posibles incluyen un modelo en el que la gravedad y otras fuerzas operan en otras dimensiones ocultas, y la noción de que hay una cuarta familia de quarks más allá de las tres generaciones (arriba y abajo, encanto y extraño, y cima y fondo) que sirven como bloques de construcción de los núcleos atómicos y otras partículas.

“En los modelos que consideran una cuarta familia de quarks, la presencia de quarks nuevos y pesados y su interacción con las tres familias conocidas podrían dar lugar a un desequilibrio mayor entre materia y antimateria que el que se encuentra en el modelo estándar”, señala Carena. Y agrega: “En la teoría de la supersimetría, las superparejas pesadas jugarían un rol similar al de los quarks pesados, creando interacciones que podrían favorecer la producción de materia sobre la antimateria”.

 

 

 

 

No siempre la física lo puede explicar todo. Sin embargo… ¡Lo va consiguiendo!

 

En la teoría de las dimensiones extra, nuevas partículas mensajeras (portadoras de fuerzas previamente desconocidas) se moverían en dimensiones ocultas. Estas partículas transportadoras podrían alterar la carga y otra propiedad, llamada “sabor”, de las partículas elementales, causando el desequilibrio adicional entre materia y antimateria.

Carena añade: “Sin embargo, es difícil encontrar una teoría que pueda explicar esta asimetría sin contradecir otros resultados experimentales”.

 

 

La materia superó a la antimateria en el comienzo

 

 

Ulrich Nierste, de la Universidad de Karlsruhe en Alemania, advierte: “La conexión del resultado del DZero con el excedente de materia que existe en el Universo es vaga. Si bien el hallazgo insinúa una nueva fuente de asimetría en las propiedades del mesón B y de su antipartícula, el proceso que creó más partículas que antipartículas en el Universo primitivo podría involucrar un mecanismo físico muy diferente”.

“Sin embargo”, dice Carena, “hace falta alguna nueva fuente de asimetría para explicar el desequilibrio que hay entre la materia y la antimateria en el Universo, y, por lo tanto, nuestra existencia”. En cualquiera de los modelos propuestos “el Gran Colisionador de Hadrones debería ser la ventana directa para observar nuevas partículas”.

Uno de los experimentos más pequeños del Colisionador, diseñado para estudiar los mesones B, podría confirmar los hallazgos del DZero dentro de uno o dos años”, dice Yuval Grossman. Y agrega: “Los experimentos más grandes podrían entonces buscar nuevas partículas que serían el origen del desequilibrio cósmico entre materia y antimateria y determinar sus masas”.

 

 

 

 

El experimento Beauty (Belleza) es la matriz de investigación para la creación de antimateria. El choque de dos protones contra otro a la velocidad de la luz, ha tenido como resultado una partícula con 5 veces más masa que sus protones originales. A esa exótica partícula se le ha llamado B+ y está compuesta por un quark b-anti y un quark u. La partícula B+ se desintegra a una altísima velocidad pero le da tiempo a recorrer ¡¡2 mm!! antes de desintegrarse en dos partículas, el mesón J / ? y el Kaon K+. Esta distancia, comparada con los minúsculos tamaños que estamos tratando, es una auténtica pasada. Hemos tenido antimateria pura moviéndose a lo largo de dos extensos milímetros de “nuestro” espacio. Impresionante.

Lo revolucionario sin embargo es que de esta forma, los investigadores habrían demostrado la teoría de Albert Einstein. “Sí, podemos crear masa a partir de energía usando la famosa fórmula de Einstein, E=mc2, dicen los responsables del CERN. Aunque también hay que destacar que la confirmación de que existe la antimateria plantea muchas preguntas de difícil resolución puesto que esa sustancia no existe en nuestro universo. “Ya que la desaparición de antimateria primordial no puede ser explicada por el modelo tradicional, tendremos que comenzar a pensar en algo nuevo”, afirman los investigadores. “Los científicos están evaluando diferentes posibilidades pero, dado que sólo podemos observar un 4% de la energía y materia total del universo, podemos inferir que la respuesta al misterio de la antimateria se encuentra en la parte desconocida del mismo”, concluyen.

 

 

 

 

 

 

Como podéis ver, las preguntas son muchas y, las respuestas, son más escasas. Sin embargo, no dejamos de insistir y buscar con todos medios a nuestro alcance para saber sobre la Naturaleza no ya de la materia y la antimateria, sino sobre los muchos enigmas que tenemos planteados y a los que no sabemos dar una adecuada explicación. Parece que a lo lejos vemos una luz cegadora que nos inyecta la esperanza necesaria para seguir la búsqueda y tratar de llegar al corazón de todos esos secretos que el Universo esconde.

 

 

 

Dibujo20130308 oldest known star hd140283 backyard view

 

Hay cosas que… más que sorprendentes son… ¡Inclreibles! He leído por ahí que…

 

“Un grupo de astrónomos, usando datos del telescopio espacial Hubble, ha determinado la edad de la que es la estrella más vieja cuya edad puede medirse con precisión. El resultado ha sido que la edad de la estrella es de 14.500 ± 800 millones de años, mayor que la estimación de la edad del universo, unos 13.800 millones de años. La estrella en cuestión (HD 140283), también llamada “estrella Matusalén,” una gigante roja que se encuentra a una distancia de 190,1 años luz en la constelación de Libra (distancia medida con precisión mediante la técnica de paralaje). En el año 2000 se dató su edad en 16.000 millones de años. Sin embargo, existen algunas cuestiones que podrían aclarar la extrema edad de esta estrella. Nuevos modelos sobre la difusión de helio en el núcleo indican que la penetración del mismo podría ser mayor de la que se piensa, lo que provocaría un menor ritmo de combustión. También la relación oxígeno-hierro en esta estrella es anómala, demasiado grande, por lo que se cree que futuras observaciones que puedan determinar con mayor grado de precisión la abundancia de oxígeno podrían reducir nuevamente la estimación de la edad de la estrella.”

 

 

 

 

 

Lo cierto amigos míos es que, como el ciego que adelanta su bastón de apoyo, vamos tanteando sobre estos misteriosos temas que deseamos conocer y, por medio de la física con la ayiuda de ingentes ingenios de la mejor tecnología que hemos podido construir, vamos día a día despejando incógnitas de todos esos problemas de cuya complejidad, nos habla la Naturaleza que no quiere ponernos nada fácil el acceso a conocimientos para los que, seguramente, no estamos aún preparados.
Algunas veces tengo la impresión de que, la misma Naturaleza que nos creó, cuida de nosotros y no nos deja manejar, ciertos “juguetes” que podrían ser demasiado peligrosos para nosotros dado que, no tenemos ni el entendimiento, ni la capacidad necesaria para poder asimilar ciertas realidades que no sabríamos utilizar con la necesaria racionalidad para impedir sucesos irreparables para nosotros mismos.
emilio silvera
Fuentes diversas.

La Naturaleza a veces resulta extraña e incomprensible

Autor por Emilio Silvera    ~    Archivo Clasificado en Curiosidades    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

En matemáticas se pueden trazar líneas precisas y concretas que dividan en dos clases entes de naturaleza matemática. Una estructura geométrica se puede suporponer o no a su imagen especular. Una estructura asimétrica puede tener una lateralidad a la derecha o bien a la izquierda. Immanuel Kant, el gran filósofo germano del siglo XVIII, fue el primer pensador eminente que encontró un significado filosófico profundo a las reflexiones especulares. A Kant le parcía enigmático y misterioso que un objeto asimétrico pueda existir en cualquiera de sus dos imágenes frente a un espejo. Parece magia que, poniendo algunas cosas ante un espejo y mirando esa imagen especular, las cosas puedan parecer tan diferentes y, sin embargo, así resultan ser.

Cualquier número entero positivo es par o impar, y no hay ninguno de tales números para el cual su situación  a este respecto ofrezca la menor duda. Pero en el mundo, si exceptuamos el nivel subatómico de la teoría cuántica, las lineas divisortias son casi siempre difusas. El alquitrán, ¿es sólido o líquido?. Lo cierto es que, la mayoría de las propiedades físicas se “mueven” en un espectro continuo que hace que vayan cambiando de manera imperceptible de un extremo a otro del mismo.

La palabra quiral fue introducida por William Thomson (Lord Kelvin) en 1894 para designar objetos que no son superponibles con su imagen especular. Aplicado a la química orgánica, podemos decir que una molécula es quiral cuando ella y su imagen en un espejo no son superponibles.

La quiralidad está a menudo asociada a la presencia de carbonos asimétricos. Un carbono asimétrico es aquel que se une a cuatro sustituyentes diferentes. Un ejemplo de carbono asimétrico lo tenemos en la molécula de Bromocloroyodometano. El carbono está unido a bromo, cloro, yodo e hidrógeno, cuatro sustituyentes diferentes que lo convierten en quiral o asimétrico. La molécula y su imagen en un espejo son diferentes, ningún giro permite superponerlas. La relación entre una molécula y su imagen especular no superponible es de enantiómeros.


En estos dibujos podemos ver la molécula de Bromocloroyodometano y su enantiómero reflejado en el espejo. Una vez para hacer la prueba, puse en encima de una mesa unos modelos tridimensionales de los poliedros enantiamorfos y delante de ellos puse un espejo que reflejaba la figura especular que de dicha puesta en escena resultaba. Las dos escenas (la real y la especualr) eran exactamente iguales en lo que hace referencia a sus propiedades geométricas. A cada una de las aristas de cada una de las figuras le corresponde una de la misma longitud en la otra. Todo ángulo de una estaba emparejado al duplicado suyo de la otra. Ninguna medida o inspección de cualquiera de ellas reveló ni una sola característica geométrica que no tuviera la otra. En ese sentido, son figuras congruentes idénticas. ¡Pero, evidentemente, no eran idénticas!

Cuando nos ponemos delante del espejo podemos comprobar que en él, aparecen cosas sorprendentes en cuanto a que no se pueden superponer las figuras del modelo con la figura especular. Una simple mano abierta y puesta delante del espejo resulta totalmente diferente en un lado y en el otro de la superficie especular. Puedes ponerte delante del espejo y levantar ambos brazos a media altura con las dos manos abiertas y, de manera sorprendente verás que, la figura que aparece en el espejo muestra tu mano y brazo derecho como izquierdo y el izquierdo como derecho.

La propiedad de las manos, conocida por los químicos como quiralidad, es una característica que poseen muchas moléculas cuya disposición de los átomos no es completamente simétrica. Una molécula quiral se presenta en dos formas que son más bien como un par de guantes. Dos guantes, uno diestro y otro zurdo, son esencialmente idénticos, con los mismos componentes básicos, cuatro dedos y un pulgar, y la misma función de mantener las manos cómodas y protegidas. Pero, evidentemente, no son exactamente iguales: no se puede girar o voltear un guante de un tipo para que se superponga perfectamente en el otro. Pero si lo miras en un espejo, un guante de la mano izquierda se convierte en uno de la mano derecha.

¿Por qué la biología utiliza sólo una de las dos formas especulares de la imagen en la que las moléculas más complejas pueden existir? La última respuesta dada a esta pregunta afecta al campo de la astrofísica, la física de partículas y la bioquímica. La conclusión del último estudio dice que las explosiones estelares conocidas como supernovas son las culpables de que se produzca este fenómeno.

La Naturaleza, como siempre he dicho aquí, tiene muchos misterios que no hemos llegado a comprender. El paso del tiempo convierte en líquido, gas o sólido algunos materiales y, a otros, los deforma hasta perder su estructura original para convertirlos en lo que antes no eran. Nada permanece, todo cambia. Sea cual fuere la línea de división, habrá algunos casos en los que no podamos definirla y, en otros, habrá objetos tan próximos a ella que el lenguaje ordinario no será lo suficientemente preciso como para poder afirmar a qué lado pertenece. Y, la propiedad de la vida, está, precisamente, en uno de esos continuos.

Para porbar esto basta que consideremos los virus: son las estructuras biológicas más pequeñas que se conocen  con la propiedad de poder “comer” (absorber sustancias situadas en sus proximidades), crecer y fabricar copias exactas de sí mismas.

Son mucho más pequeños que una bacteria (en realidad, algunos virus infectan las bacterias) y pasan sin dificultad a través de un filtro de porcelana fina que, aunque a nosotros nos parezca que está completamente sellada y su superficie es totalmente hermética y lisa, para ellos, tan “infinitamente” pequeños, ofrece miles de huecos por los que poder colarse.

Nuevas grabaciones en vídeo de un virus que infecta a las células sugiere que los virus se expanden mucho más rápido de lo que pensábamos. El descubrimiento de este mecanismo permitirá crear nuevos fármacos para hacer frente a algunos virus. En la punta de un alfiler caben millones de ellos. De hecho, los virus tienen el tamaño de una décima de micrómetro (diezmillonésima parte del metro).

El mundo de lo muy pequeño es fascinante y, por ejemplo, si hablamos de átomos, se necesitarían aproximadamente una cantidad para nosotros inconmensurable de átomos (602.300.000.000.000.000.000.000) para lograr un solo gramo de materia. Fijáos que hablamos de lo pequeño que pueden llegar a ser los virus y, sin embargo, el Hidrógeno con un sólo protón es el átomo más ligero y su masa es 400.000 veces menor que la masa de un virus, como antes dije, el organismo vivo más pequelo que se conoce. El virus más diminuto conocido mide unos o,00000002 m; su tamaño es 2.000 veces mayor que el del átomo. Y, en la punta del algiler que antes mencionamos cabrían 60.000.000.000 (sesenta mil millones) de átomos.

Imágenes in vitro del virus diminuto del ratón, mostrando las tres simetrías icosahédricas.

Los virus son nanomáquinas enormemente dañinas pero que están formados por una sencillísima estructura. Tanto es así que se puede decir que son entidades biológicas a caballo entre la materia inerte y la materia viva. Básicamente constan de una envuelta externa llamada ‘cápsida’, formada por proteínas, que se encarga de preservar el ADN en el interior. Los virus no presentan ninguna función metabólica, y consiguen reproducirse parasitando la maquinaria molecular de una célula huésped. El interés por estudiar en profundidad los virus no sólo proviene de la motivación por erradicar las enfermedades que estos producen, sino también de su estudio como materiales. Las cápsidas de los virus son extraordinariamente resistentes.

Como los virus son menores que la longitud de onda de la luz, no pueden observarse con un microscopio luminoso ordinario, pero los bioquímicos disponen de métodos ingeniosos que les permiten deducir su estructura, ya que pueden verlos mediante bombardeos con rayos X u otras partículas elementales.

En ralidad, se puede decir que un cristal “crece”, pero lo hace de un modo ciertamente trivial. Cuando se encuentra en una solución que contiene un compuesto semejante a él, dicho compuesto se irá depositando sobre su superficie; a medida que esto ocurre, el cristal se va haciendo mayor, pero el virus, igual que todos los seres vivos, crece de una manera más asombrosa: toma elementos de su entorno, los sintetiza en compuestos que no están presentes en el mismo y hace que se combinen unos con otros de tal manera que lleguen a dar una estructura compleja, réplica del propio virus.

 

Los virus sólo se multiplican en células vivientes. La célula huésped debe proporcionar la energía y la maquinaria de síntesis, también los precursores de bajo peso molecular para la síntesis de las proteínas virales y de los ácidos nucleicos. El ácido nucleico viral transporta la especificidad genética para cifrar todas las macromoléculas específicas virales en una forma altamente organizada.

El poder que tienen los virus de infectar, e incluso matar, un organismo, se debe precisamente a esto. Invade las células del organismo anfitrión, detiene su funcionamiento y lo sustituye, por decirlo de alguna manera, por otros nuevos. Ordena a la célula que deje de hacer lo que normalmente hace para que comience a fabricar las sustancias necesarias para crear copias de sí mismo, es decir, del virus invasor.

El primer virus que se descubrió, y uno de los más estudiados, es el virus sencillo que produce la “enfermedad del mosaico” en la planta del tabaco. Cristaliza en forma de barras finas que pueden observarse a través del microsopio electrónico. Recientemente se ha descubierto que cada barra es, en realidad, una estructura helicoidal orientada a la derecha, formada por unas 2.000 moléculas idénticas de proteína, cada una de las cuales contiene más de 150 subunidades de aminoácidos.

Las moléculas de proteínas se enrollan alrededor de una barra central imaginaria que va de un extremo a otro del cristal. Sumergido en la proteína (y no en la parte central, como podría pensar un estudiante) hay una única hebra helicoidal, enroscada hacia la derecha, de un compuesto de carbono llamado ácido nucleico. El ácido nucleico es una proteína, pero igual que éstas es un polímero: un compuesto con una molécula gigante formada por moléculas más pequeñas enlazadas de manera que formen una cadena.
Un polímero es una macromolécula en la que se repite n veces la misma estructura básica (monómero). En el caso del hule, las cadenas pueden tener desde n=20 000 hasta n=100 000.
La doble hélice del ADN consiste en dos polinucleótidos enlazados a través de puentes de hidrógeno entre bases de cada cadena. b) Una timina de un lado se une con una adenina del otro. c) Una citosina con una guanina. Las unidades menores , llamadas nucleótidos están constituidas por átomos de Carbono, Oxñigeno, Nitrógeno, Hidrógeno y Fósforo; pero donde las proteínas tienen unas veinte unidades de aminoácidos, el ácido nucleico tiene solamente cuatro nucleótidos distintos. Se pueden encadenar miles de nucleótidos entre sí, como lo hacen las subunidades de aminoácidos de las proteínas en una variedad practicamente infinita de combinaciones, para formar cientos de miles de millones de moléculas de ácido nucleico. Exactamente igual que los aminoácidos, cada nucleótido es asimétrico y orientado a la izquierda. A causa de ello, la espina dorsal de una molécula de ácido nucleico, igual que la de una molécula de proteína, tiene una estructura helicoidal orientada hacia la derecha.
Recientemente se han descubiertos unas moléculas sorprendentes con irregularidades en su quiralidad. Por ejemplo, existen segmentos anómalos de ADN que se enroscan al reves. Este ADN “zurdo” se halló por primera vez en un tubo de ensayo, pero en 1987 se ideó un procedimiento para identificar dichos segmentos anómalos en células vivas. El papel del ADN invertido no está claro, y pudiera estar implicado en los mecanismos que ponen en marcha mutaciones que nos lleven a ser hombres y mujeres del futuro con otros “poderes” que vayan más allá para que, de esa manera, podamos llegar a comprender la Naturaleza de las cosas y, en definitiva, nuestra propia naturaleza que, de momento, sigue siendo un gran misterio para nosotros.
Otra vez la preencia del carbono asimétrico
Esta cosita tan pequeñita… ¡tendría tanto que contarnos! La quiralidad está a menudo asociada a la presencia de carbonos asimétricos. Un carbono asimétrico es aquel que se une a cuatro sustituyentes diferentes. Un ejemplo de carbono asimétrico lo tenemos en la molécula de Bromocloroyodometano. El carbono está unido a bromo, cloro, yodo e hidrógeno, cuatro sustituyentes diferentes que lo convierten en quiral o asimétrico. La molécula y su imagen en un espejo son diferentes, ningún giro permite superponerlas. La relación entre una molécula y su imagen especular no superponible es de enantiómeros.
Lo cierto es que todo está hecho de esas pequeñas partículas… Quarks y Leptones. Las estudiamos y observamos los comportamientos que en situaciones distintas puedan tener y, una de las cuestiones que resultó curioso constatar es que,   existen partículas subatómicas que podríamos llamar pares y otras que podríamos llamar impares, porque sus combinaciones y desintegraciones cumplen las mismas propiedades que la suma de enteros pares e impares. Una partícula de paridad par puede partirse en dos de paridad par, o en dos de paridad impar, pero nunca en una de paridad par y otra de paridad impar (esto implica la conservación de la paridad). Y, de la misma manera que existen principios de ocnservación para la paridad, el momento angular, la materia…, también es un hecho irreversible ese principio que nos lleva a saber que, a partir de la materia “inerte”, surgieron los “seres” más pequeños que conocemos y que hicieron posible el surgir de la inmensa variedad de formas de vida que la evolución hizo llegar hasta nosotros que, estamos aquí hablando de todas estas cuestiones curiosas que nos llevan a saber, un poco más, del mundo en el que vivimos, de la Naturaleza y, de nosotros.
emilio silvera

¡Definir la Ciencia! ?Y sus curiosidades?

Autor por Emilio Silvera    ~    Archivo Clasificado en La Ciencia    ~    Comentarios Comments (3)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

No existe una buena definición de la Ciencia. Algunas Sociedades Científicas se decidieron a dejar la suya propia pero, nunca quedaron satisfechos, ya que, si la definición era muy amplia, podría colarse en ella pseudociencias tales como la astrología; si la hacían demasiado restrictiva, podrían quedar excluidos temas como la teoría de cuerdas, la biología evolutiva e incluso la Astronomía.

Para lo que este simple comentario trata de reflejar, bastaría decir que la Ciencia es un estudio lógico y sistemático de la Naturaleza y del mundo físico que abarca todo el Universo y todo lo que dentro de él está presente. Generalmente incluye tanto experimento como teorías que son verificadas por aquellos.

Llegará a Guanajuato muestra de 'El túnel de la ciencia'

 ’El túnel de la ciencia’, en el Museo de Artes e Historia del Forum Cultural de Guanajuato. México

La ciencia (del Latín scientia “conocimiento”) es el conjunto de conocimientos sistemáticamente estructurados, y susceptibles de ser articulados unos con otros hasta formar un todo en un entendimiento “general” de la Naturaleza del Universo.

Aunque la definición pueda resultar algo floja, es, sin embargo un compendio general de lo que entendemos por ciencia. Más arriba escribo “generalmente” en cursiva, porque si planteáramos una exigencia absoluta de experimentos, tendríamos que excluir la Astronomía, la más antigua de todas las ciencias, ya que no es posible recrear nuevas estrellas o galaxias en Laboratorio, ni escenificar la creación del sistema solar. Sin embargo, en Astronomía las observaciones son a menudo tan valiosas como los mismos experimentos. El Cometa Halley regresa con una regularidad sorprendente; el Sol sale cada mañana.

El filósofo Karl Popper añadió el requisito de la “refutación” La Ciencia es refutable; la Religión no lo es. Una Teoría o una Ley científica nunca pueden ser demostradas de manera absoluta; de ahí que sea posible refutarlas. Por ejemplo, Newton dijo que la fuerza es igual al producto de la masa por la aceleración (D = ma). No podemos demostrar que todos los objetos de todas las galaxias obedecen esta ley o que todos los objetos obedecerán siempre esta Ley. Sin embargo, para demostrar la falsedad de esta Ley bastaría un solo experimento. (Albert Einstein y varios expertos en física cuántica han demostrado que algunos de los conceptos de Newton son erróneos.) Por lo tanto, los científicos deben proponer sólo teorías que puedan ser refutadas, tal como afirmó Popper. Estas Teorías han de ser comprobables. No existe tal requisito en el caso de la Religión.

 

                                                 La Mente Humana está en conexión con el Universo

Dicho esto, sigue habiendo problemas con la definición. La Astrología, por ejemplo, es refutable. Si nuestros astrólogos nos dicen que nos encontraremos con una guapa extranjera el martes, esto puede comprobarse. Por otra parte, la teoría de las supercuerdas, planteada por algunos físicos como la “teoría del todo”, requeriría un acelerador de partículas con un diámetro de diez años-luz para poder refutarla. La mayor parte de la Biología evolutiva tampoco puede comprobarse experimentalmente. No se puede reproducir la evolución de una especie, ni recrear los dinosaurios comenzando con un animal unicelular. Si aplicamos la regla de la refutación demasiado estrictamente, tendremos que incluir la astrología en el campo de la ciencia y excluir la biología evolutiva, la teoría de cuerdas e incluso quizá la Astronomía.

En consecuencia, es mejor que no nos tomemos demasiado en serio lo de la “refutación” del filósofo de la Ciencia, ya que, de otro modo, podríamos vernos obligados a excluir toda la Ciencia de los antiguos griegos. Estos no sólo eludían el experimento, sino que abominaban de ellos, confiando en que la razón estaba por encima de la evidencia empírica.

Yo, sí he llegado a tener mi propia definición de la Ciencia: “Es el estudio que nos lleva, a través de la observación y el experimento, a la verdadera realidad de la Naturaleza, y, para ello, utilizamos nuestra imaginación para construir modelos y teorías que nos acerquen a esa verdad que presentimos y tratamos de desvelar”.

Los que bebemos de la Ciencia, sentimos que “lo divino” se aleja más y más. Sin embargo, no podemos dejar de sentir que, de alguna manera, algo superior nos vigila, yo lo achaco a ese miedo ancestral que, desde siempre, hemos tenido por lo desconocido y que, inmerso en una profunda ignorancia, no pocas veces hemos querido explicar mediante causas “divinas”, y, sin embargo, cuando, finalmente, hemos dado con las respuestas, estas eran de este mundo y, siempre, eran respuestas lógicas que la Naturaleza nos ofrecía y que no sabíamos compreneder.“ ¿El Creador? Es el Universo con sus complejos sistemas de ritmos y energías el que nos lleva hacia ese futuro que deseamos alcanzar. No existe ningún creador.

Bueno, la definición que de la Ciencia hago y reseño encima de la imagen de arrina, no será perfecta pero, para cumplir los objetivos propuestos es válida y suficiente aunque (como es el caso) le falten algunos matices.

Aquí, en esta página, siempre nos hemos limitado a aquellas disciplinas más estrictas: La Física, La Astronomía, La Cosmología, La Geología, La Química y La Tecnología, Sin olvidar las matemáticas, ya que son indispensables para la Ciencia y están ineludiblemente conexionada con todas ellas que, de una u otra manera, las necesita para poder expresar, en su más alto grado, lo más profundo que esa Ciencia nos quiere decir. Es decir, las matemáticas son el lenguaje del que se vale la Ciencia para decir al mundo lo que realmente son en cada una de sus vertientes. He dejado aparte y sin querer tratar de ellas, las disciplinas más ligeras –La Antropología, La Agronomía, La Psicología, La Medicina y otras del mismo estilo o parecidas- para otros momentos.

Algo que nunca he tomado en consideración ha sido el pragmatismo de la Ciencia o la motivación de los científicos. Estas cuestiones se han utilizado a menudo para desacreditar las Ciencias no occidentales: sí es un trabajo bien hecho, pero no es “puro”, o, a la inversa, no resulta práctico. En cuanto a la motivación, muchos descubrimientos científicos fueron impulsados por la religión: los matemáticos árabes perfeccionaron el álgebra en parte para facilitar las leyes islámicas de la herencia, del mismo modo que los védicos de la India resolvieron raíces cuadradas para construir los altares de los sacrificios con unas dimensiones adecuadas. En estos casos la Ciencia estuvo al servicio de la religión, pero no obstante era Ciencia.

La ley de los epónimos de Stigler, formulada por el experto en estadística Stephen Stigler, afirma que ningún descubrimiento científico lleva el nombre de su descubridor original. El periodista Jim Holt indica que la propia Ley Stigler confirma lo que dice, ya que Stigler admite que la Ley que lleva su nombre fue descubierta por otra persona, concretamente por Robert K. Merton, un especialista en Sociología de la Ciencia.

El área del cuadrado construido sobre la hipotenusa de un triángulo rectángulo, es igual a la suma de las áreas de los cuadrados construidos sobre los catetos.

Entre todos los casos en que se cumple la Ley de Stigler, el más famoso es el del Teorema de Pitágoras (a²+ b² = c², donde a y b son los lados perpendiculares y c es la hipotenusa). Jakob Bronowski escribe lo siguiente:

“Hasta la fecha, el Teorema de Pitágoras sigue siendo el teorema más importante de todas las matemáticas. Esta afirmación puede parecer atrevida y extraordinaria, pero no es extravagante, ya que lo que el teorema de Pitágoras establece es una caracterización fundamental del espacio en que nos movemos y es en este teorema donde dicha caracterización se expresa por primera vez traducida a números. Además, el encaje exacto de los números describe las leyes exactas que rigen el universo. De hecho, se ha propuesto que los números correspondientes a las dimensiones de los triángulos rectángulos sean mensajes que podrían enviarse (de hecho se ha hecho) a planetas de otros sistemas estelares a modo de test, para comprobar si estos planetas tienen ocupación debida a seres dotados de vida racional.

                  La placa con el mensaje que llevan la Pioneer 10 y 11

Claro que el problema está en que, no fue Pitágoras el primero que propuso “su” teorema. Los hindúes, los egipcios y los babilonios utilizaban “tríos de números pitagóricos” para determinar ángulos rectos en la construcción de edificios. Un trío de números pitagóricos es un conjunto de tres números que representan las dimensiones de los lados de un triángulo rectángulo. El trío más habitual es 3 : 4 : 5 (3² + 4² = 5² o 9 + 16 = 25). Pitágoras “inventó” este teorema hacia el año 550 a. C. Los Babilonios, según todos los indicios, ya habían catalogado quizá cientos de tríos antes del año 2000 a. C., en una época muy anterior a la de Pitágoras. Uno de los tríos que hallaron los babilonios tienen unos números tan enormes como: 3.367 : 3.456 : 4.825.”

El ojo humano tiene sus limitaciones para ver, sin embargo, la imaginación no tiene barreras y, a lo largo de la historia de la Humanidad se han dado pruebas de lo lejos que pueden llegar nuestros pensamientos.Los Babilonios, egipcios e Hindúes le dejaron un campo sembrado a Pitágoras que, en realidad, sólo tuvo que recoger la abundante cosecha. Él sí supo “ver”.

Ahí están y  existen indicios de que los babilonios utilizaron diversas técnicas algebraicas derivadas de la fórmula a² + b² = c². Lo que puede reconocerse como un logro de Pitágoras, que impresionó a muchos, fue la elaboración de una demostración geométrica del teorema…  El área del cuadrado construido sobre la hipotenusa de un triángulo rectángulo, es igual a la suma de las áreas de los cuadrados construidos sobre los catetos.

Fue Euclides quien proclamó dos siglos más tardes la idea de que la demostración podía ser algo más importante que el propio teorema. Por consiguiente, las matemáticas no occidentales han quedado consideradas como unas matemáticas de segunda categoría debido a que se apoyan sobre una base empírica y no sobre demostraciones.

Ambos métodos son útiles. La Geometría euclidiana que aprendimos la mayoría de nosotros es axiomática. Parte de un axioma, es decir, una ley que se supone cierta, y los teoremas se deducen razonando de manera descendente a partir de ahí. Es deductiva y axiomática. Siglos más tarde, al-Hazin en Oriente y Galileo en Occidente contribuyeron a popularizar un método inductivo y empírico para la Ciencia, algo más parecido a lo que los babilonios, los egipcios y los hindúes habían utilizado. No se parte de suposiciones sino de datos y mediciones, para luego razonar de forma ascendente hacia verdades que recubren los datos conocidos. Lo que actualmente llamamos Ciencia es una materia que en su mayor parte es empírica. Cuando Isaac Newton recopiló datos relativos al paso de los cometas, a las lunas de Júpiter y de Saturno y a las mareas que se producían en el estudio del río Támesis para elaborar una gran síntesis en los Principia, estaba trabajando de una manera empírica e inductiva.

Las matemáticas son ligeramente diferentes, pero muchos matemáticos ven la necesidad de realizar tanto trabajos basados en las demostraciones como trabajos basados en las observaciones empíricas. Un caso puntero que podemos mencionar es el del gran matemático indio Srinivasa Ramanujan, cuyos “cuadernos perdidos” de anotaciones contienen el germen de la teoría de las supercuerdas y cuyos trabajos han sido utilizados para calcular el número π hasta millones de dígitos en su parte decimal.

Uno de los secretos más profundos de la teoría de cuerdas, que aún no es bien comprendido, es por qué está definida sólo en diez, once y veintiséis dimensiones. Es ahí, donde la Teoría se hace fuerte y nos facilita la posibilidad de continuar su desarrollo.

Si calculamos cómo se rompen y se vuelven a juntar las cuerdas en el espacio N-dimensional, constantemente descubrimos que pululan términos absurdos que destruyen las maravillosas propiedades de la teoría. Afortunadamente, estos términos indeseados aparecen multiplicados por (N-10). Por consiguiente, para hacer que desaparezcan estas anomalías, no tenemos otra elección cuántica que fijar N = 10. La teoría de cuerdas, de hecho, es la única teoría cuántica conocida que exige completamente que la dimensión del espacio-tiempo esté fijada en un número único, el diez.

 

Por desgracia, los teóricos de cuerdas están, por el momento, completamente perdidos para explicar por qué se discriminan las diez dimensiones. La respuesta está en las profundidades de las matemáticas, en un área denominada funciones modulares (¿Las de Ramanujan?).

Al manipular los diagramas de lazos de Kikkawa, Sakita y Virasoro creados por cuerdas en interacción, allí están esas extrañas funciones modulares en las que el número 10 aparecen en los lugares más extraños.

Estas funciones modulares son tan misteriosas como el hombre que las investigó, el místico del este. Quizá si entendiéramos mejor el trabajo de este genio indio, comprenderíamos por qué vivimos en nuestro universo actual.

Una partícula, una cuerda abierta y
una cerrada, describiendo sus órbitas en el
espacio-tiempo 4D.

 

 

El misterio de las funciones modulares podría ser explicado por quien ya no existe, Srinivasa Ramanujan, el hombre más extraño del mundo de los matemáticos. Igual que Riemann, murió antes de cumplir cuarenta años, y como Riemann antes que él, trabajó en total aislamiento en su universo particular de números y fue capaz de reinventar por sí mismo lo más valioso de cien años de matemáticas occidentales que, al estar aislado del mundo en las corrientes principales de los matemáticos, le eran totalmente desconocidos, así que los buscó sin conocerlos. Perdió muchos años de su vida en redescubrir matemáticas conocidas.

Dispersas entre oscuras ecuaciones en sus cuadernos están estas funciones modulares, que figuran entre las más extrañas jamás encontradas en matemáticas. Ellas reaparecen en las ramas más distantes e inconexas de las matemáticas. Una función que aparece una y otra vez en la teoría de las funciones modulares se denomina (como ya he dicho otras veces) hoy día “función de Ramanujan” en su honor. Esta extraña función contiene un término elevado a la potencia veinticuatro.

El número 24 aparece repetidamente en la obra de Ramanujan. Este es un ejemplo de lo que las matemáticas llaman números mágicos, que aparecen continuamente donde menos se les esperan por razones que nadie entiende. Milagrosamente, la función de Ramanujan aparece también en la teoría de cuerdas. El número 24 que aparece en la función de Ramanujan es también el origen de las cancelaciones milagrosas que se dan en la teoría de cuerdas. En la teoría de cuerdas, cada uno de los veinticuatro modos de la función de Ramanujan corresponde a una vibración física de la cuerda. Cuando quiera que la cuerda ejecuta sus movimientos complejos en el espacio-tiempo dividiéndose y recombinándose, deben satisfacerse un gran número de identidades matemáticas altamente perfeccionadas. Estas son precisamente las entidades matemáticas descubiertas por Ramanujan. Puesto que los físicos añaden dos dimensiones más cuando cuentan el número total de vibraciones que aparecen en una teoría relativista, ello significa que el espacio-tiempo debe tener 24 + 2 = 26 dimensiones espacio-temporales.

Una interacción general entre cuerdas se puede representar como la suma de interacciones más “elementales”, empezando con el diagrama árbol que representa la interacción con la mayor probabilidad de ocurrir, seguida por las correcciones perturbativas, es decir, por los demás diagramas de la serie infinita. Como puede observarse en dicha figura, las superficies que representan las interacciones no se vuelven increiblemente complicadas como los digramas de partículas, ya que sólo hay que agregarle agujeros a una superficie dada.

 


 

Para comprender este misterioso factor de dos (que añaden los físicos), consideramos un rayo de luz que tiene dos modos físicos de vibración. La luz polarizada puede vibrar, por ejemplo, o bien horizontal o bien verticalmente. Sin embargo, un campo de Maxwell relativista Aµ tiene cuatro componentes, donde µ = 1, 2, 3, 4. Se nos permite sustraer dos de estas cuatro componentes utilizando la simetría gauge de las ecuaciones de Maxwell. Puesto que 4 – 2 = 2, los cuatro campos de Maxwell originales se han reducido a dos. Análogamente, una cuerda relativista vibra en 26 dimensiones. Sin embargo, dos de estos modos vibracionales pueden ser eliminados cuando rompemos la simetría de la cuerda, quedándonos con 24 modos vibracionales que son las que aparecen en la función de Ramanujan.

Ramanujan en Cambridge

 

Con tan solo doce años dominaba la trigonometría; unos años después se hizo con una copia del libro de George Carr <<A sinopsis of Elementary Results in Pure and Applied Mathematics>>. El libro contenía una lista de los 4.400 resultados clásicos de la matemática, pero sin demostraciones, así es que Ramanujan lo asumió como un reto. Durante los siguientes años se dedicó a fondo en este libro, y comenzó a llenar su libreta de resultados e ideas que no aparecían en el libro original. Al igual que Euler poseía un talento y una intuición excepcional, esto hacía que jugase y trasformarse las fórmulas hasta conseguir nuevas perspectivas.

Cuando se generaliza la función de Ramanujan, el 24 queda reemplazado por el número 8. Por lo tanto, el número crítico para la supercuerda es 8+2=10. Este es el origen de la décima dimensión que exige la teoría. La cuerda vibra en diez dimensiones porque requiere estas funciones de Ramanujan generalizadas para permanecer auto consistente. Dicho de otra manera, los físicos no tienen la menor idea de por qué 10 y 26 dimensiones se seleccionan como dimensión de la cuerda. Es como si hubiera algún tipo de numerología profunda que se manifestara en estas funciones que nadie comprende. Son precisamente estos números mágicos que aparecen en las funciones modulares elípticas los que determinan que la dimensión del espacio-tiempo sea diez.

 

 

10 dimensiones = 9 espaciales y 1 temporal

En el análisis final, el origen de la teoría decadimensional es tan misterioso como el propio Ramanujan. Si alguien preguntara a cualquier físico del mundo por qué la naturaleza debería existir en diez dimensiones, estaría obligado a responder “no lo sé”. Se sabe en términos difusos, por qué debe seleccionarse alguna dimensión del espacio tiempo (de lo contrario la cuerda no puede vibrar de una forma cuánticamente autoconsistente), pero no sabemos por qué se seleccionan estos números concretos.

Quizá la respuesta a todo esto esté esperando a ser descubierta cuando alguien (algún genio matemático como Perelman) sea capaz de entender el contenido de los cuadernos perdidos de Ramanujan.

Está claro que, este simple comentario no explica lo que la Ciencia es y, desde luego, tendríamos que ir a una complejidad mucho más profunda y elevada para poder hablar de algunas ramas de la Ciencia que requieren de un nivel de comprensión de la Naturaleza que, de ninguna manera poseo. ¿Cómo he terminado este trabajo como lo he hecho? Empecé con una intención y, por el camino, como si tuviera vida propia, los pensamientos te llevan por otros senderos que, nunca habías pensado recorrer. ¡Qué cosas!

emilio silvera

¡Los materiales para la vida!

Autor por Emilio Silvera    ~    Archivo Clasificado en Bioquímica    ~    Comentarios Comments (1)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

 

¡La Física! Cuando se asocia a otras disciplinas ha dado siempre un resultado espectacular y, en el caso de la Astronomía, cuando se juntó con la Física, surgió esa otra disciplina que llamamos Astrofísica. La Astrofísica es esa nueva rama de la Astronomía que estudia los procesos físicos y químicos en los que intervienen los fenómenos astronómicos. La Astrofísica se ocupa de la estructura y evolución estelar (incluyendo la generación y transporte de energía en las estrellas), las propiedades del medio interestelar y sus interacciones en sus sistemas estelares y la estructura y dinámica de los sistemas de estrellas (como cúmulos y galaxias) y sistemas de galaxias. Se sigue con la Cosmología que estudia la naturaleza, el origen y la evolución del universo. Existen varias teorías sobre el origen y evolución del universo (big bang, teoría del estado estacionario, etc.

Las estrellas, como todo en el Universo, no son inmutables y, con el paso del Tiempo, cambian para convertirse en objetos diferenters de los que, en un principio eran. Por el largo trayecto de sus vidas, transforman los materiales simples en materiales complejos sobre los que se producen procesos biológico-químicos que, en algunos casos, pueden llegar hasta la vida.

Una de las cosas que siempre me han llamado poderosamente la atención, han sido las estrellas y las transformaciones que, dentro de ellas y los procesos que en su interior se procesan, dan lugar a las transiciones de materiales sencillos hacia materiales más complejos y, finalmente, cuando al final de sus vidas expulsan las capas exteriores al espacio interestelar dejando una extensa región del espacio interestelar sembrada de diversas sustancias que, siguiendo los procesos naturales e interacciones con todo lo que en el lugar está presente, da lugar a procesos químicos que transforman esas sustancias primeras en otras más complejas, sustancias orgánicas simples como, hidrocarburos y derivados que, finalmente, llegan a ser los materiales necesarios para que, mediante la química-biológica del espacio, den lugar a moléculas y sustancias que son las propicias para hacer posible el surgir de la vida.

La Química de los Carbohidratos es una parte de la Química Orgánica que ha tenido cierta entidad propia desde los comienzos del siglo XX, probablemente debido a la importancia química, biológica (inicialmente como sustancias de reserva energética) e industrial (industrias alimentaria y del papel) de estas sustancias. Ya muy avanzada la segunda mitad del siglo XX han ocurrido dos hechos que han potenciado a la Química de Carbohidratos como una de las áreas con más desarrollo dentro de la Química Orgánica actual.

Todos los animales, plantas y microbios están compuestos fundamentalmente, por las denominadas sustancias orgánicas. Sin ellas, la vida no tiene explicación (al menos que sepamos). De esta manera, en el primer período del origen de la vida tuvieron que formarse dichas sustancias, o sea, surgimiento de la materia prima que más tarde serviría para la formación de los seres vivos.

La característica principal que diferencia a las sustancias orgánicas de las inorgánicas, es que en el contenido de las primeras se encuentra como elemento fundamental el Carbono.

En las sustancias orgánicas, el carbono se combina con otros elementos: hidrógeno y oxígeno (ambos elementos juntos forman agua), nitrógeno (este se encuentra en grandes cantidades en el aire, azufre, fósforo, etc. Las distintas sustancias orgánicas no son más que las diferentes combinaciones de los elementos mencionados, pero en todas ellas, como elemento básico, siempre está el Carbono.

EDUCACIÓN AMBIENTAL PARA EL TRÓPICO DE COCHABAMBA

En el primer nivel (abajo) están los productores, o sea las plantas como maíz, frijol, papaya, cupesí, mora, yuca, árboles, hierbas, lianas, etc., que producen hojas, frutas, raíces, semillas, que comen varios animales y la gente.

En el segundo nivel están los primeros consumidores, que comen hierbas, hojas (herbívoros) y frutas (frugívoros). Estos primeros consumidores incluyen a insectos como hormigas, aves como loros y mamíferos como ratones, urina, chanchos, chivas, vacas.

En el tercer nivel están los segundos consumidores (carnívoros), es decir los que se comen a los animales del segundo nivel: por ejemplo el oso bandera come hormigas, el jausi come insectos y la culebra come ratones.

Nosotros, los humanos, somos omnívoros, es decir comemos de todo: plantas y animales. Algunos de los carnívoros comen, a veces, plantas también, como los perros. Otros, como el chancho, comen muchas plantas y a veces también carne.

Las sustancias orgánicas más sencillas y elementales son los llamados hidrocarburos o composiciones donde se combinan el Oxígeno y el Hidrógeno. El petróleo natural y otros derivados suyos, como la gasolina, el keroseno, etc., son mezcolanzas de varios hidrocarburos. Con todas estas sustancias como base, los químicos obtienen sin problemas, por síntesis, gran cantidad de combinados orgánicos, en ocasiones muy complejos y otras veces iguales a los que tomamos directamente los seres vivos, como azúcares, grasas, aceites esenciales y otros. Debemos preguntarnos como llegaron a formarse en nuestro planeta las sustancias orgánicas. Está claro que, para los iniciados en estos temas, la cosa puede parecer de una complejidad inalcanzable, nada menos que llegar a comprender ¡el origen primario de las sustancias orgánicas!

Es nuestro planeta y el único habitado (que se sepa hasta el momento). Está en la ecosfera, un espacio que rodea al Sol y que tiene las condiciones necesarias para que exista vida. Claro que, ¡son tantos los mundos! Cómo vamos a ser nosotros nos únicos que poblemos el Universo? ¡Que despercidicio de espacio!

 

La observación directa de la Naturaleza que nos rodea nos puede facilitar las respuestas que necesitamos. En realidad, si ahora comprobamos todas las sustancias orgánicas propias de nuestro mundo en relación a los seres vivos podemos ver que, todas, son producidas hoy día en la Tierra por efecto de la función activa y vital de los organismos.

Las plantas verdes absorben el carbono inorgánico del aire, en calidad de anhídrido carbónico, y con la energía de la luz crean, a partir de éste, sustancias orgánicas necesarias para ellas. Los animales, los hongos, también las bacterias y el resto de organismos, menos los de color verde, se alimentan de animales o vegetales vivos o descomponiendo estos mismos, una vez muertos, pueden proveerse de las sustancias orgánicas que necesitan. Con esto, podemos ver como todo el mundo actual de los seres vivos depende de los dos hechos análogos de fotosíntesis y quimiosíntesis, aplicados en las líneas anteriores.

Incluso las sustancias orgánicas que se encuentran bajo tierra como la turba, la hulla o el petróleo, han surgido, básicamente, por efecto de la acción de diferentes organismos que en un tiempo remoto se encontraban en el planeta Tierra y que con el transcurrir de los siglos quedaron ocultos bajo la maciza corteza terrestre.

Todo esto fue causa de que muchos científicos de finales del siglo XIX y principios del XX, afirmaran que era imposible que las sustancias orgánicas produjeran en la Tierra, de forma natural, solamente mediante un proceso biogenético, o sea, con la única intervención de los organismos. Esta opinión predominante entre los científicos de hace algunas décadas, constituyó un obstáculo considerable para hallar una respuesta a la cuestión del origen de la vida.

Para tratar esta cuestión era indispensable saber cómo llegaron a constituirse las sustancias orgánicas; pero ocurría que éstas sólo podían ser sintetizadas por organismos vivos. Sin embargo, únicamente podemos llegar a esta síntesis si nuestras observaciones no van más allá de los límites del planeta Tierra. Si traspasamos esa frontera nos encontraremos con que en diferentes cuerpos celestes de nuestra Galaxia se están creando sustancias orgánicas de manera abiogenética, es decir, en un ambiente que excluye cualquier posibilidad de que existan seres orgánicos en aquel lugar.

     Estrella de carbono (estrella gigante roja)

Con un espectroscopio podemos estudiar la fórmula química de las atmósferas estelares, y en ocasiones casi con la misma exactitud que si tuviéramos alguna muestra de éstas en el Laboratorio. El Carbono, por ejemplo, se manifiesta ya en las atmósferas de las estrellas tipo O, que son las que están a mayor temperatura, y su increíble brillo es lo que las diferencia de los demás astros (Ya os hablé aquí de R. Lepori, la estrella carmesí, o, también conocida como la Gota de Sangre, una estrella de Carbono de increíble belleza).

En la superficie de las estrellas de Carbono existe una temperatura que oscila los 20.000 y los 28.000 grados. Es comprensible, entonces, que en esa situación no pueda prevalecer aún alguna combinación química. La materia está aquí en forma relativamente simple, como átomos libres disgregados, sueltos como partículas minúsculas que conforman la atmósfera incandescente de estos cuerpos estelares.

La atmósfera de las estrellas tipo B, característica por su luz brillante blanco-azulada y cuya corteza tiene una temperatura que va de 15.000 a 20.000 grados, también tienen vapores incandescentes de carbono. Pero aquí este elemento tampoco puede formar cuerpos químicos compuestos, únicamente existe en forma atómica, o sea, en forma de pequeñísimas partículas sueltas de materia que se mueven a una velocidad de vértigo.

Sólo la visión espectral de las estrellas Blancas tipo A, en cuya superficie hay una temperatura de unos 12.000º, muestras unas franjas tenues, que indican, por primera vez, la presencia de hidrocarburos –las más primitiva combinaciones químicas de la atmósfera de estas estrellas. Aquí, sin que existan antecedentes, los átomos de dos elementos (el carbono y el hidrógeno) se combinan resultando un cuerpo más perfecto y complejo, una molécula química.

Observando las estrellas más frías, las franjas características de los hidrocarburos son más limpias cuando más baja es la temperatura y adquieren su máxima claridad en las estrellas rojas, en cuya superficie la temperatura nunca es superior a los 4.000º.

Es curioso el resultado obtenido de la medición de Carbono en algunos cuerpos estelares por su temperatura:

  • Proción: 8.000º
  • Betelgeuse: 2.600º
  • Sirio: 11.000º
  • Rigel: 20.000º

 

Como es lógico pensar, las distintas estrellas se encuentran en diferentes períodos de desarrollo. El Carbono se encuentra presente en todas ellas, pero en distintos estados del mismo. Las estrellas más jóvenes, de un color blanco-azulado son a la vez las más calientes. Éstas poseen una temperatura muy elevada, pues sólo en la superficie se alcanzan los 20.000 grados. Así todos los elementos que las componen, incluido el Carbono, están en forma de átomos, de diminutas partículas sueltas.

Existen estrellas de color amarillo y la temperatura en su superficie oscila entre los 6.000 y los 8.000º. En estas también encontramos Carbono en diferentes combinaciones.

El Sol, pertenece al grupo de las estrellas amarillas y en la superficie la temperatura es de 6.000º. El Carbono en la atmósfera incandescente del Sol, lo encontramos en forma de átomo, y además desarrollando diferentes combinaciones: Átomos de Carbono, Hidrógeno y Nitrógeno, Metino, Cianógeno, Dicaerbono, es decir:

  1. Átomos sueltos de Carbono, Hidrógeno y Nitrógeno.
  2. Miscibilidad combinada de carbono e hidrógeno (metano)
  3. Miscibilidad combinada de carbono y nitrógeno (cianógeno); y
  4. Dos átomos de Carbono en combinación (dicarbono).

En las atmósferas de las estrellas más calientes, el carbono únicamente se manifiesta mediante átomos libres y sueltos. Sin embargo, en el Sol, como sabemos, en parte, se presenta ya, formando combinaciones químicas en forma de moléculas de hidrocarburo de cianógeno y de dicarbono.

 

               La tormenta interminable de Júpiter y su enrarecida atmósfera

Para hallar las respuestas que estamos buscando en el conocimiento de las sustancias y materiales presentes en los astros y planetas, ya se está realizando un estudio en profundidad de la atmósfera de los grandes planetas del Sistema solar. Y, de momento, dichos estudios han descubierto, por ejemplo, que la atmósfera de Júpiter está formada mayoritariamente por amoníaco y metano. Lo cual hace pensar en la existencia de otros hidrocarburos. Sin embargo, la masa que forma la base de esos hidrocarburos, en Júpiter permanece en estado líquido o sólido a causa de la abaja temperatura que hay en la superficie del planeta (135 grados bajo cero). En la atmósfera del resto de grandes planetas se manifiestan estas mismas combinaciones.

Ha sido especialmente importante el estudio de los meteoritos, esas “piedras celestes” que caen sobre la Tierra de vez en cuando, y que provienen del espacio interplanetario. Estos han representado para los estudiosos los únicos cuerpos extraterrestres que han podido someter a profundos análisis químico y mineralúrgico, de forma directa. Sin olvidar, en algunos casos, los posibles fósiles.

Estos meteoritos están compuestos del mismo material que encontramos en la parte más profunda de la corteza del planeta Tierra y en su núcleo central, tanto por el carácter de los elementos que los componen como por la base de su estructura. Es fácil entender la importancia capital que tiene el estudio de los materiales de estas piedras celestes para resolver la cuestión del origen de las primitivas composiciones durante el período de formación de nuestro planeta que, al fin y al cabo, es la misma que estará presente en la conformación de otros planetas rocosos similares al nuestro, ya que, no lo olvidemos, en todo el universo rigen las mismas leyes y, la mecánica de los mundos y de las estrellas se repiten una y otra vez aquí y allí, a miles de millones de años-luz de nosotros.

Así que, se forman hidrocarburos al contactar los carburos con el agua. Las moléculas de agua contienen oxígeno que, combinado con el metal, forman los hidróxidos metálicos, mientras que el hidrógeno del agua mezclado con el carbono forman los hidrocarburos.

Los hidrocarburos originados en la atmósfera terrestre se mezclaron con las partículas de agua y amoníaco que en ella existían, creando sustancias más complejas. Así, llegaron a hacerse presentes la formación de cuerpos químicos. Moléculas compuestas por partículas de oxígeno, hidrógeno y carbono.

Todo esto desembocó en el saber sobre los Elementos que hoy podemos conocer y, a partir de Mendeléiev (un eminente químico ruso) y otros muchos…se hizo posible que el estudio llegara muy lejos y, al día de hoy, podríamos decir que se conocen todos los elementos naturales y algunos artificiales que, nos llevan a tener unos valiosos datos de la materia que en el universo está presente y, en parte, de cómo funciona cuando, esas sustancias o átomos, llegan a ligarse los unos con los otros para formar, materiales más complejos que, aparte de los naturales, están los artificiales o transuránicos.

Aquí en la Tierra, las reacciones de hidrocarburos y sus derivados oxigenados más simples con el amoníaco generaron otros cuerpos con distintas combinaciones de átomos de carbono, hidrógeno, oxígeno y nitrógeno (CHON) en su moléculas llamadas paras la vida una vez que, más tarde, por distintos fenómenos de diversos tipos, llegaron las primeras sustancias proteínicas y grasas que, dieron lugar a los aminoácidos, las Proteínas y el ADN y RDN que, finalmente desembocó en eso que llamamos vida y que, evolucionado, ha resultado ser tan complejo y, a veces, en ciertas circunstancias, peligroso: ¡Nosotros!

emilio silvera

¡La Vida! sigue siendo misteriosa

Autor por Emilio Silvera    ~    Archivo Clasificado en Biologia    ~    Comentarios Comments (3)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Árbol de la vida simplificado

Aunque no podamos ubicar con exactitud dónde empezó la vida de una manera categórica, parece cada vez más probable que, una vez acabado el bombardeo al que fue sometida la Tierra en su juventud, la vida surgió confinada en lugares situadosm o bien por debajo del lecho marino, o bien cerca de las chimeneas volcánicas, o dentro de los sistemas hidrotermales en las margenes de las dorsales oceánicas. Una vez establecida al resguardo de lugares semejantes, el camino quedó abierto para la proliferación y diversificación.

 

Vida Primigenia, fondo de escritorio

Está claro que, a partir de todas estas suposiciones, hemos seguido especulando acerca de lo que pudo ser y, a partir de todo lo anterior, admitamos que aquellos microbios primitivos eran termófilos y que podían soportar temperaturas de entre 100 y 150 grados Celcius. Moraban al menos a un kilómetro bajo la superficie, posiblemente en el lecho marino, pero más probablemente en las rocas porosas que hay debajo. Inmersos en agua supercaliente repleta de minerales, ingerían rápidamente y procesaban hierro, azufre, hidrógeno y otras sustancias disponibles, liberando energía a partir de ciclos químicos primitivos y más bien ineficientes. Estas células primitivas eran comedoras de roca en bruto. Ni la luz ni el oxígeno desempeñaban ningún papel en su metabolismo. Ni tampoco requerían material orgánico, hacían lo que necesitaban directamente, a partir de las rocas y el dióxido de carbono disuelto en el agua.

La primera colonia microbiana tenía todo el mundo a su disposición, y un completo suministro de materiales y energía. Se habría extendido con sorprendente velocidad. La capacidad de los microbios para multiplicarse a velocidad explosiva garantizaba que ellos invadirían  rápidamente cualquier nicho accesible. Sin ninguna competencia de los residentes, podrían heredar rápidamente la Tierra. Sin embargo, dada la explosión de población, la colonia habría alcanzado pronto los limites de su habitat. Impedidos para ir a mayor profundidad por las temperaturas crecientes, e incapaces de reproducirse en los estratos superficiales más fríos, los microbios sólo podían expandirse horizontalmente a lo largo de las cordilleras volcánicas, y lateralmente a través del basalto del suelo oceánico.

La capa rígida y más externa de la Tierra, que comprende la corteza y el manto superior, es llamada litosfera.  La corteza oceánica contiene un 0,147% de la masa de la corteza terrestre.  La mayor parte de la corteza terrestre fue creada a través de actividad volcánica.  El sistema de cordilleras oceánicas, una red de 40.000 kilómetros de volcanes (25.000 millas), genera nueva corteza oceánica a un ritmo de 17 km3 por año, cubriendo el suelo oceánico con basalto.  Hawai e Islandia son dos ejemplos de la acumulación de material basáltico.

En alguna etapa, quizá hace 3.800 millones de años se alcanzó la primera gran división evolutiva, cuando un grupo de microbios se encontraron repentinamente aislados de su habitat caliente y acogedor debido a alguna catástrofe geológica, como un terremoto o una gran erupción volcánica.

Aquel grupo, islados de la colonia principal, y encerrados en una región más fría, hizo que los microbios se quedaran en estado latente o simplemente murieron, pues sus membranas eran demasiado rígidas a estas temperaturas inferiores para que su metabolismo pudiera funcionar. Sin embargo, un mutante feliz, que accidentalmente tenía una membrana más flexible, sobrevivió y se multiplicó. Al hacer la transición a condiciones más frías, el microbio mutante allanó el camino para acceder a la superficie inhabitada del planeta. Mientras tanto, para los miembros de la colonia original, confinada confortablemente en el reino subterráneo, la vida ha continuado prácicamente igual hasta nuestros días.

Un primer desarrollo clave fue un cambio que hicieron algunos organismos de las sustancias químicas a la luz como fuente de energía, y por entonces la vida debió de extenderse hasta la superficie. Probablemente, el primero de tales “fotótrofos” no utilizaba la moderna fotosíntesis de clorofila, sino algún proceso más elemental. Algunas arqueobacterias del Mar Muerto siguen utilizando una forma más bien primitiva de fotosíntesis basada en una sustancia roja relacionada con la vitamina A. La captura de la luz solar comenzó en serio con las bacterias, que descubrieron una forma de arrancar electrones de minerales, potenciarlos con fotones solares y utilizar la energía almacenada para fabricar material orgánico.

Bacteria Hidrogeno.

                                      En las profundidades abisales del oceano, las bacterias usan hidrógeno y producen materia orgánica.

Un refinamiento posterior los liberó de la dependencia de minerales, permitiendo a las bacterias arrancar electrones del agua y liberar oxígeno en consecuencia. El componente crucial en este ingenioso proceso era la clorofila, la sustancia que da el color verde a las plantas. Puesto que sólo se necesitaba agua, dióxido de carbono y luz, estaba abierto el camino para el verdor del planeta.

Todavía queda por responder cómo y cuando aparecieron  los tres grandes dominios: arqueobacterias, bacterias y eucarias. Parece probable que la gran división en el árbol de la vida entre arqueobacterias y bacterias tuvo lugar antes de la invención de la fotosíntesis, quizá tan temprano como hace 3.900  o  4.000  millones de años, bien entrada la era del bombardeo intenso.

La evidencia apunta a que las arqueobacterias sean los organismos más viejos y más primitivos, y que las bacterias aparecieron algo más tarde. Tan profunda era la división entre las arqueobacterias y las bacterias que ellas no han sido nunca rivales; siguen ocupando nichos diferentes después de varios miles de millones de años de evolución.

Finalmente, la profunda escisión que produjo el dominio de las eucarias ocurrió probablemente cuando las condiciones eran algo más frías. Por alguna razón, quizá por estar espuestas a los desafíos de un entorno menos estable, las eucarias de temperatura más baja se desarrollaron a un ritmo mucho más rápido.

El posterios florecimiento de la vida, su diversificación en muchas especies, y el enorme aumento de la complejidad biológica derivan  directamente de la ramificación de las eucarias en el árbol de la vida. Sin este paso trascendental, es poco probable que nosotros -o cualesquiera otros seres sintientes- existiéramos hoy en la Tierra para poder reflexionar sobre el significado de la vida en la Tierra desde sus comienzos hasta el momento presente.

Mas tarde, en 1969, Robert Whuttaker propone una clasificación de los seres vivos en cinco reinos, en la que incorpora la distinción procariota-eucariota (ésta se considera actualmente mucho más importante que la de vegetal-aminal del sistema tradicional). Así quedan patente las diferencias entre las algas verde-azuladas(cuanolíceas) y las bacterias (ambas sin núcleo patente (procariotas) y todos los demás organismos que tienen un núcleo rodeado por membrana (eucqariotas). Los procariotas fueron incluídos en el reino Monera y los eucariotas en los cuatro restantes.

A partir de esta clasificación ha surgido la de Margulis- Schwartz (1985), también en cinco reinos (es la que aúin aparedce en lso libros de texto). Se basa en estudios fologenéticos y tiene la ventaja de hacer grupos más homogéneos. Cambia el reino protistas por el de Protostistas, en el que incluye a Protozoos, todas las algas (excepto cianofíceas) y los hongos inferiores.

Difícilmente podríamos aquí, en un simple repaso a lo que fue el comienzo y la evolución de la vida primigenia en nuestro planeta, hacer una relación pormenorizada de todo lo que ello implica y, nos limitamos, como podeís ir comprobando, a dejar trabajos sueltos con retazos de lo que “pudo haber sucedido” para que, de alguna manera, podamos llegar a una más amplia comprensión de tan complejo problema. Nada más y nada menos que…¡La Vida!

emilio silvera