Oct
16
Energías de la Tierra
por Emilio Silvera ~ Clasificado en Energías de la Tierra ~ Comments (0)
Los volcanes
La unívoca asociación de los volcanes activos con las zonas de subducción de las grandes placas tectónicas permite localizar casi todas las erupciones recientes alrededor del océano Pacífico y, sobre todo, en América central, Sudamérica, Filipinas, Japón y Kamchatka. Una categoría menos común incluye los volcanes asociados a los puntos calientes, donde las placas tectónicas se ven atravesadas por flujos magmáticos procedentes del manto, a la cual pertenecen los volcanes de Hawai y África central.
Fuente de lava de 10 metros de altura en un volcán de Hawái
Las erupciones históricas más conocidas son las Théra, en Grecia (alrededor del 1.500 a. C.), del Vesubio en Italia (79 a. C.) y del Cracatoa (1.883 d. C.) en Indonesia, y el del monte St. Helens en el estado de Washington en 1.980. Éste último caso es la erupción volcánica mejor estudiada hasta la fecha. Se conoce, no solamente el volumen de los depósitos expulsados (0’18 Km3) y de lava (0’5 Km3), sino también un detallado desglose de la energía relacionada con la erupción.
El Vesubio: En Italia, se encuentra ubicado uno de los volcanes que más devastación ha causado en la historia. Hace varios siglos, este volcán hizo erupción destruyendo Pompeya y Herculano, matando a 25 mil personas. Según los registros, mucha gente fue petrificada viva.
Imagen del Monte St. Helens tomada el 19 de mayo de 1982.
Los flujos de calor dominan en el proceso: la energía térmica de los productos expulsados, las avalanchas, los chorros de agua, los flujos piroplásticos y las nubes de ceniza, dan un total de 1’66 EJ, cerca de veinte veces la energía cinética total de la erupción.
El 18 de mayo de 1.980, el volcán del monte St. Helens desarrolló, durante nueve horas de erupción, una energía total de 1’7 EJ, lo que equivale a una potencia media de 52 TW, es decir, unas cinco veces el consumo anual mundial de energía en el sector primario en los primeros años noventa. Aún más potentes fueron las de Bezymyannyi, Kamchatka, en 1.956 (3’9 EJ), y la de Sakurajima, Japón, en 1.914 (4’6 EJ). La mayor erupción que tuvo lugar en el siglo XIX fue la del volcán Tambora, en 1.815, que liberó más de 80 EJ de energía (basado en los depósitos de cenizas) que es un orden de magnitud superior a los anteriormente mencionados. Pero incluso la más potente erupción conocida es irrelevante comparada con las sucedieron hace varios vientos de miles de años, y que a su vez, son pequeñas comparadas con las erupciones magmáticas más antiguas.
Cuando Yellowstone estalle
Debajo del parque de Yellowstone, una monstruosa pluma de roca caliente levanta la tierra y la hace temblar. Las pasadas erupciones tuvieron una potencia comparable a la de mil montes Saint Helens. El futuro es imprevisible.
Entre las cerca de diez calderas jóvenes, enormes cráteres formados en las gigantescas erupciones que se produjeron en el último millón de años, están la de Yellowstone (formada hace 600.000 años, con un diámetro de 70 Km y 1.000 m3 de material expulsado, principalmente piedra pómez y cenizas), y la de Toba (situada en el noroeste de Sumatra, formada hace 75.000 años, de casi 100 Km de anchura y con más de 2.000 m3 de material eyectado).
Decan Traps de la India
Un prolongado periodo de erupciones volcánicas que empezó hace 66 millones de años – varios cientos de millones de años de cataclismos que lanzaron a la atmósfera enormes cantidades de cenizas y produjeron dos millones de Km3 de lava, creando la inmensa Decan Traps de la India – parece ser la causa, al menos tan plausible como la colisión de la Tierra con un asteroide, de la masiva extinción que se produjo en la frontera del cretácico y el terciario.
Aunque las erupciones históricas han supuesto una considerable pérdida en vidas humanas (cerca de 250.000 desde 1.700), pérdidas materiales enormes y han sido una de las causas más importantes de los cambios climáticos temporales, ninguna de estas consecuencias está claramente correlacionada con la energía total liberada en las mismas. Las emisiones térmicas son casi siempre dominantes, de una a tres órdenes de magnitud mayores que todos los demás flujos de energía, y se dividen en varias clases de flujos diferentes. En algunas erupciones, la mayor parte de la energía térmica liberada está asociada con la emisión de nubes de cenizas que se elevan hasta la estratosfera; así las cenizas de la erupción del monte St. Helens se elevaron a 20 Km, y otras hasta los 30 Km, e incluso más, con cambios atmosféricos locales y espectaculares puestas de Sol y uno o dos años con temperaturas más bajas de las habituales en algunas regiones. En Nueva Inglaterra, por ejemplo, no hubo verano en 1.816.
En otras erupciones, la mayor parte de la energía térmica es transportada por las corrientes piroclásticas. Estas corrientes se forman por explosión y están compuestas por partículas volcánicas, cuyos tamaños varían entre los μm y varios metros, y gases calientes. Alcanzan temperaturas cercanas a los 1.000º C, se propagan a velocidades de hasta 300 m/s y se extienden a distancias de cientos de kilómetros del lugar de origen.
Monte Pelée, 1902
En la erupción del monte Pelée, isla de Martinica en 1.902, estas nubes incandescentes acabaron con la vida de 28.000 personas. En las erupciones de los volcanes hawaianos, el principal flujo de calor está predominantemente asociado a la emisión de lavas que se desplazan lentamente; así, en la erupción del Mauna Loa en 1.950, con una energía liberada de magnitud parecida a la del monte St. Helens, no se produjeron desplazamientos de lodos, avalanchas ni nubes de cenizas.
Siendo espectaculares y a veces devastadoras, las erupciones volcánicas representan una fracción muy pequeña de la energía térmica que mueve la geotectónica terrestre. Suponiendo que en total aflora 1 Km3/año de lava continental y que las erupciones oceánicas contribuyen con otros 4 Km3/año, el calor global perdido anualmente está cerca de los 800 GW, lo cual representa solamente el 2 por ciento del flujo geotérmico terrestre global. La grandiosidad de estos fenómenos está enmascarada en ámbitos de límites regionales, que a nivel global son casi insignificantes.
emilio silvera
Oct
16
Fenómenos naturales
por Emilio Silvera ~ Clasificado en Naturaleza misteriosa ~ Comments (0)
Los científicos del Caribe están preocupados con las ráfagas de arena venidad del Sahara
Varias personas observan la silueta de La Habana desde el castillo del Morro el 21 de agosto del 2013. En los últimos días ha habido una bruma causada por nubes de polvo sahariano que llegan desde el norte de Africa. Los científicos dicen que estas nubes pueden incrementar la incidencia del asma y cambiar el patrón de los huracanes.
En estos días, los amaneceres y atardeceres podrían verse en tono rojizo en los países del Caribe, pero el bello espectáculo podría traer un mensaje poco alentador, ya que se trata de una tormenta de arena proveniente del Sahara conteniendo material biológico y químico potencialmente dañino para la salud.
Como cada año, partículas infinitamente pequeñas recorrieron miles de kilómetros desde el desierto del Sahara hacia el Caribe. A simple vista solo provocan atardeceres más intensos y algo de bruma en las mañanas, pero ahora los científicos saben que también pueden incrementar la incidencia del asma y cambiar el patrón de los huracanes.
Inusualmente grande, la cobertura de polvo que llegó en las semanas pasadas descargó material sobre las Antillas y llegó hasta Yucatán e incluso Wyoming, en el centro de Estados Unidos, según la NASA.
Aunque el fenómeno existe desde que hay arena en el desierto, los científicos están cada vez más preocupados por sus efectos, mientras buscan comunicarse para compartir investigaciones y tratan de desentrañar muchos misterios sobre estas nubes.
“Es un tema de gran envergadura y sumo interés y de importancia para la salud”, manifestó a la AP el toxicólogo de la Universidad de Puerto Rico en Mayagüez Braulio Jiménez-Vélez. “La inhalación de partículas contaminadas se puede asociar con varias enfermedades respiratorias, alergias, asma, enfermedades cardiovasculares”, agregó.
En casos extremos podría inducir cáncer de pulmón, pero los científicos aseguran que aún falta mucho por estudiar. Este año hubo dos alertas en Puerto Rico por nubes del Sahara por lo cual las autoridades hicieron un llamado a las personas que sufren de alergias y asma para que eviten actividades al aire libre. En República Dominicana se dieron a conocer alertas más suaves.
Esta tormenta cruza por encima de Las Islas Canarias camino de otros lugares que fastidiar
En Cuba los meteorólogos recordaron al público que el fenómeno es anual y se mostraron precavidos, mientras en México fue tratado como una “curiosidad meteorológica”. El fenómeno es parecido a las gigantescas tormentas de polvo que pintan el cielo de amarillo en las metrópolis asiáticas y que pueden llegar a la costa del Pacífico estadounidense, aunque sus nubes son más polvorientas todavía.
Un estudio del 2011 de Atmospheric Chemistry and Physics estimó que más del 70% de las emisiones de polvo mundiales se originan en el norte de Africa. Este fenómeno fue estudiado por el naturalista Charles Darwin a mediados del siglo XIX y es, aseguran los expertos, un ejemplo de cómo la acción humana está distorsionando un fenómeno natural.
Varios científicos consultados por AP en Cuba, Puerto Rico, México y Estados Unidos indicaron que los compuestos detectados en el polvo incluyen entre otros hierro, arsénico, mercurio, virus, bacterias, hongos, fertilizantes, pesticidas y hasta compuestos fecales.
La mayor parte del polvo atmosférico en todo el mundo tiene trazas químicas y material biológico, pero las cantidades son por lo general pequeñas como para constituir un riesgo. Joseph M. Prospero, profesor emérito de la Universidad de Miami, aseguró que algunas muestras tomadas en Barbados contenían niveles elevados de arsénico y cadmio, pero no eran peligrosos.
“Ha sido extremadamente difícil vincular la composición de la partícula específica a efectos en la salud “, dijo Prospero, autor de un artículo sobre el tema que se publicará en septiembre en el boletín de la Sociedad Americana de Meteorología. “No se puede decir qué efecto tiene todo este polvo, pero sí hay motivos para cierta preocupación”.
El fenómeno es seguido de cerca por el Instituto de Meteorología de Cuba.
Además hay que tener en cuenta que este proceso genera otros efectos sobre los territorios al sur del Sahara, el incremento de la sequía produce un gran stress en los bosques y plantaciones que propician la ocurrencia de incendios forestales cada vez más frecuentes y devastadores con sus correspondientes consecuencias.
“Hemos hecho un estudio amplio de muchos años del comportamiento del polvo”, comentó a la AP el experto cubano Eugenio Mojena, del Instituto de Meteorología.
Mojena indicó que el mecanismo de la nube es “sencillo”: bajo las condiciones extremas de sequía del norte de Africa, las tormentas del Sahara levantan partículas súper finas y los vientos Alisios las trasladan.
Los compuestos, explicó Mojena, no solo pertenecen al desierto como tal, sino a las zonas al sur aledañas (Sahara-Sahel) donde se realiza una agricultura con el uso de productos químicos.
Los expertos coinciden además en la incidencia que tiene en los ecosistemas, por ejemplo los corales que se afectan con el aumento de algas “abonadas” por el hierro de la nube, un aspecto de interés económico para unos países que viven del turismo de playa.
“El polvo actual no es el mismo que medía Darwin, no tenía DDT, no tenía pesticidas, ni herbicidas”, manifestó Mojena. Las nubes también pueden complicar el tráfico aéreo, reduciendo la visibilidad, explicó Jason Dunion, investigador de la Administración Nacional Oceánica y Atmosférica de Estados Unidos, pero no lo suficiente como para obligar a las desviaciones de los vuelos comerciales o cerrar aeropuertos.
Para Mojena la cantidad de polvo que llega a Cuba se incrementó en 10 veces en las últimas tres décadas, mientras su colega puertorriqueño Jiménez-Vélez aseguró que en lo que a ellos respecta detectaron un incremento en el número de tormentas a lo largo de estos los años.
Omar Torres, investigador especializado en física atmosférica de la NASA, explicó que los estudios por satélite comenzaron en 1980 y no muestran aumento de las emisiones de polvo del Sahara fuera de la variabilidad estacional normal, aunque admitió que las emisiones son más altas que los niveles de 1960.
En esta ocasión, advirtió Torres, la nube de comienzos de agosto llegó hasta el centro de los Estados Unidos. “El avance de este año hasta llegar a Wyoming (Estados Unidos) fue totalmente inesperado. Nunca he visto nada como eso en los últimos años”, expresó Torres.
Por otra parte, lo cierto es que, las tormentas de arena del Sahara son una fuente importante de minerales escasos para las plantas de la pluvisilva amazónica. Nunca llueve a gusto de todos y, como dicen que la Naturaleza es “sabia”… ¿quién sabe por qué hace muchas de las cosas que hace?
En los últimos años, además, los científicos han estado descubriendo el papel que juegan las nubes del Sahara en la formación –o desintegración– de los huracanes, cuya mayor intensidad debido al cambio climático preocupa a los países del Caribe.
La nube del desierto tiene un efecto “trascendental para la inhibición de los de ciclones tropicales”, manifestó a la AP el experto del Servicio Meteorológico Nacional de la Comisión Nacional del Agua de México, Juan Antonio Palma Solís.
Pero incluso con todo lo que hoy sabemos del fenómeno gracias al desarrollo de la tecnología satelital, los científicos coincidieron en la necesidad de compartir más sus trabajos y coordinarlos regionalmente. “Estamos en un planeta que no deja de moverse… hay que meterle invstigación”, señaló Palma.
Los científicos que estudian las tormentas de arena saben desde hace tiempo que la arena del Sahara puede viajar a través del Atlántico hasta América. Sin embargo, la arena asiática tiene que viajar mucho más lejos para llegar al mismo destino. En Abril del 2001, los investigadores observaron con sorpresa como la arena de una tormenta asiática cruzó el Pacífico alcanzando lugares tan lejanos cómo los Grandes Lagos e incluso Maryland.
emilio silvera
El presente trabajo, en su mayor parte (salvo algunos añadidos) corresponde al redactor de ciencia Seth Borenstein en Washington y los corresponsales Peter Orsi en La Habana y Dánica Coto en Puerto Rico que contribuyeron con este reportaje.
Oct
15
¡La Física Cuántica! ¿Llegaremos a comprenderla?
por Emilio Silvera ~ Clasificado en Física Cuántica ~ Comments (5)
Es realmente maravilloso que podamos haber llegado, en el extremo de las escalas, hasta esos mundos fantáscitos que nos proporcionan los “universos” de lo muy pequeño y de lo muy grande. Lo más cotidiano para nosotros es lo que se encuentra en el macro mundo, lo que se interrelaciona directamente con nosotros, lo que podemos ver y tocar. Sin embargo, ahí está ese otro “mundo” que se nos escapa a los sentidos pero que es, tan real como el otro. Es el espacio que describe la mecánica cuántica y que nos habla de maravillas y procesos asombrosos que son, tan reales como los que contemplamos a nuestro alrededor.
No podemos ver todo lo que existe. Sin embargo, no por estar fuera de nuestra visión deja de existir, ahí está formando parte de ese otro mundo que se nos escapa, al que nuestras percepciones directas, nuestros sentidos, no pueden llegar pero que henmos podido alcanzar a “ver” mediante los ingenios que hemos podido inventar para acceder, de manera indirecta, a ese espacio que se escapa de nosotros por su pequeñez y que, no por ello deja de tener una gran importancia para nosotros y para todo el mundo que nos rodea, de hecho, de esas “pequeñas cositas” resulta estar hecho el Universo. He leído por ahí:
“La mayor parte de la gente desconoce que la mecánica cuántica, es decir, el modelo teórico y práctico dominante hoy día en el ámbito de la ciencia, ha demostrado la interrelación entre el pensamiento y la realidad. Que cuando creemos que podemos, en realidad, podemos. Sorprendentes experimentos en los laboratorios más adelantados del mundo corroboran esta creencia.
El estudio sobre el cerebro ha avanzado mucho en las últimas décadas mediante las tomografías.
Conectando electrodos a este órgano, se determina donde se produce cada una de las actividades de la mente. La fórmula es bien sencilla: se mide la actividad eléctrica mientras se produce una actividad mental, ya sea racional, como emocional, espiritual o sentimental y así se sabe a qué área corresponde esa facultad.
Estos experimentos en neurología han comprobado algo aparentemente descabellado: cuando vemos un determinado objeto aparece actividad en ciertas partes de nuestro cerebro…. pero cuando se exhorta al sujeto a que cierre los ojos y lo imagine, la actividad cerebral es ¡idéntica! Entonces, si el cerebro refleja la misma actividad cuando “ve” que cuando “siente”, llega la gran pregunta: ¿cuál es la Realidad?
“La solución es que el cerebro no hace diferencias entre lo que ve y lo que imagina porque las mismas redes neuronales están implicadas; para el cerebro, es tan real lo que ve como lo que siente”, afirma el bioquímico y doctor en medicina quiropráctica, Joe Dispenza en el libro “¿y tú qué sabes?”. En otras palabras, que fabricamos nuestra realidad desde la forma en que procesamos nuestras experiencias, es decir, mediante nuestras emociones.”
La mecánica cuántica que conocemos en nuestros días se ha conseguido gracias a la suma de muchos esfuerzos y sería preciso entrar en la historia pasada de esta disciplina que investiga como es el mundo, como funciona la Naturaleza, para saber como se llegó a moldear esos conocimientos que nos llevan al “universo” de lo infinitesimal, de los objetos más pequeños pero que, sin ellos, no podrían existir los más grandes. Ninguna duda nos puede caber ya sobre el hecho cierto de que, la mecánica cuántica, es una de las ramas principales de la Física y está entre uno de los más grandes avances del pasado siglo XX en lo que al conocimiento humano del mundo se refiere. Nos explica el comportamiento de la materia-energía y, de hecho, sin esos conocimientos hubiera sido imposible alcanzar el nivel tecnológico del que hoy podemos disfrutar.
Un día de 1900, Max Planck escribió un artículo de ocho páginas que cambió el mundo de la física. En él nos habló del cuanto, unos pequeños paquetes de energía que eran emitidos por los cuerpoos calientes y, dejó sembrada la semilla de un árbol que no ha dejado de crecer desde entonces. Más tarde llegó Einstein que inspirado en aquel trabajo de Planck, fue un poco más allá y realizó aquel famoso trabajo conocido del Efecto fotoeléctrico. Desde entonces, los físicos no dejaron de ampliar y desarrollar las bases de nuestros conocimientos actuales.
La estructura de las fuerzas familiares como la Gravedad y el magnetismo fueron desarrolladas relativamente temprano. Todos conocemos la historia de Newton y sus trabajos y que, mucho después, dejó perfeccionado Einstein en relación a la fuerza gravitatoria. Las fuerzas electromagnéticas se determinaron también bastante pronto pero, no fue hasta 1927 cuando Dirac realizaría los primeros cálculos cuánticos de interacción de la radiación con la materia y en los años cuarenta y cincuenta gracias a los trabajos de, entre otros, Schwinger y Feynman, se construyó una teoría (electrodinámica cuántica) compatible con los principios básicos de la relatividad y la mecánica cuántica y con una capacidad predictiva asombrosa. Se han conseguido comprender éstos fenómenos, podríamos decir que al nivel de un acuerdo entre los cálculos teóricos y los resultados experimentales de más de diez cifras decimales, y, tal cosa, amigos míos, es un inmenso logro de la mente humana.
No podríamos comprender el macrocosmos sin haber descubierto antes que, en realidad, está fuertemente ligado al microcosmos, a la física subnuclear, ese mundo de lo muy pequeño que, cuando se profundiza en él, nos habla del futuro dinámico del universo y se comienza a ver con claridad como aquellas cuestiones antes no resultas, están ahí, ante nuestros ojos y para que nuestras mentes la puedan entender gracias a la dinámica activa de ese ámbito que resulta ser el campo de las partículas elementales y las fuerzas que con ellas actúan.
Las interacciones débiles y las interacciones fuertes, por su profunda lejanía, tardaron en ser comprendidas. Está claro que, el corto alcance en el que se desarrollan imposibilitaron bastante su hallazgo. Antes, los físicos no tenían acceso al mundo subatómico al que más tarde pudieron entrar de la mano de los microscopios electrónicos, los grandes aceleradores y otros ingenios de increíble alcance y precisición. Así que, a diferencia de lo que pasó con la Gravedad y el electromagnetismo, no se partía de una teoría clásica bien establecida, de manera que se tuvo que construir directamente, una teoría cuántica y relativista de ambas interacciones: la interacción nuclear débil y la interacción nuclear fuerte.
La empresa de comprender aquellas interacciones fue ardua y se tuvo que esperar hasta los año setenta para encontrar las teorías correctas y completas. En estos años se produjeron, primero la demostración por el holandés Gerard ´t Hooft, culminando los trabajos de su mentor, el también holandés, Martinus Veltman, de la autoconsistencia (llamada, por motivos técnicos, renormalización) de las teorías propuestas fenomenológicamente por Glashow, Wienberg y Salam para interacciones débiles; y segundo, el descubrimiento de la propiedad de libertad asintótica (por Gross, Wilczek y Plotzer) de las interacciones fuertes. Ambos grupos consiguieron el Nobel, pero los tres últimos no vieron premiados sus esfuerzos hasta 30 años después, en 2004, cuando se había comprobado de manera suficiente la veracidad de sus predicciones sobre la libertad de los Quarks en su confinamiento, cuando éstos, están juntos y los Gluones, se comportan como si no estuvieran allí, sólo actúan cuando tratan de separse.
En 1973, Wilczek, un estudiante graduado trabajando con David Gross en la Universidad de Princeton, descubrió la libertad asintótica que afirma que mientras más próximos estén los quarks menor es la interacción fuerte entre ellos; cuando los quarks están extremadamente próximos la interacción nuclear entre ellos es tan débil que se comportan casi como partículas libres.
Estosd avances hicieron posible obtener teorías consistentes con la relatividad y la mecánica cuántica de ambos tipos de interacciones; teorías que, además han superado con éxito las muchas confrontaciones experimentales que han sido realizadas hasta nuestros días. Aunque no hay ni cálculos teóricos, ni resultados experimentales tan exactos como en el caso de la electrodinámica cuántica, es cierto que el nivel de precisión de los cálculos con interacciones débiles llegan a cuatro y más cifras significativas y, para interacciones fuertes, estamos alcanzando el nivel del uno por ciento.
La Interacción gravitatoria que se deja notar en las grandes estructructuras se hace presente y se deja sentir, podemos ver como funciona y cuáles son sus consecuencia. Sin embargo, en el mundo de lo muy pequeño, esta interacción, continúa siendo la cenicienta en lo que se refiere a la comprensión de la estructura microscópica y la incidencia que la interacción gravitatoria pueda tener ahí y, curiosamente, es la interacción que se conoce desde hace mucho tiempo y sabemos, perfectamente de su funcionamiento en ese ámbito de lo muy grande pero, hace mutis por el foro cuando nos acercamos al mundo de las partículas, de la mecánica cuántica. Por eso se habla tanto de que necesitamos una teoría cuántica de la gravedad.
No tenemos información alguna de la fuerza de Gravedad a nivel experimental sobre la interacción gravitatoria a cortas distancias, donde sólo se puede llegar a través de inmensas energías. A lo más que hemos podido llegar es a experimentos del tipo realizado por Eötvös, midiendo la interacción gravitatoria entre dos cuerpos a distancias del orden del centímetro: las interacciones gravitatorias entre partículas elementales (quarks, electrones o incluso núcleos) es tan minúscula que son pocas las esperanzas de poderlas medir…por ahora ni en muchom tiempo futuro, y, siendo así (que lo es), nos tenemos que dedicar a emitir conjeturas y a especular con lo que podría ser.
En el siglo XIX se consiguió uno e los logros más impresionantes que nunca pudo alcanzar la Humanidad. ¡La comprensión de los fenómenos electromagnéticos. Comprensión en la que participaron (como casi siempre) muchos científicos, entre los que podemos destacar a dos británicos: el inglés Muchael Faraday, responsable de una buena parte de la investigación y de los conceptos experimentales (de él es el concepto de campo que tan importante sería para la Física), y, el escocés James Clerk Maxwell al que le debemos la síntesis teórica que condensó en unas pocas ecuaciones fundamentales, de las propiedades de las interacciones electromagnéticas a nivel clásico, esto es, macroscópico.
Los fenómenos electromagnéticos tal y como se entendían a finales del siglo XIX, se suponían debidos a la fuerza que una carga eléctrica ejerce sobre otra: tanto si las cargas son estáticas (y entonces la fuerza viene dada por la conocida ley de Coulomb) como si están en movimiento, situación en la que se generan campos magnéticos. Las vibraciones de estos campos electromagnéticos se suponían propagándose por el éter (el “éter luminífero”) y la luz se identificaba como un caso particular de estas vibraciones electromagnéticas. La corriente eléctrica se interpretaba como una especie de fluido: recuérdese que, todavía en 1896, Lord Kelvin defendía esta naturaleza continua de la electricidad.
Lo que supuso el descubrimiento de la luz eléctrica para la Humanidad, aunque ahora lo podamos ver como cosa trivial y cotidiana, en realidad vino a cambiar el mundo que se vio de pronto, sacado bruscamente de la penunmbra para sumergirse en la más maravillosa claridad del día artificial. Aquello supuso un cambio enorme para muchos de los ámbitos sociales en las ciudades y, no digamos, más tarde, en el de los hospitales, laboratorios y también en el más cotidiano mundo doméstico.
Está claro que la luz es algo tan importante enn nuestras vidas que, sin ella, nos encontramos desamparados, desnudos y, si nos referimos a la natural, la que nos manda el Sol, la cosa sería más grave ya que, sin ella, no podríamos estar aquí. De todo esto, como de cualquiera de los temas de Física que pudiéramos escoger al azar, nos podríamos estar hablando durante años…¡es tan fascinante! ¡son tan maravillosos! todos esos conocimientos que, de alguna manera, nos acercan a que podamos comprender en funcionamiento del mundo y nos cuentan el por qué ocurren las cosas de la, manera en que la vemos que pasan. Muchas son las historias que se podrían contar de todos estos sucesos que, por el camino de los descubrimientos tuvimos que recorrer.
La teoría cuántica, recordémoslo, afirma que para todo objeto existe una función de onda que mide la probabilidad de encontrar dicho objeto en un cierto punto del espacio y del tiempo. La teoría cuántica afirma también que nunca se conoce realmente el estado de una partícula hasta que se haya hecho una observación. Antes de que haya una medida, la partícula puede estar en uno de entre una diversidad de estados, descritos por la función de onda de Schrödinger. Por consiguiente, antes de que pueda hacerse una observación o medida, no se puede conocer realmente el estado de la partícula. De hecho, la partícula existe en un estado ultramundano, una suma de todos los estados posibles, hasta que se hace una medida.
Cuando esta idea fue propuesta por primera vez por Niels Bohr y Werner Heisemberg, Einstein se revolvió contra ella. “¿Existe la luna sólo porque la mira un ratón?“, le gustaba preguntar. Según la teoría cuántica, en su más estricta interpretación, la Luna, antes de que sea observada, no existe realmente tal como la conocemos.
“La Luna puede estar, de hecho, en uno cualquiera de entre un número infinito de estados, incluyendo el estado de estar en el cielo, de estar explotando, o de no estar allí en absoluto. Es el proceso de medida que consiste en mirarla el que decide que la Luna está girando realmente alrededor de la Tierra“.
Decía Einstein con ironía.
Edwin Schrödinger, autor de la ecuación con su función de onda, se disgustó con estas interpretaciones de su ecuación. Para demostrar lo absurdo de la situación creada, Schrödinger colocó un gato imaginario en una caja cerrada. El gato estaba frente a una pistola, que está conectada a un contador Geiger, que a su vez está conectado a un fragmento de uranio. El átomo de uranio es inestable y sufrirá una desintegración radiactiva. Si se desintegra un núcleo de uranio, será detectado por el contador Geiger que entonces disparará la pistola, cuya bala matará al gato.
Para decidir si el gato está vivo o muerto, debemos abrir la caja y observar al gato. Sin embargo, ¿cuál es el estado del gato antes de que abramos la caja? Según la teoría cuántica, sólo podemos afirmar que el gato está descrito por una función de onda que describe la suma de un gato muerto y un gato vivo.
Para Schrödinger, la idea de pensar en gatos que no están ni muertos ni vivos era el colmo del absurdo, pero la confirmación experimental de la mecánica cuántica nos lleva inevitablemente a esta conclusión. Hasta el momento, todos los experimentos han verificado, favorablemente, la teoría cuántica.
La paradoja del gato de Schrödinger es tan extraña que uno recuerda a menudo la reacción de Alicia al ver desaparecer el gato de Cheshire en el centro del cuento de Lewis Carroll: “Allí me verás“, dijo el Gato, y desapareció, lo que no sorprendió a Alicia que ya estaba acostumbrada a observar cosas extrañas en aquel lugar fantástico. Igualmente, los físicos durante años se han acostumbrados a ver cosas “extrañas” en la mecánica cuántica.
La Mecánica cuántica, es , más fascinante el el Pais de las Maravillas de Alicia
Existen varias maneras de abordar esta dificultad de lo incomprensible en mecánica cuántica. En primer lugar, podemos suponer que Dios existe. Puesto que todas las “observaciones” implican un observador, entonces debe haber alguna “conciencia” en el universo. Algunos físicos como el premio Nobel Eugene Wigner, han insistido en que la teoría cuántica prueba la existencia de algún tipo de conciencia cósmica universal.
La segunda forma de tratar la paradoja es la preferida por la gran mayoría de los físicos en activo: ignorar el problema.
El físico Richard Feynman dijo en cierta ocasión: “Creo que es justo decir que nadie comprende la mecánica cuántica. No siga diciéndose a sí mismo, si puede evitarlo, “¿pero cómo puede ser así?” porque usted se meterá “hasta el fondo” en un callejón sin salida del que nadie ha escapado. Nadie sabe como puede ser eso“. De hecho, a menudo se ha dicho que de todas las teorías propuestas en el siglo XX, la más absurda es la teoría cuántica. Algunos dicen que la única cosa que la teoría tiene a su favor es que “es indudablemente correcta”.
¿Siempre será parte del misterio?
Sin embargo, existe una tercera forma de tratar esta paradoja, denominada teoría de los muchos universos. Esta teoría (como el principio antrópico) no gozó de mucho favor en la última década, pero está siendo revitalizada por la función de onda del universo de Stephen Hawking.
Pero, bueno… ¿cómo he llegado hasta aquí? Es cierto que… ¡Los senderos de la Física te pueden llevar a tántos sitios…!
emilio silvera
Oct
15
¡La Física! Siempre nos sorprende
por Emilio Silvera ~ Clasificado en Astronomía y Astrofísica ~ Comments (2)
Las veloces computadoras cuánticas hechas con átomos atrapados por haces de luz pueden estar un poco más cerca, gracias a las primeras imágenes de átomos individuales obtenidas en una de estas grillas.
La velocidad de las computadoras cuánticas tiene que ver con el hecho de que sus componentes pueden ocupar una serie de estados en lugar de sólo dos como ocurre en una computadora binaria. Ciertos algoritmos especiales podrían explotar estos estados cuánticos para resolver problemas que derrotarían a una computadora convencional.
Una candidata a computadora de este tipo es la llamada “rejilla óptica”, en la que haces de rayos láser estratégicamente ubicados hacen que los átomos ultrafríos se coloquen en forma de grilla, como si fueran huevos en su envase de cartón. Pero antes de que uno pudiera leer o escribir sobre estos átomos, algo indispensable si la rejilla fuera a actuar como una computadora cuántica, haría falta determinar las posiciones exactas de los mismos.
Ahora dos equipos de investigadores, uno conducido por Stefan Kuhr del Instituto Max Planck de Óptica Cuántica de Garching, Alemania, y el otro por Markus Greiner de la Universidad de Harvard, han dado el primer paso al obtener imágenes de átomos individuales de rubidio en una rejilla óptica. Este es un reto no sólo porque los átomos son pequeños, sino también porque los fotones de los átomos cercanos pueden interferir unos con otros, enturbiando cualquier patrón.
Para superar esto, los equipos estudiaron el patrón de luz de un solo átomo. Luego crearon un algoritmo capaz de generar una combinación de este patrón a partir de diferentes disposiciones de una grilla de átomos. Cotejando estas simulaciones con el modelo real observado, el algoritmo podía determinar cuál era la distribución de los átomos.
Cada átomo en la grilla actúa como un bit cuántico. Kuhr dice que la rejilla óptica tiene muchos más de estos “qubits” que otros sistemas enfocados en la computación cuántica, por lo que puede ofrecer mayor velocidad.
Los láseres pueden volver reales las partículas virtuales. Los láseres de última generación tienen el poder de crear materia por medio de la captura de partículas fantasmales que, de acuerdo a la mecánica cuántica, permean el espacio aparentemente vacío
El principio de incertidumbre de la mecánica cuántica implica que el espacio nunca puede estar realmente vacío. En cambio, las fluctuaciones aleatorias causan el nacimiento de un caldero hirviente de partículas, como electrones y sus homólogos de antimateria, los positrones.
Las llamadas “partículas virtuales” normalmente se aniquilan entre sí demasiado rápido para que las veamos. Pero los físicos predijeron en los años 30 que un campo eléctrico muy fuerte transformaría las partículas virtuales en reales, y entonces las podríamos observar. El campo las impulsa en direcciones opuestas, porque tienen cargas eléctricas que se oponen, y las separándolos de modo que no puede destruirse mutuamente.
Los láseres son ideales para esta tarea, porque su luz posee campos eléctricos fuertes. En 1997, los físicos del Stanford Linear Accelerator Center (SLAC), en Menlo Park, California, utilizaron luz láser para crear unas pocas parejas de electrón-positrón. Ahora, nuevos cálculos indican que los láser de nueva generación serán capaces de crear pares por millones.
Reacción en cadena
En el experimento de SLAC, sólo se creó un par electrón-positrón a la vez. Pero con los láseres más potentes, es probable que se produzca una reacción en cadena.
El primer par es acelerado a gran velocidad por el láser, haciendo que emita luz. Esta luz, junto con la del láser, genera aún más pares, dice Alexander Fedotov de la Dirección Nacional de Investigaciones Nucleares de la Universidad de Moscú y sus colegas en un estudio que aparecerá en Physical Review Letters.
“Surgirá una gran cantidad de partículas del vacío”, dice John Kirk del Instituto Max Planck de Física Nuclear en Heidelberg, Alemania, que no participó en el estudio.
En los láseres que pueden concentrar cerca de 1026 vatios en un centímetro cuadrado, esta reacción desatada debería convertir de manera eficiente la luz del láser en millones de pares de electrones positrones, calcula el equipo.
Fábrica de antimateria
Ese nivel de intensidad lo podría alcanzar un láser que será construido por el proyecto Extreme Light Infrastructure en Europa. La primera versión del láser se podría construir en 2015, pero podría llevar un año más completar las actualizaciones necesarias para llegar a 1026 vatios por centímetro cuadrado, dice el coautor del estudio Georg Korn del Instituto Max Planck de Óptica Cuántica en Garching , Alemania.
La capacidad de generar una gran cantidad de positrones podría ser útil para los colisionadores de partículas, como el propuesto del Colisionador Lineal Internacional, que impactará electrones y positrones, dice Kirk McDonald de la Universidad de Princeton en Nueva Jersey.
Pero Pisin Chen, de la Universidad Nacional de Taiwan en Taipei, dice que el costo de los poderosos láseres puede hacer que este método sea más caro que el alternativo. En la actualidad, la manera estándar de crear una gran cantidad de positrones es disparar un haz de electrones de alta energía a una pieza de metal, para producir pares electrón-positrón.
La materia supera a la antimateria en un experimento que imita a la creación
El desequilibrio en el acelerador de partículas de Illinois podría presagiar grandes avances en Física
Menos de una billonésima de segundo después del Big Bang ocurrió otro evento tumultuoso. Aunque el Cosmos nació con partes iguales de materia y antimateria, que se destruyeron una a la otra al entrar en contacto, de alguna forma la materia comenzó a predominar. Los físicos han descubierto una nueva pista sobre la causa de este desequilibrio fortuito, que condujo a la existencia de galaxias, planetas y personas.
Circunferencia de 4 kilómetros de diámetro del Acelerador de Partículas del Laboratorio Fermi de Chicago
El nuevo hallazgo se basa en ocho años de estudio de la desintegración de partículas de vida corta, llamadas mesones B, que se produce durante las colisiones de alta energía en el acelerador de partículas Tevatrón del Laboratorio Fermi (Fermilab), ubicado en Batavia, Illinois. Los científicos del experimento DZero del Tevatrón han descubierto que los mesones B, cuando se desintegran, producen cerca del 1 % más de pares de muones (una versión pesada del electrón) que de pares de sus antipartículas, los antimuones. Los físicos se refieren a este fenómeno como una violación CP.
El desequilibrio, reportado el 14 de mayo en un seminario del Fermilab y publicado en Internet el 18 de mayo, podría servir para entender cómo fue que la materia superó a la antimateria en el Universo. También aumenta las posibilidades de que el hadrones” target=”_blank”>Gran Colisionador de Hadrones, el acelerador de Suiza que sustituyó al Tevatrón como el colisionador de partículas más poderoso del mundo, encuentre nuevas partículas elementales o una nueva física.
“Aunque pequeño, este excedente del 1 % es 50 veces más grande que la asimetría entre materia y antimateria prevista para la desintegración de mesones B por el modelo estándar de la Física de Partículas”, señala el portavoz del DZero, Stefan Söldner-Rembold, de la Universidad de Manchester en Inglaterra.
“Se nos puso la piel de gallina”, cuenta Söldner-Rembold acerca del momento en el que él y los 500 colaboradores del DZero comprendieron lo que habían descubierto. “Estábamos muy contentos porque significa que hay una nueva Física más allá del modelo estándar que tiene que estar a nuestro alcance para que la asimetría sea tan grande”.
“Aunque hay una probabilidad de menos del 0,1 % de que los resultados del DZero sean una casualidad, de acuerdo con las normas de la Física de Partículas hay que considerarlos como indicios aún por confirmar”, advierte el teórico Yuval Grossman de la Universidad de Cornell. Söldner-Rembold señala que los hallazgos del DZero son similares a una asimetría en la producción de materia-antimateria descubierta hace un año por otro experimento llevado a cabo en el Tevatrón, el CDF, pero los nuevos resultados tienen una precisión mayor.
“Las teorías que podrían explicar las observaciones del DZero incluyen la supersimetría, que supone que cada partícula elemental en el modelo estándar de la Física de Partículas tiene una superpareja más pesada todavía por descubrir”, explica la teórica del Fermilab Marcela Carena, que no pertenece al equipo descubridor. “Otras teorías posibles incluyen un modelo en el que la gravedad y otras fuerzas operan en otras dimensiones ocultas, y la noción de que hay una cuarta familia de quarks más allá de las tres generaciones (arriba y abajo, encanto y extraño, y cima y fondo) que sirven como bloques de construcción de los núcleos atómicos y otras partículas.
“En los modelos que consideran una cuarta familia de quarks, la presencia de quarks nuevos y pesados y su interacción con las tres familias conocidas podrían dar lugar a un desequilibrio mayor entre materia y antimateria que el que se encuentra en el modelo estándar”, señala Carena. Y agrega: “En la teoría de la supersimetría, las superparejas pesadas jugarían un rol similar al de los quarks pesados, creando interacciones que podrían favorecer la producción de materia sobre la antimateria”.
No siempre la física lo puede explicar todo. Sin embargo… ¡Lo va consiguiendo!
En la teoría de las dimensiones extra, nuevas partículas mensajeras (portadoras de fuerzas previamente desconocidas) se moverían en dimensiones ocultas. Estas partículas transportadoras podrían alterar la carga y otra propiedad, llamada “sabor”, de las partículas elementales, causando el desequilibrio adicional entre materia y antimateria.
Carena añade: “Sin embargo, es difícil encontrar una teoría que pueda explicar esta asimetría sin contradecir otros resultados experimentales”.
La materia superó a la antimateria en el comienzo
Ulrich Nierste, de la Universidad de Karlsruhe en Alemania, advierte: “La conexión del resultado del DZero con el excedente de materia que existe en el Universo es vaga. Si bien el hallazgo insinúa una nueva fuente de asimetría en las propiedades del mesón B y de su antipartícula, el proceso que creó más partículas que antipartículas en el Universo primitivo podría involucrar un mecanismo físico muy diferente”.
“Sin embargo”, dice Carena, “hace falta alguna nueva fuente de asimetría para explicar el desequilibrio que hay entre la materia y la antimateria en el Universo, y, por lo tanto, nuestra existencia”. En cualquiera de los modelos propuestos “el Gran Colisionador de Hadrones debería ser la ventana directa para observar nuevas partículas”.
Uno de los experimentos más pequeños del Colisionador, diseñado para estudiar los mesones B, podría confirmar los hallazgos del DZero dentro de uno o dos años”, dice Yuval Grossman. Y agrega: “Los experimentos más grandes podrían entonces buscar nuevas partículas que serían el origen del desequilibrio cósmico entre materia y antimateria y determinar sus masas”.
El experimento Beauty (Belleza) es la matriz de investigación para la creación de antimateria. El choque de dos protones contra otro a la velocidad de la luz, ha tenido como resultado una partícula con 5 veces más masa que sus protones originales. A esa exótica partícula se le ha llamado B+ y está compuesta por un quark b-anti y un quark u. La partícula B+ se desintegra a una altísima velocidad pero le da tiempo a recorrer ¡¡2 mm!! antes de desintegrarse en dos partículas, el mesón J / ? y el Kaon K+. Esta distancia, comparada con los minúsculos tamaños que estamos tratando, es una auténtica pasada. Hemos tenido antimateria pura moviéndose a lo largo de dos extensos milímetros de “nuestro” espacio. Impresionante.
Lo revolucionario sin embargo es que de esta forma, los investigadores habrían demostrado la teoría de Albert Einstein. “Sí, podemos crear masa a partir de energía usando la famosa fórmula de Einstein, E=mc2, dicen los responsables del CERN. Aunque también hay que destacar que la confirmación de que existe la antimateria plantea muchas preguntas de difícil resolución puesto que esa sustancia no existe en nuestro universo. “Ya que la desaparición de antimateria primordial no puede ser explicada por el modelo tradicional, tendremos que comenzar a pensar en algo nuevo”, afirman los investigadores. “Los científicos están evaluando diferentes posibilidades pero, dado que sólo podemos observar un 4% de la energía y materia total del universo, podemos inferir que la respuesta al misterio de la antimateria se encuentra en la parte desconocida del mismo”, concluyen.
Como podéis ver, las preguntas son muchas y, las respuestas, son más escasas. Sin embargo, no dejamos de insistir y buscar con todos medios a nuestro alcance para saber sobre la Naturaleza no ya de la materia y la antimateria, sino sobre los muchos enigmas que tenemos planteados y a los que no sabemos dar una adecuada explicación. Parece que a lo lejos vemos una luz cegadora que nos inyecta la esperanza necesaria para seguir la búsqueda y tratar de llegar al corazón de todos esos secretos que el Universo esconde.
Hay cosas que… más que sorprendentes son… ¡Inclreibles! He leído por ahí que…
“Un grupo de astrónomos, usando datos del telescopio espacial Hubble, ha determinado la edad de la que es la estrella más vieja cuya edad puede medirse con precisión. El resultado ha sido que la edad de la estrella es de 14.500 ± 800 millones de años, mayor que la estimación de la edad del universo, unos 13.800 millones de años. La estrella en cuestión (HD 140283), también llamada “estrella Matusalén,” una gigante roja que se encuentra a una distancia de 190,1 años luz en la constelación de Libra (distancia medida con precisión mediante la técnica de paralaje). En el año 2000 se dató su edad en 16.000 millones de años. Sin embargo, existen algunas cuestiones que podrían aclarar la extrema edad de esta estrella. Nuevos modelos sobre la difusión de helio en el núcleo indican que la penetración del mismo podría ser mayor de la que se piensa, lo que provocaría un menor ritmo de combustión. También la relación oxígeno-hierro en esta estrella es anómala, demasiado grande, por lo que se cree que futuras observaciones que puedan determinar con mayor grado de precisión la abundancia de oxígeno podrían reducir nuevamente la estimación de la edad de la estrella.”
Oct
15
La Naturaleza a veces resulta extraña e incomprensible
por Emilio Silvera ~ Clasificado en Curiosidades ~ Comments (0)
En matemáticas se pueden trazar líneas precisas y concretas que dividan en dos clases entes de naturaleza matemática. Una estructura geométrica se puede suporponer o no a su imagen especular. Una estructura asimétrica puede tener una lateralidad a la derecha o bien a la izquierda. Immanuel Kant, el gran filósofo germano del siglo XVIII, fue el primer pensador eminente que encontró un significado filosófico profundo a las reflexiones especulares. A Kant le parcía enigmático y misterioso que un objeto asimétrico pueda existir en cualquiera de sus dos imágenes frente a un espejo. Parece magia que, poniendo algunas cosas ante un espejo y mirando esa imagen especular, las cosas puedan parecer tan diferentes y, sin embargo, así resultan ser.
Cualquier número entero positivo es par o impar, y no hay ninguno de tales números para el cual su situación a este respecto ofrezca la menor duda. Pero en el mundo, si exceptuamos el nivel subatómico de la teoría cuántica, las lineas divisortias son casi siempre difusas. El alquitrán, ¿es sólido o líquido?. Lo cierto es que, la mayoría de las propiedades físicas se “mueven” en un espectro continuo que hace que vayan cambiando de manera imperceptible de un extremo a otro del mismo.
La palabra quiral fue introducida por William Thomson (Lord Kelvin) en 1894 para designar objetos que no son superponibles con su imagen especular. Aplicado a la química orgánica, podemos decir que una molécula es quiral cuando ella y su imagen en un espejo no son superponibles.
La quiralidad está a menudo asociada a la presencia de carbonos asimétricos. Un carbono asimétrico es aquel que se une a cuatro sustituyentes diferentes. Un ejemplo de carbono asimétrico lo tenemos en la molécula de Bromocloroyodometano. El carbono está unido a bromo, cloro, yodo e hidrógeno, cuatro sustituyentes diferentes que lo convierten en quiral o asimétrico. La molécula y su imagen en un espejo son diferentes, ningún giro permite superponerlas. La relación entre una molécula y su imagen especular no superponible es de enantiómeros.
En estos dibujos podemos ver la molécula de Bromocloroyodometano y su enantiómero reflejado en el espejo. Una vez para hacer la prueba, puse en encima de una mesa unos modelos tridimensionales de los poliedros enantiamorfos y delante de ellos puse un espejo que reflejaba la figura especular que de dicha puesta en escena resultaba. Las dos escenas (la real y la especualr) eran exactamente iguales en lo que hace referencia a sus propiedades geométricas. A cada una de las aristas de cada una de las figuras le corresponde una de la misma longitud en la otra. Todo ángulo de una estaba emparejado al duplicado suyo de la otra. Ninguna medida o inspección de cualquiera de ellas reveló ni una sola característica geométrica que no tuviera la otra. En ese sentido, son figuras congruentes idénticas. ¡Pero, evidentemente, no eran idénticas!
Cuando nos ponemos delante del espejo podemos comprobar que en él, aparecen cosas sorprendentes en cuanto a que no se pueden superponer las figuras del modelo con la figura especular. Una simple mano abierta y puesta delante del espejo resulta totalmente diferente en un lado y en el otro de la superficie especular. Puedes ponerte delante del espejo y levantar ambos brazos a media altura con las dos manos abiertas y, de manera sorprendente verás que, la figura que aparece en el espejo muestra tu mano y brazo derecho como izquierdo y el izquierdo como derecho.
La propiedad de las manos, conocida por los químicos como quiralidad, es una característica que poseen muchas moléculas cuya disposición de los átomos no es completamente simétrica. Una molécula quiral se presenta en dos formas que son más bien como un par de guantes. Dos guantes, uno diestro y otro zurdo, son esencialmente idénticos, con los mismos componentes básicos, cuatro dedos y un pulgar, y la misma función de mantener las manos cómodas y protegidas. Pero, evidentemente, no son exactamente iguales: no se puede girar o voltear un guante de un tipo para que se superponga perfectamente en el otro. Pero si lo miras en un espejo, un guante de la mano izquierda se convierte en uno de la mano derecha.
¿Por qué la biología utiliza sólo una de las dos formas especulares de la imagen en la que las moléculas más complejas pueden existir? La última respuesta dada a esta pregunta afecta al campo de la astrofísica, la física de partículas y la bioquímica. La conclusión del último estudio dice que las explosiones estelares conocidas como supernovas son las culpables de que se produzca este fenómeno.
La Naturaleza, como siempre he dicho aquí, tiene muchos misterios que no hemos llegado a comprender. El paso del tiempo convierte en líquido, gas o sólido algunos materiales y, a otros, los deforma hasta perder su estructura original para convertirlos en lo que antes no eran. Nada permanece, todo cambia. Sea cual fuere la línea de división, habrá algunos casos en los que no podamos definirla y, en otros, habrá objetos tan próximos a ella que el lenguaje ordinario no será lo suficientemente preciso como para poder afirmar a qué lado pertenece. Y, la propiedad de la vida, está, precisamente, en uno de esos continuos.
Para porbar esto basta que consideremos los virus: son las estructuras biológicas más pequeñas que se conocen con la propiedad de poder “comer” (absorber sustancias situadas en sus proximidades), crecer y fabricar copias exactas de sí mismas.
Son mucho más pequeños que una bacteria (en realidad, algunos virus infectan las bacterias) y pasan sin dificultad a través de un filtro de porcelana fina que, aunque a nosotros nos parezca que está completamente sellada y su superficie es totalmente hermética y lisa, para ellos, tan “infinitamente” pequeños, ofrece miles de huecos por los que poder colarse.
Nuevas grabaciones en vídeo de un virus que infecta a las células sugiere que los virus se expanden mucho más rápido de lo que pensábamos. El descubrimiento de este mecanismo permitirá crear nuevos fármacos para hacer frente a algunos virus. En la punta de un alfiler caben millones de ellos. De hecho, los virus tienen el tamaño de una décima de micrómetro (diezmillonésima parte del metro).
El mundo de lo muy pequeño es fascinante y, por ejemplo, si hablamos de átomos, se necesitarían aproximadamente una cantidad para nosotros inconmensurable de átomos (602.300.000.000.000.000.000.000) para lograr un solo gramo de materia. Fijáos que hablamos de lo pequeño que pueden llegar a ser los virus y, sin embargo, el Hidrógeno con un sólo protón es el átomo más ligero y su masa es 400.000 veces menor que la masa de un virus, como antes dije, el organismo vivo más pequelo que se conoce. El virus más diminuto conocido mide unos o,00000002 m; su tamaño es 2.000 veces mayor que el del átomo. Y, en la punta del algiler que antes mencionamos cabrían 60.000.000.000 (sesenta mil millones) de átomos.
Los virus son nanomáquinas enormemente dañinas pero que están formados por una sencillísima estructura. Tanto es así que se puede decir que son entidades biológicas a caballo entre la materia inerte y la materia viva. Básicamente constan de una envuelta externa llamada ‘cápsida’, formada por proteínas, que se encarga de preservar el ADN en el interior. Los virus no presentan ninguna función metabólica, y consiguen reproducirse parasitando la maquinaria molecular de una célula huésped. El interés por estudiar en profundidad los virus no sólo proviene de la motivación por erradicar las enfermedades que estos producen, sino también de su estudio como materiales. Las cápsidas de los virus son extraordinariamente resistentes.
Como los virus son menores que la longitud de onda de la luz, no pueden observarse con un microscopio luminoso ordinario, pero los bioquímicos disponen de métodos ingeniosos que les permiten deducir su estructura, ya que pueden verlos mediante bombardeos con rayos X u otras partículas elementales.
En ralidad, se puede decir que un cristal “crece”, pero lo hace de un modo ciertamente trivial. Cuando se encuentra en una solución que contiene un compuesto semejante a él, dicho compuesto se irá depositando sobre su superficie; a medida que esto ocurre, el cristal se va haciendo mayor, pero el virus, igual que todos los seres vivos, crece de una manera más asombrosa: toma elementos de su entorno, los sintetiza en compuestos que no están presentes en el mismo y hace que se combinen unos con otros de tal manera que lleguen a dar una estructura compleja, réplica del propio virus.
Los virus sólo se multiplican en células vivientes. La célula huésped debe proporcionar la energía y la maquinaria de síntesis, también los precursores de bajo peso molecular para la síntesis de las proteínas virales y de los ácidos nucleicos. El ácido nucleico viral transporta la especificidad genética para cifrar todas las macromoléculas específicas virales en una forma altamente organizada.
El poder que tienen los virus de infectar, e incluso matar, un organismo, se debe precisamente a esto. Invade las células del organismo anfitrión, detiene su funcionamiento y lo sustituye, por decirlo de alguna manera, por otros nuevos. Ordena a la célula que deje de hacer lo que normalmente hace para que comience a fabricar las sustancias necesarias para crear copias de sí mismo, es decir, del virus invasor.
El primer virus que se descubrió, y uno de los más estudiados, es el virus sencillo que produce la “enfermedad del mosaico” en la planta del tabaco. Cristaliza en forma de barras finas que pueden observarse a través del microsopio electrónico. Recientemente se ha descubierto que cada barra es, en realidad, una estructura helicoidal orientada a la derecha, formada por unas 2.000 moléculas idénticas de proteína, cada una de las cuales contiene más de 150 subunidades de aminoácidos.