Jun
9
La Frontera KT – Hablemos de eso
por Emilio Silvera ~ Clasificado en General ~ Comments (0)
Situación de los continentes a finales del Cretácico. El cráter de Chicxulub está señalado en el centro de la imagen. Los fantásticos dinosaurios que, si no tuviéramos la evidencia fósil nunca hubiéramos creído su existencia
La teoría más extendida de todas las que intentan explicar la extinción del 65% de las especies que habitaban la Tierra hace 65 millones de años, se refiere al impacto de un gran meteorito en Chicxulub que formó un cráter de 180 kilómetros de diámetro. La prueba esgrimida como definitiva fue el hallazgo de esférulas derivadas del impacto inmediatamente debajo del límite estratigráfico entre el Cretácico y el Terciario, junto con la detección de una anomalía de iridio coincidente con la extinción masiva de foraminíferos marinos, y el descubrimiento y datación del propio cráter de Chicxulub.
Pero para entender de qué hablamos señalemos cuestiones sencillas que todos entendemos como, por ejemplo, la muerte de los dinosaurios que se extinguieron (según todos los indicios) hace ahora 65 millones de años, como parte de una extinción masiva de la vida en la Tierra, algo tan claramente reflejado en el registro fósil que se utiliza para marcar el final de un período de tiempo geológico, el cretáceo, y el comienzo de otro, el terciario.
La huella dejada por aquel acontecimiento en el todo el mundo, no deja lugar a dudas para los geólogos. La señal, les habla del pasado.
Puesto que la “C” ya se ha utilizado como inicial en un contexto similar en relación con el período Cámbrico, este marcador se suele denominar Frontera K-T, con una “K” de Kreide, que es el nombre del Cretáceo en alemán. No fueron solos los dinosaurios los que resultaron afectados (aunque por sus características son los que siempre aparecen con mayor protagonismo en el suceso). Alrededor del 70 por ciento de todas las especies que vivían en la Tierra a finales del Cretáceo habían desaparecido al principio del Terciario, lo cual nos indica que se trató realmente de una “extinción en masa” y explica por qué los geólogos y los paleontólogos utilizan la frontera K – T como un marcador importante en el registro fósil.
Dadas las dificultades que plantean unas pruebas de tiempos tan remotos, y la lentitud con la que se acumulan los estratos geológicos, todo lo que podemos decir sobre la velocidad a la que se produjo aquella extinción es que sucedió en menos de unas pocas decenas de miles de años o en unos cien mil años; sin embargo, esto se considera un cambio brusco en relación con la escala de tiempo utilizada en geología.
La hipótesis propone que un asteroide de 15 kilómetros de diámetro impactó en algún lugar de la Tierra (después se identificó con un cráter en las inmediaciones de la península del Yucatán, el llamado cráter de Chicxulub), levantando millones de toneladas de corteza continental volatilizada a la atmósfera. Posteriormente, tras unas prospecciones petrolíferas se encontró la posible huella del evento buscado, como se puede observar en la siguiente imagen:
El impacto que creó un cráter de 180 kilómetros de diámetro ocasionó que millones de toneladas de plataforma continental fueran volatilizadas y enviadas a decenas de kilómetros de altura ocasionando una nube de polvo muy densa que persistió durante años llevando al mundo a un enfriamiento global siendo aquel el mayor invierno nuclear que ha visto la Tierra, que sepamos.
Las preguntas obvias que todo esto planteason las mismas que surgen tras un gran terremoto: ¿por qué sucedió? ¿podría suceder de nuevo? y, en ese caso, ¿cuándo? En el caso del suceso K – T, tenemos un candidato muy cualificado para que fuera el desencadenante que hizo que aquella extinción se produjera hacer 65 millones de años, en vez de suceder por ejemplo, hace 60 o 55 millones de años. Los restos de ese enorme cráter de arriba que data justo de entonces ha sido descubierto bajo lo que actualmente es la península de Jucatán, en Mexico, y por todo el mundo se ha encontrado estratos de hace 65 millones de años que contienen restos de Iridio, un metal abundante en el centro de la Tierra pero, muy escaso en la superficie, del que sabemos que es un componente de los meteoritos de cierto tipo.
ESA – La cara oculta de Lutetia alberga un cráter oculto
Si alguno de estos cayera sobre la Tierra, la Historia se podría repetir y, en algún caso, ni sería seguro que algo vivo pudiera seguir existiendo con la caída de un enorme “monstruo” pétreo venido del espacio interestelar a velocidades alucinantes que no podríamos frenar ni destruir. La Tierra, a pesar de su mucha y avanzada tecnología, no está preparada para solucionar estos problemas.
Se llama 2005 YU55 y no es la primera vez que tenemos noticias de él. Este asteroide de 400 metros de diámetro (el tamaño de un portaaviones) calificado en su día como potencialmente peligroso para la Tierra, se acercó el pasado 8 de noviembre a 324.600 kilómetros de nuestro planeta, una distancia inferior a la que está la Luna. En términos astronómicos, significa una arriesgada caricia en la cara. Observatorios de todo el mundo no perdieron detalle de la visita. En concreto, científicos de la NASA siguieron la trayectoria de la roca espacial desde radiotelescopios de Goldstone, California, y Arecibo, en Puerto Rico. Ante la sensación que causó la cercanía del cometa Elenin, la agencia espacial ha querido adelantarse a los más aprensivos: “el asteroide no ejercerá ninguna influencia sobre las placas tectónicas o la gravedad de la Tierra. No se notará efecto alguno.”
La trayectoria del 2005 YU55, descubierto en 2005 por astrónomos de la Universidad de Arizona, es bien conocida. En su punto máximo de aproximación llegará a 324.600 kilómetros de la Tierra (0,85 de la distancia a la Luna). Aunque 2005 YU55 visita regularmente la vecindad de la Tierra, Venus y Marte, debido a su trayectoria, el encuentro de 2011 fue el más cercano que esta roca espacial ha realizado durante los últimos 200 años. ¿Quién nos garantiza que la próxima vez será el viaje tan pacífico? Cualquier suceso podría variar su trayectoria con resultados funestos para nosotros.
En un clima así, los reptiles de sangre fría podían proliferar incluso en latitudes boreales, mientras que los fósiles de helechos y cicas encontrados en rocas del cretácico a latitudes árticas son similares a las plantas de hoy en los bosques húmedos subtropicales.
Jun
9
Los Misterios de la Tierra
por Emilio Silvera ~ Clasificado en General ~ Comments (1)
Encuentros espaciales
La más destructiva intensificación temporal de los normalmente suaves flujos de energía geotectónica –erupciones volcánicas o terremotos extraordinariamente potentes– o de energía atmosférica –vientos o lluvias anormalmente intensas–, parecen irrelevantes cuando se comparan con las (en el pasado) repetidas colisiones del planeta con cuerpos extraterrestres relativamente grandes. Que por ahora, nos están respetando y, además, tenemos el escudo de Júpiter que los atrae.
Apophis (conocido anteriormente por su designación provisional 2004 MN4) es un asteroide Atón, con una órbita próxima a la de la Tierra que, en un primer momento pareció que colisionaría con el planeta.Parece un tradición hacer grandes titulares cuando un nuevo asteroide se acerca a la Tierra. Las redes sociales se inflaman y todo el mundo se acuerda del asteroide que parece que terminó con los dinosaurios.
En el caso de Apophis, 99942 para sus íntimos, es cierto que se trata del objeto con más probabilidades de impacto, aunque sean muy lejanas. Además el nombre no ayuda. Apophis es el Dios del Caos o de las fuerzas del mal de los egipcios, lo cual sin duda es perfecto para hacer grandes titulares.
Tampoco ayuda su calificación astronómica: la NASA clasifica algunos objetos cercanos a la tierra (Near Earth Objects) como “potencialmente peligrosos”. El cóctel está servido para crear supuestos alarmantes.
Existen simulaciones de lo que puede ser el choque del meteorito en la Tierra y, desde luego, no quisiera estar aquí cuando suceda. La Tierra está siendo bombardeada continuamente por invisibles partículas microscópicas de polvo muy abundantes en todo el Sistema Solar, y cada treinta segundos se produce un choque con partículas de 1 mm de diámetro, que dejan un rastro luminoso al autodestruirse en la atmósfera. También son relativamente frecuentes los choques con meteoritos de 1 metro de diámetro, que se producen con una frecuencia de, al menos, uno al año.
Pero los impactos, incluso con meteoritos mayores, producen solamente efectos locales. Esto es debido a que los meteoritos que deambulan por la región de asteroides localizada entre Marte y Júpiter están girando alrededor del Sol en el mismo sentido que la Tierra, de manera que la velocidad de impacto es inferior a 15 Km/s.
Entre Marte y Júpiter hay cientos de miles de cuerpos pequeños que orbitan alrededor del Sol llamados asteroides. También podemoas encontrarlos más allá de Plutón, llamado cinturón de Kuiper, y que en este caso reciben el nombre de objetos transneptunianos y que están hecho de hielo. Ceres es el asteroide más grande y tiene 913 km de diámetro.
El cráter de Arizona, casi perfectamente simétrico, se formó hace 25.000 años por el impacto de un meteorito que iba a una velocidad de 11 Km/s, lo que representa una potencia cercana a 700 PW. Estas gigantescas liberaciones de energías palidecen cuando se comparan con un choque frontal con un cometa típico. Su masa (al menos de 500 millones de toneladas) y su velocidad relativa (hasta 70 Km/s) elevan su energía cinética hasta 1022 J. Aunque se perdiera un diez por ciento de esta energía en la atmósfera, el impacto sería equivalente a una explosión de unas 2.500 bombas de hidrógeno de 100 megatones.
Está claro que un fenómeno de estas características produciría impresionantes alteraciones climatológicas. Sin embargo, no es seguro y sí discutible que un impacto parecido fuese la causa de la extinción masiva del cretácico, siendo lo más probable, si tenemos en cuenta el periodo relativamente largo en que se produjo, que se podría explicar por la intensa actividad volcánica de aquel tiempo.
La frecuencia de impactos sobre la Tierra disminuye exponencialmente con el tamaño del objeto. Muchas toneladas son las que recibimos cada año de pequeños fragmentos de todo tipo pero, cuando estos van aumentando de tamaño, los sucesos de espacian de manera sustancial
Aproximadamente, cada cincuenta o sesenta millones de años se produce una colisión con un cometa, lo que significaría que la biosfera, que ha evolucionado durante cuatro mil millones de años, ha debido superar unos cuarenta impactos de este tipo. Está claro que ha salido airosa de estas colisiones, ya que aunque haya sido modificada, no ha sido aniquilada.
Supernova 1994D (SN1994D) en la galaxia NGC 4526. La supernova es el punto brillante abajo a la izquierda. Pueden llegar a brillar más que toda la galaxia completa durante un breve período de tiempo. (Crédito: NASA). Ahí, en esa explosión sin igual, se gesta la “fabricación” de materiales muy complejos como el oro y el platino…entre otros.
Igualmente, la evolución de la biosfera ha sobrevivido a las explosiones altamente energéticas de las supernovas más “cercanas”. Dado que en nuestra galaxia se produce por término medio la explosión de una supernova cada 50 años, el Sistema Solar se encuentra a una distancia de 100 parsecs de la explosión cada dos millones de años y a una distancia menor de 10 parsecs cada dos mil millones de años. En este último caso, la parte alta de la atmósfera se vería inundada por un flujo de rayos X y UV de muy corta longitud de onda, diez mil veces mayor que el flujo habitual de radiación solar, lo que implica que la Tierra recibiría, en unas pocas horas, una dosis de radiación ionizante igual a la que recibe anualmente. Exposiciones de 500 roentgens son letales para la mayoría de los vertebrados y, sin embargo, los diez episodios de esta magnitud que se han podido producir en los últimos 500 millones de años no han dejado ninguna consecuencia observable en la evolución de la biosfera.
Si suponemos que una civilización avanzada podría preparar refugios para la población durante el año que transcurre ente la llegada de la luz y la llegada de la radiación cósmica, se encontraría con la inevitable dosis de 500 roentgens cada mil millones de años, tiempo suficiente para permitir el desarrollo de una sociedad cuyo conocimiento le sirviera para defenderse de un flujo tan extraordinario y de consecuencias letales.
La fotosíntesis
Todo el Oxígeno de la Atmósfera terrestre procede del oxígeno que desprenden los organismos autótrofos durante la fotosíntesis.
La fotosíntesis es el principal proceso bioquímico que consigue pasar materiales desde el biotopo hasta la biocenosis de un ecosistema. Una vez incorporados como parte de los organismos autótrofos, los heterótrofos (por ejemplo, los animales) solo tienen que aprovecharse de aquellos; con la existencia de pequeñas cantidades de agua, todo está preparado para que el ecosistema entero comience a funcionar. Además, siempre habrá animales depredadores, carnívoros, que seguirán aprovechando los materiales de otros.
La conocida ecuación básica que describe la reacción endotérmica por la cual se sintetiza una molécula de glucosa a partir de sus seis moléculas de CO2 y H2O, y 2’8 MJ de radiación solar, es una simplificadísima caja negra. Una caja negra más realista sería la siguiente:
106 CO2 + 90 H2O + 16 NO3 + PO4 + nutrientes minerales + 5’4 MJ de radiación = 3’258 g de protoplasma (106 C, 180 H, 46 O, 16 N, 1 P y 815 g de cenizas minerales) + 154 O2 + 5’35 MJ de calor disipado.
Sin macronutrientes ni micronutrientes no se puede producir fitomasa, que está compuesta por los nutrientes básicos necesarios para todos los seres heterótrofos: azúcares complejos, ácidos grasos y proteínas.
Para entender esta caja negra hay que comenzar por destacar la acción de unos pigmentos sensibles a la luz entre los cuales destacan las clorofilas. Éstas absorben la luz en dos bandas estrechas, una entre 420 y 450 nm, y la otra entre 630 y 690 nm. Así, la energía necesaria para la fotosíntesis sólo procede de la radiación azul y roja a la que corresponde menos de la mitad de la energía total de la insolación. Esta parte de la radiación fotosintéticamente activa (RFA) no se utiliza en reducir CO2, sino en la regeneración de compuestos consumidos durante la fijación del gas.
La síntesis de fitomasa en el ciclo reductor del fosfato pentosa (RPP) –un proceso con varios pasos de carboxilación por catálisis enzimática, reducción y regeneración– tiene que empezar con la formación de trifosfato de adenosina (ATP) y nicotinamida adenina dinucleótido fosfato (NADP), que son los dos compuestos que suministran energía a todas las reacciones biosintéticas. La síntesis de las tres moléculas de ATP y las dos de NADP que se necesitan para reducir cada molécula de CO2 requiere de diez cuantos de radiación solar con longitud de onda próxima al pico rojo de absorción de la clorofila (680 nm). El carbono procedente del CO2, combinado con el hidrógeno del agua y con los micronutrientes, dará lugar a nueva fitomasa que contiene 465 KJ/mol.
La cantidad de energía de un cuanto de luz roja es de 2’92×10-19 J (el producto de la constante de Planck, 6’62×10-34 por la frecuencia de la luz, que a su vez es el cociente entre la velocidad de la luz y la longitud de onda).
Un einstein (definido como un mol o número de Avogadro, 6’02×1023) de fotones rojos tiene una energía aproximadamente igual a 17 Kg. Suponiendo que la RFA es el 45% de la luz directa, la eficiencia global de la fotosíntesis es del 11%, que equivale a 456/(1.760/0’43). Esta eficiencia se reduce por lo menos en una décima parte más si tenemos en cuenta la reflexión de la luz en las hojas y la pérdida que supone atravesar la cubierta vegetal. Ninguna planta, sin embargo, se acerca siquiera a esta eficiencia teórica, porque parte de la luz absorbida por las clorofilas (generalmente, el 20 – 25 por ciento) vuelve a ser emitida en forma de calor, debido a que los pigmentos no pueden almacenar la luz y las reacciones enzimáticas no se producen con suficiente velocidad como para utilizar completamente el flujo de energía incidente. En la respiración se cede el carbono fijado en el metabolismo de la planta y en el mantenimiento de las estructuras que la soportan.
Mosaico de nuestro planeta Tierra que recibe una fracción de la energía solar
Para cada especie, la tasa con la que se pierde carbono está determinada principalmente por el tipo de fotosíntesis. Así, existen diferencias sustanciales entre las plantas C3 y C4. La respiración a escala de una comunidad o ecosistema depende del estado de crecimiento, y varía entre menos del 20 por ciento en plantas jóvenes en rápido crecimiento, hasta más del 90 por ciento en bosques maduros.
Con una pérdida del 25 por ciento para la reacción, y otro tanto para la respiración, la eficiencia fotosintética es ligeramente superior al 5 por ciento. En este punto, las estimaciones teóricas y los valores reales coinciden, ya que el valor medio de fotosíntesis neta en plantas muy productivas y en condiciones óptimas y durante cortos periodos de tiempo, oscila entre el 4 y el 5 por ciento. La mayoría de las plantas rinden en función de los nutrientes, especialmente nitrógeno y agua, o por las bajas temperaturas en las regiones de mayor altura y latitud. Los mejores rendimientos en sistemas naturales muy productivos, como los humedales y los cultivos, están entre el 2 y el 3 por ciento. En otros ecosistemas, como los pantanos tropicales templados y los bosques templados, el rendimiento de la transformación es del 1’5 por ciento, y en las praderas muy áridas sólo del 0’1 por ciento. Globalmente, la producción anual es, al menos, de 100.000 millones de toneladas de fitomasa, que se sintetizan con un rendimiento medio del 0’6 por ciento.
Mapa de clorofila en los océanos
La fotosíntesis en los océanos, muy afectada por la escasez de nutrientes, es incluso menos eficiente. La productividad medie es de poco más de 3 MJ/m2 y se realiza con un rendimiento fotosintético del 0’06 por ciento. La media ponderada total es 0’2 por ciento, es decir, que sólo uno de cada 500 cuantos de energía solar que llega a la superficie de la Tierra se transforma en energía de biomasa en forma de tejido vegetal.
La mayor parte de esta energía se almacena en forma de azúcares simples, que contienen más energía, y que sólo se encuentran en las semillas.
La mayor parte de la fitomasa está en los bosques. En los océanos, los principales productores son los organismos que componen el fitoplancton, que son muy pequeños y flotan libres. Su tamaño varía entre algo menos de 2 y 200 μm de diámetro y están formados por cantidades variables de bacterias y protoctistas eucarióticos. Las cianobacterias cocoides son tan abundantes en algunas aguas oligotrópicas que pueden ser las responsables de la mayor parte de la producción de fitoplancton.
Los protoctistas fotosintetizadores varían entre los más pequeños flagelados pigmentados (como las criptomonas y crisofitos), hasta las diatomeas y dinoflagelados, que son mayores (más de 10 mm) y generalmente dominantes. Las diatomeas están formadas por células sin flagelos, con paredes de silicio amorfo mezclados con otros compuestos orgánicos. Presentan una sorprendente y amplia variedad de diseño, desde las que tienen simetría central (las de forma radial son las dominantes en el océano), a las pennadas (simetría lateral), y otras forman largas cadenas.
La productividad de fitoplancton está controlada por la temperatura del agua y por la disponibilidad de radiación solar y nutrientes. La temperatura no es determinante, porque muchas especies son muy adaptables y consiguen una productividad similar en distintos ambientes. Aunque es frecuente la adaptación a diferentes condiciones lumínicas, tanto el volumen como en contenido en clorofila de las diatomeas aumenta con la intensidad de la luz. En el mar abierto, la mayor limitación es la cantidad de nutrientes disponibles.
Entre las carencias que más limitan la producción de fitoplancton está la de nitrógeno, el macro-nutriniente más importante, la de fósforo, y la de algunos otros micronutrientes clave como el hierro y el silicio.
Los medios menos productivos de la Tierra están en la capa superficial y la capa inmediatamente inferior de los océanos. En el mar abierto, las concentraciones más altas de nutrientes se encuentran entre los 500 y los 1.000 metros, a bastante más profundidad que la zona eufórica, capa en la que penetra la luz solar y que se extiende a unos 100 metros en las aguas transparentes.
El pequeñísimo tamaño de los productores dominantes es una adaptación eficaz a la escasez de nutrientes, ya que cuanto mayor sea el cociente entre la superficie y el volumen, y más lento el hundimiento de las células de fitoplancton en la capa eufórica, mayor es la tasa de absorción de nutrientes.
Cuando las corrientes elevan a la superficie las aguas frías y cargadas de nutrientes, la producción de fitoplancton aumenta sustancialmente. Las aguas costeras de Perú, California, noroeste y sudoeste de África, y de la India occidental son ejemplos destacados de ascensión costera de aguas frías. También se dan casos de ascensión mar adentro en la mitad del Pacífico, cerca del ecuador y en las aguas que rodean la Antártida. Otras zonas altamente productivas se encuentran en las aguas poco profundas cercanas a la costa que están enriquecidas por el aporte continental de nutrientes. Este enriquecimiento, con una proporción N/P muy descompensada, es especialmente elevados en los estuarios adonde van a parar grandes cantidades de aguas residuales y fertilizantes.
Las diferentes medidas de la productividad en las aguas oligotróficas de los mares subtropicales y de las aguas eutróficas con corrientes ascensionales, varían entre menos de 50 gC/m2 y 1 gC/m2, más de un orden de magnitud. Las estimaciones de la producción global de fitoplancton están comprendidas entre 80.000 y 100.000 millones de toneladas, que representan entre dos tercios y cuatro quintos de la fitomasa total terrestre. Contrasta con el resultado anterior el hecho de que, dado el corto periodo de vida del fitoplancton (1 – 5 días), la fitomasa marina represente sólo una pequeña fracción de todo el almacenamiento terrestre.
La distribución espacial del fitoplancton muestra zonas delimitadas que se extienden a escala local y global. La exploración desde los satélites es, con gran diferencia, la que permite detectar con mayor precisión las concentraciones de clorofila y la que ha posibilitado obtener las pautas de la distribución de fitoplancton. En las aguas que rodean la Antártida se observa claramente una distribución asimétrica en dos bandas casi concéntricas. La mejor distribución se explica por el hecho de que se deba a corrientes circumpolares y a la abundancia de ácido silicílico. Pero las zonas de mayor riqueza de fitoplancton se encuentran cerca de los continentes donde los ríos arrastran abundantes nutrientes disueltos.
La vida necesita un aporte continuo de energía que llega a la Tierra desde el Sol y pasa de unos organismos a otros a través de la cadena trófica.
El plancton es el conjunto de organismos, la mayoría microscópicos, que flotan en el agua del mar o en los ríos y lagos. Existen más de 1.000.000 de especies, entre pequeños animales, microalgas y bacterias que crecen y se distribuyen alrededor del globo para llevar a cabo importantes funciones en los ecosistemas.
El fitoplancton es la base energética de las intrincadas pirámides tróficas. Las cadenas alimenticias en el océano, generalmente, son redes complicadas. Una gran parte de la fito-masa disponible no la consumen directamente los herbívoros, sino que primero se almacena en depósitos de materia muerta que, transformada por bacterias, se convertirá en alimento para otros seres heterótrofos.
La gran producción de fitoplancton puede alimentar grandes cantidades de zoo-masa. El kril, pequeños crustáceos parecidos a las quisquillas que se alimentan de diatomeas, son los organismos más abundantes en la superficie del mar; sus densas acumulaciones pueden contener hasta mil millones de individuos y su producción anual de zoo-masa quizá llegue hasta los 1.300 millones de toneladas. Esta prodigiosa cantidad de zoomasa sirve de alimento a focas, calamares y peces, así como a los mayores carnívoros de la biosfera, las especies de ballenas con barbas que se alimentan filtrando el agua.
emilio silvera
Jun
8
Los grandes números distintivos del Universo
por Emilio Silvera ~ Clasificado en General ~ Comments (0)
Si alguna de estas constantes de la Naturaleza, variaran tan sólo una millonésima, la vida no estaría presente
En la Física existen una serie de magnitudes que contienen información que es independiente del sistema de medida que elijamos, lo cual es muy valioso no sólo en los cálculos. Además, estos parámetros que fija la Naturaleza aparecen en las ecuaciones como parámetros que debemos ajustar lo más que podamos para que nuestras predicciones y nuestros modelos se ajusten a la realidad en la medida de lo posible.
Y aquí es donde viene el problema. Que son parámetros, es decir, su valor cuantitativo no es deducible de la teoría y por tanto hay que medirlo. Y esto añade la dificultad no sólo de idear un experimento, sino de hacerlo lo bastante preciso como para que el modelo sirva para algo.
El Modelo Estándar por ejemplo, que es el paradigma actual en el que se mueve la física de partículas y que recoge las interacciones fundamentales tiene unos 25 parámetros que se deben ajustar. Parámetros tales como la carga eléctrica, la masa, el espín, las constantes de acoplamiento de los campos, que miden la intensidad que éstos tienen, etcétera.
Ya no sólo se trata de averiguar el valor de cada una de ellas. Tampoco sabemos decir de antemano cuantas constantes fundamentales puede haber. Y es evidente que cuantas más constantes hay, más complicado se nos hace nuestro modelo.”
Si miramos hacia atrás en el Tiempo podemos contemplar los avances que la Humanidad logró en los últimos tiempos, caigo en la cuenta de que poco a poco hemos sido capaces de identificar una colección de números mágicos y misteriosos arraigados en la regularidad de la experiencia.
¡Las constantes de la naturaleza!
Dan al universo su carácter distintivo y lo hace singular, distinto a otros que podría nuestra imaginación inventar. Estos números misteriosos, a la vez que dejan al descubierto nuestros conocimientos, también dejan al desnudo nuestra enorme ignorancia sobre el universo que nos acoge. Las medimos con una precisión cada vez mayor y modelamos nuestros patrones fundamentales de masa y tiempo alrededor de su invarianza; no podemos explicar sus valores.
La Naturaleza nos manda mensajes que no siempre comprendemos
Nunca nadie ha explicado el valor numérico de ninguna de las constantes de la naturaleza. ¿Recordáis el 137? Ese número puro, adimensional, que guarda los secretos del electrón (e), de la luz (c) y del cuanto de acción (h). Hemos descubierto otros nuevos, hemos relacionado los viejos y hemos entendido su papel crucial para hacer que las cosas sean como son, pero la razón de sus valores sigue siendo un secreto profundamente escondido.
La Constante de la Estructura Fina, un número fundamental que afecta al color de la luz emitido por los átomos y todas las interacciones químicas, no ha cambiado en más de siete mil millones de años.
Esta constante ocupa un papel central en la física, apareciendo en casi todas las ecuaciones que involucran la electricidad y el magnetismo, incluso aquellas que describen la emisión de ondas electromagnéticas.
La constante, designada por la letra alfa del alfabeto griego en muchos textos, es una proporción de otras “constantes” de la naturaleza. Igual al cuadrado de la carga del electrón dividida por el producto de la velocidad de la luz multiplicada por la Constante de Planck, Alfa cambiaría, según una teoría reciente, sólo si la velocidad de la luz cambiase en el tiempo. Algunas teorías de energía oscura o de gran unificación, en particular aquellas que involucran muchas dimensiones extra más allá de las cuatro del espacio y tiempo con las que estamos familiarizados, predicen una evolución gradual de la constante de estructura fina.
Buscar esos secretos ocultos implica que necesitamos desentrañar la teoría más profunda de todas y la más fundamental de las leyes de la naturaleza: descubrir si las constantes de la naturaleza que las definen están determinadas y conformadas por alguna consistencia lógica superior o si, por el contrario, sigue existiendo un papel para el azar.
Si estudiamos atentamente las constantes de la naturaleza nos encontramos con una situación muy peculiar. Mientras parece que ciertas constantes estuvieran fijadas, otras tienen espacio para ser distintas de las que son, y algunas no parecen afectadas por ninguna otra cosa del - o en el – universo.
¿Llegaron estos valores al azar?
¿Podrían ser realmente distintos?
¿Cuán diferentes podrían ser para seguir albergando la existencia de seres vivos en el universo?
En 1.986, el libro The Anthropic Cosmological Principle exploraba las diez maneras conocidas en que la vida en el universo era sensible a los valores de las constantes universales. Universos con constantes ligeramente alteradas nacerían muertos, privados del potencial para desarrollar y sostener la complejidad que llamamos vida.
En la literatura científica puede encontrarse todo tipo de coincidencias numéricas que involucran a los valores de las constantes de la naturaleza. He aquí algunas de las fórmulas propuestas (ninguna tomada en serio) para la constante de estructura fina.
Valor experimental: 1/α = 137’035989561…
- Lewis y Adams: 1/α = 8π (8π5 / 15)1/3 = 137’384
- Eddington: 1/α = (162 – 16) / 2 + 16 – 1 = 137
- Wiler: 1/α = (8π4 / 9)(245! / π5)1/4 = 137’036082
- Aspden y Eagles: 1/α = 108π (8 / 1.843)1/6 = 137’035915
Por supuesto, si la teoría M da al fin con una determinación del valor de 1/α podría parecerse perfectamente a una de estas fórmulas especulativas. Sin embargo ofrecería un amplio y constante edificio teórico del que seguiría la predicción.
También tendría que haber, o mejor, que hacer, algunas predicciones de cosas que todavía no hemos medido; por ejemplo, las siguientes cifras decimales de 1/α, que los futuros experimentadores podrían buscar y comprobar con medios más adelantados que los que ahora tenemos, a todas luces insuficientes en tecnología y potencia.
Este letrero en el mejor sitio de todas las viviendas de los mejores físicos, para recordrales lo que no saben
Todos estos ejercicios de juegos mentales numéricos se acercan de manera impresionante al valor obtenido experimentalmente, pero el premio para el ingeniero persistente le corresponde a Gary Adamson, cuya muestra de 137-logía se mostraron en numerosas publicaciones.
Estos ejemplos tienen al menos la virtud de surgir de algún intento de formular una teoría de electromagnetismo y partículas. Pero hay también matemáticos “puros” que buscan cualquier combinación de potencias de números pequeños y constantes matemáticas importantes, como π, que se aproxime al requerido 137’035989561… He aquí algún ejemplo de este tipo.
- Robertson: 1/α = 2-19/4 310/3 517/4 π-2 = 137’03594
- Burger: 1/α = (1372 + π2)1/2 = 137’0360157
Unidades naturales que no inventó el hombre
Ni siquiera el gran físico teórico Werner Heisenberg pudo resistirse a la ironía o irónica sospecha de que…
“En cuanto al valor numérico, supongo que 1/α = 24 33 / π, pero por supuesto es una broma.”
Arthur Eddington, uno de los más grandes astrofísicos del siglo XX y una notable combinación de lo profundo y lo fantástico, más que cualquier figura moderna, fue el responsable impulsor de poner en marcha los inacabables intentos de explicar las constantes de la naturaleza mediante auténticas proezas de numerología pura. Él también advirtió un aspecto nuevo y especular de las constantes de la naturaleza.
“He tenido una visión muy extraña, he tenido un sueño; supera el ingenio del hombre decir qué sueño era. El hombre no es más que un asno cuando tiene que exponer este sueño. Se llamará el sueño del fondo, porque no tiene fondo.”
A. S. Eddington
“El conservadurismo recela del pensamiento, porque el pensamiento en general lleva a conclusiones erróneas, a menos que uno piense muy, muy intensamente.”
Roger Scruton
Todo lo que existe… ¡Tiene una explicación! No importa la extraño que pueda ser
Hay que prestar atención a las coincidencias. Uno de los aspectos más sorprendentes en el estudio del universo astronómico durante el siglo XX, ha sido el papel desempeñado por la coincidencia: que existiera, que fuera despreciada y que fuera recogida. Cuando los físicos empezaron a apreciar el papel de las constantes en el dominio cuántico y a explorar y explorar la nueva teoría de la gravedad de Einstein para describir el universo en conjunto, las circunstancias eran las adecuadas para que alguien tratara de unirlas.
Entró en escena Arthur Eddington; un extraordinario científico que había sido el primero en descubrir cómo se alimentaban las estrellas a partir de reacciones nucleares. También hizo importantes contribuciones a nuestra comprensión de la galaxia, escribió la primera exposición sistemática de la teoría de la relatividad general de Einstein y fue el responsable de verificar, en una prueba decisiva durante un eclipse de Sol, la veracidad de la teoría de Einstein en cuanto a que el campo gravitatorio del Sol debería desviar la luz estelar que venía hacia la Tierra en aproximadamente 1’75 segmentos de arco cuando pasaba cerca de la superficie solar, y así resultó.
Arthur Eddington creyó en las teorías de Einstein desde el principio, y fueron sus datos tomados durante el eclipse solar de 1919 los que dieron la prueba experimental de la teoría general de la relatividad. La amplia cobertura informativa de los resultados de Eddington llevó a la teoría de la relatividad, y al propio Einstein, a unos niveles de fama sin precedentes.
Arthur Eddington está considerado uno de los más importantes astrónomos ingleses del siglo XX. Se especializó en la interpretación de las observaciones de los movimientos de las estrellas en el Observatorio de Greenwich. En 1913, fue uno de los primeros científicos no alemanes en entrar en contacto con las primeras versiones de la teoría general de la relatividad, e inmediatamente se convirtió en un declarado partidario.
Albert Einstein y Arthur Stanley Eddington se conocieron y se hicieron amigos. Se conservan fotos de los dos juntos conversando sentados en un banco en el jardín de Eddington en el año 1.930, donde fueron fotografiados por la hermana del dueño de la casa.
Aunque Eddington era un hombre tímido con pocas dotes para hablar en público, sabía escribir de forma muy bella, y sus metáforas y analogías aún las utilizan los astrónomos que buscan explicaciones gráficas a ideas complicadas. Nunca se casó y vivió en el observatorio de Cambridge, donde su hermana cuidaba de él y de su anciana madre.
Eddington creía que a partir del pensamiento puro sería posible deducir leyes y constantes de la naturaleza y predecir la existencia en el universo de cosas como estrellas y galaxias. ¡Se está saliendo con la suya!
Entre los números de Eddington, uno lo consideró importante y lo denominó “número de Eddington”, que es igual al número de protones del universo visible. Eddington calculó (a mano) este número enorme y de enorme precisión en un crucero trasatlántico concluyendo con esta memorable afirmación.
“Creo que en el universo hay
15.747.724.136.275.002.577.605.653.961.181.555.468.044.717.914.527.116.709.366.231.425.076.185.631.031.296
protones y el mismo número de electrones.”
Este número enorme, normalmente escrito NEdd, es aproximadamente igual a 1080. Lo que atrajo la atención de Eddington hacia él era el hecho de que debe ser un número entero, y por eso en principio puede ser calculado exactamente.
Durante la década de 1.920, cuando Eddington empezó su búsqueda para explicar las constantes de la naturaleza, no se conocían bien las fuerzas débil y fuerte, y las únicas constantes dimensionales de la física que sí se conocían e interpretaban con confianza eran las que definían la gravedad y las fuerzas electromagnéticas.
No siempre sabemos valorar la grandeza a la que puede llegar la mente humana: … que puedan haber accedido a ese mundo mágico de la Naturaleza para saber ver primero y desentrañar después, esos números puros y adimensionales …”
Eddington las dispuso en tres grupos o tres puros números adimensionales. Utilizando los valores experimentales de la época, tomó la razón entre las masas del protón y del electrón:
mp / me ≈ 1.840
La inversa de la constante de estructura fina:
2πhc / e2 ≈ 137
Y la razón entre la fuerza gravitatoria y la fuerza electromagnética entre un electrón y un protón:
e2 / Gmpme ≈ 1040
A éstas unió o añadió su número cosmológico, NEdd ≈ 1080.
¿No cabría la posibilidad de que todos los grandes sucesos presentes correspondan a propiedades de este Gran Número [1040] y, generalizando aún más, que la historia entera del universo corresponda a propiedades de la serie entera de los números naturales…? Hay así una posibilidad de que el viejo sueño de los filósofos de conectar la naturaleza con las propiedades de los números enteros se realice algún día.
Eddington a estos cuatro números los llamó “las constantes últimas”, y la explicación de sus valores era el mayor desafío de la ciencia teórica.
“¿Son estas cuatro constantes irreducibles, o una unificación posterior de la física demostrará que alguna o todas ellas pueden ser prescindibles?
¿Podrían haber sido diferentes de los que realmente son?”
Lo cierto es que, si las constantes varían aunque sólo sea una diez millonésima parte… ¿Habría vida en la Tierra?
De momento, con certeza nadie ha podido contestar a estas dos preguntas que, como tantas otras, están a la espera de esa Gran Teoría Unificada del Todo, que por fin nos brinde las respuestas tan esperadas y buscadas por todos los grandes físicos del mundo. ¡Es todo tan complejo! ¿Acaso es sencillo y no sabemos verlo? Seguramente un poco de ambas cosas; no será tan complejo, pero nuestras mentes aún no están preparadas para ver su simple belleza. Una cosa es segura, la verdad está ahí, esperándonos.
Para poder ver con claridad no necesitamos gafas, sino evolución. Hace falta alguien que, como Einstein hace 100 años, venga con nuevas ideas y revolucione el mundo de la física que, a comienzos del siglo XXI, está necesitada de un nuevo y gran impulso. ¿Quién será el elegido? Por mi parte me da igual quién pueda ser, pero que venga pronto. Quiero ser testigo de los grandes acontecimientos que se avecinan, la teoría de supercuerdas y mucho más.
emilio silvera
Jun
8
¿Qué pasa con el Cambio Climático?
por Emilio Silvera ~ Clasificado en General ~ Comments (1)
“El riego del cambio climático para España es muy preocupante”ENTREVISTA EN “EL MUNDO”
Richard Alley, experto en cambio climático y Premio BBVA Fronteras del Conocimiento.
Richard Alley hace 20 años que no paga una plaza de aparcamiento. No se considera un activista ni un ejemplo de ciudadano que ha pasado a la acción, pero cada mañana acude a su puesto de catedrático de Geociencias de la Universidad de Pennsylvania en bicicleta. Alley ha pasado más de 30 años extrayendo testigos de hielo de Groenlandia o la Antártida y leyendo en ellos la historia del clima desde hace millones de años.
Cápsulas de Tiempo para estudiar el cambio del clima
Sus propias conclusiones le permiten hablar con la firmeza: «la huella dactilar del ser humano está en el cambio climático que estamos viviendo». Ha sido investigador principal de uno de los grupos del panel científico de Naciones Unidas para el Cambio Climático (IPCC, por sus siglas en inglés). Madrid para recoger el Premio Fundación BBVA Fronteras del Conocimientos en esa categoría.
Estuvo en Madrid para recoger el Premio Fundación BBVA Fronteras del Conocimientos en esa categoría.
- ¿Así que los testigos de hielo son el ADN de la Tierra?
- Sí, es fantástico. Es como leer su diario. Podemos volver atrás en el tiempo y leer lo que escribió nuestro tatarabuelo. En el día más cálido de mitad del verano en el centro de la Antártida hace -20ºC. Así que el hielo no se derrite, pero la nieve se acumula de manera diferente durante los veranos y los inviernos. Sólo con la nieve ya podemos contar los años. Pero además de nieve, también hay polvo y pequeños trozos de micrometeoritos y divertidos isótopos creados por los rayos cósmicos y hay burbujas de aire todo ello atrapado en la nieve año tras año. Así que podemos contar un relato maravilloso sobre el pasado del clima.
- ¿Hay diferencias entre el cambio climático actual y los que ha habido del pasado?
- Cuando miramos los testigos de hielo, vemos muchísimas cosas que afectan al clima. Está afectado por el Sol, por volcanes que bloquean la luz solar, por movimientos de placas geológicas que provocan cambios lentos en las corrientes marinas… Pero los cambios en la atmósfera parecen ser el factor más importante que controla el clima. Cuando la naturaleza aumenta el CO2 a través de las emisiones de los volcanes o de otros cambios, el clima se calienta. Pero también vemos que cuando el clima cambia, la vida cambia. Hay una línea y un montón de especies mueren en esa línea. Pero en el presente, hace cerca de 30 años que el Sol tiene una actividad baja, no hay volcanes que bloqueen el Sol y las órbitas del planeta no han cambiado demasiado. Hemos aumentado el CO2 y su efecto sobre el clima explica lo que ocurre. La naturaleza está cambiando y nuestra huella dactilar está en ello.
- P.- ¿Quiere decir que la vida que conocemos cambiará?
- Sí, con un muy alto grado de confianza, si cambiamos el clima, la vida también cambiará. Ya hemos visto como se están produciendo cambios en la época de floración de algunas plantas y que están ocurriendo algunas cosas raras. Pero el cambio climático que hemos causado hasta ahora está aún por debajo de 1ºC. Pero, si continuamos quemando fuentes fósiles, después de vendrán los 2ºC, y luego los 3ºC y luego los 4ºC… Podemos empezar a ver lugares que estarán más cálidos que cualquier lugar que conozcamos hoy en todo el planeta, y eso será muy duro.
- ¿Los dos grados centígrados son la última frontera o nos podemos permitir un aumento de 3ºC?
- Podemos realmente llegar a eso y mucho más si continuamos quemando fuentes fósiles. Y ésta es la media global, y debido a que la Tierra se calienta mucho más que en el océano, casi todos nosotros viviremos en condiciones más cálidas que esa cifra global. Pero podemos contener el calentamiento si realmente queremos hacerlo. Si somos serios en las negociaciones internacionales, podemos contener el aumento en dos grados. O, en caso contrario, nos podemos ir a tres, cuatro o más, sabiendo que cada uno de esos grados será más costoso y más peligroso que el anterior.
- ¿Confía en que en París se llegue a un acuerdo que logre controlar el aumento de temperatura en dos grados?
- No confío, ya veremos. Es posible. Estamos en un momento muy interesante, con la encíclica del Papa…
- ¿Son buenas señales?
- Sí, muy buenas. Es muy interesante el texto del Papa. La ciencia en la que se basa es muy sólida.
- ¿Qué quiere decir para España un aumento como el que estamos contemplando?
- Es muy preocupante. Acabamos de ver los efectos de las olas de calor en India y Paquistán. Las zonas secas alrededor de los trópicos se harán mayores y esto puede influir en España. Si continuamos por el mismo camino, en la mayoría de lugares de la Tierra el peor verano que se recuerda hoy en día estará por debajo de la media a finales de siglo.
- Abandonando los mensajes catastróficos, ¿Qué podemos hacer como ciudadanos?
- Tenemos una larguísima tradición de quemar cosas para conseguir energía mucho más rápido de lo que la naturaleza crea otras nuevas. Quemábamos la grasa de las ballenas para tener luz por las noches y casi nos quedamos sin ballenas. Y se ha recuperado la población porque encontramos otra cosa que quemar: combustibles fósiles. Tenemos que crear un sistema energético sostenible que podamos permitirnos y que podamos construir. Dentro de 30 años tendremos un sistema que podrá abastecernos a todos prácticamente para siempre. Podremos dejar de preocuparnos por lo que vendrá después. Podremos abastecer a nuestros nietos y a los nietos de nuestros nietos.
Jun
7
El fascinante “universo” cuántico
por Emilio Silvera ~ Clasificado en General ~ Comments (1)
Las leyes que gobiernan el mundo físico tienen dos características importantes: muchas leyes de la naturaleza permanecen inalterables, no se alteran cuando cambia la escala, pero hay otros fenómenos, tales como una vela encendida o las gotas de agua, que no cambian del mismo modo. La implicación final es que el mundo de los objetos muy pequeños será completamente diferente del mundo ordinario.
Ahora tendríamos que hablar algo de la mecánica cuántica y, en ese ámbito, las reglas de la mecánica cuántica funcionan tan bien que resultaría realmente difícil refutarlas. Acordaos de los trucos ingeniosos descubiertos por Werner Hesinberg, Paul Dirac, o, Schrödinger que vinieron a mejorar y completar las reglas generales. Sin embargo, algunos de aquellos pioneros (Einstein y el mismo Schrödinger), sin embargo, presentaron serias objeciones a dicha interpretación de la naturaleza de lo muy pequeño.
Esta cosita tan pequeñita, el electrón, es inversamente proporcional en importancia para que el mundo, la Naturaleza, y, nuestro Universo sea como es. Se ha conseguido la foto de un electrón. Poder filmar y fotografiar un electrón no es fácil por dos razones: primero, gira alrededor del núcleo atómico cada 0,000000000000000140 segundos , y, porque para fotografiar un electrón es necesario bombardearlo con partículas de luz (y cualquier que haya intentado sacarle una foto a un electrón sabe que hay que hacerlo sin flash). La imagen de la izquierda es el resultado.
El electrón fue descubierto en 1.897 por el físico británico Joseph John Thomson (1.856 – 1940). El problema de la estructura (si la hay) del electrón no está resuelto. Si el electrón se considera como una carga puntual, su auto-energía es infinita y surgen dificultades en la ecuación conocida como de Lorentz–Dirac.
Muchas veces hemos hablado del electrón que rodea el núcleo, de su carga eléctrica negativa que complementa la positiva de los protones y hace estable al átomo; tiene una masa de solamente 1/1.836 de la del núcleo más ligero, el del hidrógeno que está formado por un solo protón. La importancia del electrón es vital en el universo.
Pero busquemos los “cuantos”. La física del siglo XX empezó exactamente en el año 1900, cuando el físico alemán Max Planck propuso una posible solución a un problema que había estado intrigando a los físicos durante años. Es el problema de la luz que emiten los cuerpos calentados a una cierta temperatura, y también la radiación infrarroja emitida, con menor intensidad, por los objetos más fríos (radiación de cuerpo negro).
Estaba bien aceptado entonces que esta radiación tenía un origen electromagnético y que se conocían las leyes de la naturaleza que regían estas ondas electromagnéticas. También se conocían las leyes para el frío y el calor, la así llamada “termodinámica”, o al menos eso parecía. Pero si utilizamos las leyes de la termodinámica para calcular la intensidad de una radiación, el resultado no tiene ningún sentido. Los cálculos nos dicen que se emitiría una cantidad infinita de radiación en el ultravioleta más lejano y, desde luego, esto no es lo que sucede. Lo que se observa es que la intensidad de la radiación muestra un pico a una cierta longitud de onda característica, y que la intensidad disminuye tanto para longitudes mayores como para menores. Esta longitud de onda característica es inversamente proporcional a la temperatura absoluta de objeto radiante (la temperatura absoluta se define por una escala de temperatura que empieza a 273º bajo cero). Cuando a 1.000 ºC un objeto se pone al “rojo vivo”, el objeto está radiando en la zona de luz visible.
Lo que Planck propuso fue simplemente que la radiación sólo podía ser emitida en paquetes de un tamaño dado. La cantidad de energía de uno de esos paquetes, o cuantos, es inversamente proporcional a la longitud de onda, y por tanto, proporcional a la frecuencia de radiación emitida. La fórmula es E = hν, donde E es la energía del paquete, ν es la frecuencia y h es una nueva constante fundamental de la naturaleza, la constante de Planck. Cuando Planck calculó la intensidad de la radiación térmica imponiendo esta nueva condición, el resultado coincidió perfectamente con las observaciones.
Poco tiempo después, en 1905, Einstein formuló esta teoría de una manera mucho más tajante: él sugirió que los objetos calientes no son los únicos que emiten radiación en paquetes de energía, sino que toda la radiación consiste en múltiplos del paquete de energía de Planck. El príncipe francés Louis-Victor de Broglie, dándole otra vuelta a la teoría, propuso que no sólo cualquier cosa que oscila tiene energía, sino que cualquier cosa con energía se debe comportar como una “onda” que se extiende en una cierta región del espacio, y que la frecuencia ν de la oscilación verifica la ecuación de Planck. Por lo tanto, los cuantos asociados con los rayos de luz deberían verse como una clase de partículas elementales: el fotón. Todas las demás clases de partículas llevan asociadas diferentes ondas oscilantes de campos de fuerza, pero esto lo veremos más adelante.
Onda y partícula
El curioso comportamiento de los electrones en el interior del átomo, descubierto y explicado por el famoso físico danés Niels Bohr, se pudo atribuir a las ondas de de Broglie. Poco después, en 1926, Edwin Schrödinger descubrió cómo escribir la teoría ondulatoria de de Broglie con ecuaciones matemáticas exactas. La precisión con la cual se podían realizar cálculos era asombrosa, y pronto quedó claro que el comportamiento de todos los objetos pequeños quedaba exactamente determinado por las recién descubiertas “ecuaciones de ondas cuánticas”.
Está bien comprobado que la mecánica cuántica funciona de maravilla…, pero, sin embargo, surge una pregunta muy formal: ¿Qué significan realmente estas ecuaciones?, ¿Qué es lo que están describiendo? Cuando Isaac Newton, allá en 1867 formuló cómo debían moverse los planetas alrededor del Sol, estaba claro para todo el mundo qué significaban sus ecuaciones: que los planetas estaban siempre en una posición bien definida des espacio y que sus posiciones y sus velocidades en un momento concreto determinan inequívocamente cómo evolucionarán las posiciones y las velocidades en el tiempo.
Pero para los electrones todo es diferente. Su comportamiento parece estar envuelto en misterio. Es como si pudieran “existir” en diferentes lugares simultáneamente, como si fueran una nube o una onda, y esto no es un efecto pequeño. Si se realizan experimentos con suficiente precisión, se puede determinar que el electrón parece capaz de moverse simultáneamente a lo largo de trayectorias muy separadas unas de otras. ¿Qué puede significar todo esto?
La notable capacidad de un electrón de existir en dos lugares al mismo tiempo ha sido controlada en el material electrónico más comun el – silicio – por primera vez, siendo este un gran avance para la electrónica moderna y tiene un potencial enorme para el futuro y para la creación de la computadora cuántica.
Imagen: El movimiento de los electrones en el silicio. El electrón gira alrededor de una átomo de fósforo embebido en la estructura cristalina del silicio, que se muestra en plata. La distribución de densidad electrónica no perturbado, a partir de la ecuaciones de la mecánica cuántica del movimiento se muestra en amarillo. Un pulso de láser de electrones puede modificar el estado de manera que tiene la distribución de la densidad se muestra en verde. Nuestro pulso láser en primer lugar, que llegan desde la izquierda, pone el electrón en una superposición de ambos estados, que podemos controlar con un segundo impulso, también desde la izquierda, para dar un pulso que se detecte que, saliendo a la derecha. Las características de este “eco” del pulso nos hablan de la superposición que hemos hecho.
Cuando podamos dominar el “universo” de lo muy pequeño… ¡Nuestro Universo será otro para nosotros!
Sus leyes son distintas a las del mundo cotidiano que conocemos y en el que vivimos
Las leyes de la mecánica cuántica han sido establecidas con mucha precisión; permite cómo calcular cualquier cosa que queramos saber. Pero si queremos “interpretar” el resultado, nos encontramos con una curiosa incertidumbre fundamental: que varias propiedades de las partículas pequeñas no pueden estar bien definidas de manera simultánea. Por ejemplo, podemos determinar la velocidad de una partícula con mucha precisión, pero entonces no sabremos exactamente dónde se encuentra; o a la inversa, podemos determinar la posición con precisión, pero entonces su velocidad queda mal definida. Si una partícula tiene espín (rotación alrededor de su eje), la dirección alrededor de la cual está rotando (la orientación del eje) no puede ser definida con gran precisión.
No es fácil explicar de forma sencilla de dónde viene esta incertidumbre, pero existen ejemplos en la vida cotidiana que tienen algo parecido. La altura de un tono y la duración en el tiempo durante el cual oímos el tono tienen una incertidumbre mutua similar. Para afinar un instrumento musical se debe escuchar una nota durante un cierto intervalo de tiempo y compararla, por ejemplo, con un diapasón que debe vibrar también durante un tiempo. Notas muy breves no tienen bien definido el tono.
Sí, la música influye en el cerebro
Para que las reglas de la mecánica cuántica funcionen, es necesario que todos los fenómenos naturales en el mundo de las cosas pequeñas estén regidos por las mismas reglas. Esto incluye a los virus, bacterias e incluso a las personas. Sin embargo, cuando más grande y más pesado es un objeto, más difícil es observar las desviaciones de las leyes del movimiento “clásicas” debidas a la mecánica cuántica. Me gustaría referirme a esta exigencia tan importante y tan peculiar de la teoría con la palabra “holismo”. Esto no es exactamente lo mismo que entienden algunos filósofos por holismo, y que podría definir como “el todo es más que la suma de sus partes”. Si la física nos ha enseñado algo es justo lo contrario. Un objeto compuesto de un gran número de partículas puede ser entendido exactamente si se conocen las propiedades de sus partes (partículas); basta que sepamos sumar correctamente (¡y esto no es nada fácil en mecánica cuántica!). Lo que entiendo por holismo es que, efectivamente, el todo es la suma de las partes, pero sólo se puede hacer la suma si todas las partes obedecen a las mismas leyes. Por ejemplo, la constante de Planck, h, que es igual a 6’626075… × 10-34 Julios segundo, debe ser exactamente la misma para cualquier objeto en cualquier sitio, es decir, debe ser una constante universal.
Aunque la semilla la puso Planck en 1900, fue a partir de 1930 cuando la mecánica cuántica se aplicó con mucho éxito a problemas relacionados con núcleos atómicos, moléculas y materia en estado sólido. La mecánica cuántica hizo posible comprender un extenso conjunto de datos, de otra manera enigmáticos. Sus predicciones han sido de una exactitud notable. Ejemplo de ésto último es la increíble precisión de diecisiete cifras significativas del momento magnético del electrón calculadas por la EDC (Electrodinámica Cuántica) comparadas con el experimento.
Si viajamos hacia lo muy pequeño tendremos que ir más allá de los átomos, que son objetos voluminosos y frágiles comparados con lo que nos ocupará a continuación: el núcleo atómico y lo que allí se encuentra. Los electrones, que ahora vemos “a gran distancia” dando vueltas alrededor del núcleo, son muy pequeños y extremadamente robustos. El núcleo está constituido por dos especies de bloques: protones y neutrones. El protón (del griego πρώτος, primero) debe su nombre al hecho de que el núcleo atómico más sencillo, que es el hidrógeno, está formado por un solo protón. Tiene una unidad de carga positiva. El neutrón recuerda al protón como si fuera su hermano gemelo: su masa es prácticamente la misma, su espín es el mismo, pero en el neutrón, como su propio nombre da a entender, no hay carga eléctrica; es neutro.
La masa de estas partículas se expresa en una unidad llamada mega-electrón-voltio o MeV, para abreviar. Un MeV, que equivale a 106 electrón-voltios, es la cantidad de energía de movimiento que adquiere una partícula con una unidad de carga (tal como un electrón o un protón) cuando atraviesa una diferencia de potencial de 106 (1.000.000) voltios. Como esta energía se transforma en masa, el MeV es una unidad útil de masa para las partículas elementales.