Ene
29
La Astrobiología: El Origen de la Vida en el contexto del Universo
por Emilio Silvera ~
Clasificado en General ~
Comments (0)
Para comprender el Universo tenemos que estudiar sus componentes, tenemos que saber de qué está hecho. La componente clásica del Universo, la que corresponde a materia y energía similares a lo que vemos a nuestro alrededor en galaxias, estrellas y planetas es una parte minoritaria: menos que el 5%. El resto está constituido por componentes exóticos, llamados por nuestro desconocimiento, simplemente “energía y materia oscura”
¿Vivimos en una Burbuja Gigante? Dicen:
“Nuevo estudio revela que vivimos dentro de una gran burbuja.”
Las leyes de la Física, aplicables a toda la materia y la energía, tienen sin duda un papel fundamental en la comprensión del Universo y por ello la Astrofísica ha tenido un desarrollo espectacular en los últimos tiempos a pesar de la escasez de materia como la que conocemos.
Los constituyentes básicos de la materia másica conocida son los fermiones como los “quarks” (púrpura) y “leptones” (verde). Los bosones (rojo) son “materia no-másica”, simplemente son las partículas mediadoras de las fuerzas fundamentales: El fotón para el electromagnetismo, el Gluón para la fuerza nuclear fuerte, las partículas W+ y W– más la Z0 intervienen en la fuerza nuclear débil.
En la lista se hecha de menos el Gravitón que aún no ha sido hallado y, se supone, que intermedia la Gravedad, la más d+ebil de las cuatro fuerzas y, si existe tal Bosón, debe ser minúsculo y no se deja ver.
Por otro lado, como el Universo es muy grande, las densidades medias son muy bajas y la materia se encuentra normalmente en estructuras muy simples, en forma de átomos y partículas individuales. La composición química del Universo y sus procesos son por ello también importantes para comprender su evolución, dando pie al uso más o menos extendido de astro-química.
Sin embargo, las moléculas complejas son relativamente raras y los organismos vivos muchísimo más. La parte Biológica del Universo que conocemos se reduce a nuestro propio planeta por lo que parece excesivo poder hablar de Astrobiología. Por qué tenemos que preocuparnos por una parte tan ínfima del Universo. Ciertamente porque los seres humanos pertenecemos a esta extraña componente y, ya que no podemos reproducir en el laboratorio el paso de la química a la biología, es en el contexto del Universo (el gran Laboratorio) y su evolución en el que podemos analizar los límites y las condiciones necesarias para que emerja la vida en cualquier sitio, dando pleno sentido al uso del término como veremos a continuación.
Único lugar conocido donde la vida emergió, ahí podemos contemplar un trozo del planeta Tierra al atardecer, cuando se acerca la noche y el Sol se esconde detrás del Horizonte para llevar el día a otros lugares.
La Astrobiología es una ciencia que ha surgido en la frontera entre varias disciplinas clásicas: la Astronomía, la Biología, la Física, la Química o la Geología. Su objetivo final es comprender cómo surgió la vida en nuestro Universo, cómo se distribuye y cuál es su evolución primitiva, es decir, cómo pudo establecerse en su entorno.
En otras palabras, trata de comprender el papel de la componente biológica del Universo, conectando la astrofísica y la astro-química con la biología. Intenta para ello comprende el origen de la vida. : El paso de los procesos químicos prebióticos a los mecanismos bioquímicos y a la biología propiamente dicha.
Naturalmente, en Astrobiología nos planteamos preguntas fundamentales, como la propia definición de lo que entendemos como Vida, cómo y cuándo pudo surgir en la Tierra, su existencia actual o en el pasado en otros lugares o si es un hecho fortuito o una consecuencia de las leyes de la Física. Algunas de estas cuestiones se las viene formulando la humanidad desde el principio de los tiempos, pero ahora por primera vez en la historia, los avances de las ciencias biológicas y de la exploración mediante tecnología espacial, es posible atacarlas desde un punto de vista puramente científico. Para ello, la Astrobiología centra su atención en estudiar cuáles son los procesos físicos, químicos y biológicos involucrados en la aparición de la vida y su adaptabilidad, todo ello en el contexto de la evolución y estructuración, u auto-organización, del Universo.
Cianoficeas
Como cualquier otra ciencia, la Astrobiología está sujeta a la utilización del método científico y por tanto a la observación y experimentación junto con la discusión y confrontación abierta de las ideas, el intercambio de datos y el sometimiento de los resultados al arbitraje científico. La clave de la metodología de esta nueva ciencia está en la explotación de las sinergias que se encuentran en las fronteras entre las disciplinas básicas mencionadas anteriormente, una región poco definida, cuyos límites se fijan más por la terminología que por criterios epistemológicos. Un aspecto importante de la investigación en el campo de la Astrobiología es la herramienta fundamental que representa el concepto de complejidad.
La vida es un proceso de emergencia del orden a partir del caos que puede entenderse en medios no aislados y, por tanto libres de la restricción de la segunda ley de la termodinámica, como un proceso complejo. En este sentido, la emergencia de patrones y regularidades en el Universo, ligados a procesos no lineales, y el papel de la auto-organización representan aspectos esenciales para comprender el fenómeno de la vida. Transiciones de estado, intercambios de información, comportamientos fuera de equilibrio, cambios de fase, eventos puntuales, estructuras auto-replicantes, o el propio crecimiento de la complejidad, cobran así pleno sentido en Astrobiología.
Un elemento crucial para la vida, en la Tierra lo tenemos en tres estados: líquido, sólido y gaseoso.
Un problema básico de esta ciencia, ya mencionado al principio, es la cantidad de datos disponibles, de sujetos de estudio. No conocemos más vida que la existente en la Tierra y ésta nos sirve de referencia para cualquier paso en la búsqueda de otras posibilidades. La astrobiología trata por ello de analizar la vida más primitiva que conocemos en nuestro planeta así como su comportamiento en los ambientes más extremos que encontremos para estudiar los límites de su supervivencia y adaptabilidad. Por otro lado, busca y analiza las condiciones necesarias para la aparición de entornos favorables a la vida, o habitables, en el Universo mediante la aplicación de métodos astrofísicos y de astronomía planetaria. Naturalmente, si identificáramos sitios en nuestro sistema solar con condiciones de habitabilidad sería crucial la búsqueda de marcadores biológicos que nos indiquen la posible existencia de vida presente o pasada más allá de la distribución de la vida en el Universo o, en caso negativo, acotaríamos aún más los límites de la vida en él.
Encontrar un “punto azul pálido” o “segunda Tierra” dentro de una zona habitable que contenga agua y condiciones ambientales que puedan sustentar vida, constituye el Santo Grial de la ciencia. Cuántas veces nos habremos preguntado: ¿Estamos solos?
Diferentes condiciones ambientales pueden haber dado lugar a la vida e incluso permitido la supervivencia de algunos organismos vivos generados de forma casual, como experimento de la naturaleza. La Astrobiología trata de elucidar el papel de la evolución del Universo, y especialmente de cuerpos planetarios, en la aparición de la vida. En esta búsqueda de ambientes favorables para la vida, y su caracterización, en el sistema solar, la exploración espacial se muestra como una componente esencial de la Astrobiología. La experimentación en el laboratorio y la simulación mediante ordenadores o en cámaras para reproducir ambientes distintos son una herramienta que ha de ser complementada por la exploración directa a través de la observación astronómica, ligada al estudio de planetas extrasolares, o mediante la investigación in situ de mundos similares en cierta forma al nuestro, como el planeta Marte o algunos satélites de los planetas gigantes Júpiter y Saturno.
Viendo al planeta Saturno desde los mares de metano de Titán, nos tenemos que preguntar si por ahí cerca se estarán preparando las condiciones para una vida extrasolar futura, o, si acaso, está ya ahí presente.
La componente instrumental y espacial convierte a la Astrobiología en un ejemplo excelente de la conexión entre ciencia y tecnología. Los objetivos científicos de la Astrobiología, hemos visto, que requieren un tratamiento trans-disciplinar, conectando áreas como la física y la astronomía con la química y la biología. Esta metodología permite explotar sinergias y transferir conocimiento de unos campos a otros para beneficio del avance científico. Pero además, la Astrobiología está íntimamente ligada a la exploración espacial que requiere el desarrollo de instrumentación avanzada. Se necesitan tecnologías específicas como la robótica o los biosensores habilitadas para su empleo en condiciones espaciales y entornos hostiles muy diferentes al del laboratorio. Naturalmente la Astrobiología emplea estos desarrollos también para transferir conocimiento y tecnologías a otros campos de investigación científica y en particular, cuando es posible, incluso al sector productivo.
Recreación artística de Gliese 81 b, el primer planeta que los astrónomos consideran potencialmente habitable. EFE
Pero repasemos, para terminar, cuáles son las áreas científicas propias de la Astrobiología. Como se ha dicho, es una ciencia interdisciplinar para el estudio del origen, evolución y distribución de la vida en el Universo. Para ello requiere una comprensión completa e integrada de fenómenos cósmicos, planetarios y biológicos. La astrobiología incluye la búsqueda y la caracterización de ambientes habitables en nuestro sistema solar y otros planetas alrededor de estrellas más alejadas, la búsqueda y análisis de evidencias de química prebiótica o trazas de vida larvada o extinguida en cuerpos del sistema solar como Marte o en lunas de planetas gigantes como Júpiter y Saturno. Asimismo se ocupa de investigaciones sobre los orígenes y evolución de la vida primitiva en la Tierra analizando el comportamiento de micro organismos en ambientes extremos.
Desde el punto de vista más astronómico, la Astrobiología estudia la evolución química del Universo, su contenido molecular en regiones de formación estelar, la formación y evolución de discos proto-planetarios y estrellas, incluyendo la formación de sistemas planetarios y la caracterización de planetas extrasolares. En este campo en particular se han producido avances recientes muy importantes con la obtención de imágenes directas de planetas extrasolares y la identificación de algunos de ellos como puntos aislados de su estrella central gracias a técnicas de interferometría.
El Laboratorio Espacial Herschel que penetra en lo más profundo del Cosmos tratando de desvelar lo esencial para desentrañar los procesos de formación estelar. La caracterización de atmósferas de planetas extrasolares con tránsitos han permitido detectar CO₂ en la atmósfera de otros mundos y se ha descubierto el planeta más parecido a la Tierra por su tamaño y suelo rocoso aunque con un período demasiado corto para ser habitable. El lanzamiento de la misión Kepler de la NASA nos permite abrigar esperanzas de encontrar finalmente un planeta “hermano” del nuestro en la zona de habitabilidad de otra estrella.
Los satélites Herschel y Planck
La Zona Habitable (HZ) está comprendida por el rango de distancias desde una estrella en las que el agua líquida puede existir. También el rango de tipos de estrellas que puede tener planetas está limitado a aquellas estrellas en las cuales puede haber el tiempo tiempo suficiente como para que se formen planetas. El espacio de búsqueda incluye la mayoría de HZ de todas las estrellas menos masivas que las espectrales tipo A.
El campo de la Astronomía planetaria, la Astrobiología estudia la evolución y caracterización de ambientes habitables en el sistema solar con el fin de elucidar los procesos planetarios fundamentales para producir cuerpos habitables.
Esto incluye el análisis de ambientes extremos y análogos al de Marte en nuestro planeta, como resulta serla cuenca del Río Tinto en Huelva, así como la exploración de otros cuerpos del sistema solar, Marte en particular.
Imagen del Río Tinto en Huelva. ¿No os parece cualquier lugar de Marte?
Ahí la NASA, en sus aguas contaminadas de minerales pesado y un pH imposible.. ¡Encontraron vida).
El descubrimiento en Marte de agua en forma de hielo así como las claras evidencias de la existencia de agua líquida en su superficie en el pasado, proporcionadas por la observación de modificaciones de la componente mineralógica atribuidas al agua líquida en el subsuelo. Hoy por hoy, se considera que la presencia de agua líquida es una condición necesaria, aunque no suficiente, para la aparición de la vida ya que proporciona el caldo de cultivo para que las moléculas prebióticas se transformen en microorganismos biológicos.
En estas investigaciones el estudio del satélite Titán de Saturno mediante la sonda europea Huygens ha marcado un hito importante al acercarnos a un entorno prebiótico donde el metano ejerce un papel dominante.
En este sentido la posibilidad de explorar el satélite Europa, alrededor de Júpiter, es un claro objetivo de la Astrobiología dado que la espesa corteza de hielo que lo cubre puede esconder una gran masa de agua líquida.
Finalmente, la Astrobiología también contempla una serie de actividades más próximas al laboratorio en el que se analiza la evolución molecular, desde la química prebiótica, pasando por la adaptación molecular, hasta los mecanismos bioquímicos de interacción y adaptación al entorno. En este campo son muy importantes los estudios centrados en los límites de la biología, como la virología, y herramientas para la comprensión de los mecanismos de transmisión de información, de supervivencia y adaptabilidad, como las cuasi-especies. Entre los últimos avances de la química prebiótica de interés para la Astrobiología se encuentra el análisis de la quiralidad, una preferencia de la química de los organismos vivos por una simetría específica que nos puede acercar al proceso de su formación durante el crecimiento de la complejidad y la jerarquización de los procesos. Naturalmente, los mecanismos de transferencia de información genética resultan críticos para comprender la adaptabilidad molecular y son otro objetivo prioritario de la Astrobiología.
Emilio Silvera Vázquez
Ene
26
Los comentarios en el Blog
por Emilio Silvera ~
Clasificado en General ~
Comments (0)
Podríamos comentar cualquiera de estas imágenes, y, cada cual daría su opinión sobre lo que piensan d ellas. Si en alguna tienen dudas y no saben, preguntarían, y, con la contestación tendría, al menos, una noción de lo que estaba viendo.
Desde siempre me intrigó la ausencia de cometarios (bien pocos), a pesar del alto número de visitas diarias al Blog. Comento de vez en cuando sobre distintas cuestiones, y, la sensación que tengo es la de estar hablando con la pared. El que trabaja incansable por llevar este proyecto adelante, no vería con malos ojos que, de vez en cuando, alguien diga alguna cosa, que pregunta sobre algo que no comprende, y, si el comentario es de un experto, me daría la oportunidad de preguntarle sobre mis muchas dudas.
¡Anímate! Di alguna cosa.
Sería de agradecer.
Emilio Silvera Vázquez
Ene
25
La Vida se abre paso
por Emilio Silvera ~
Clasificado en General ~
Comments (0)
La gruta descubierta ha permitido conocer cómo se desarrolla la vida en condiciones extremas. La apertura de una cueva sellada en Rumanía, permite un enorme descubrimiento, ha permitido conocer como se desarrolla la vida en condiciones extremas. La gruta ha estado sellada durante 5 millones de años.
La caída de una gran roca hizo que una cueva situada en Rumanía quedara sellada y su interior quedó aislado completamente del mundo exterior hace 5,5 millones de años. Teóricamente, el lugar era inhabitable, no sólo por la falta de luz, sino también por el aire tóxico que quedó en su interior. Sin embargo, la vida se abrió paso y un curioso ecosistema se generó con diferentes formas de vida absolutamente desconocidas para el ser humano. Hace sólo unas pocas décadas esta cueva fue descubierta por los humanos y dejó al descubierto un nuevo mundo desconocido.
Ubicada a solo unas pocas millas al oeste del Mar Negro en Rumania, la cueva Movile fue descubierta por primera vez por humanos en 1986 cuando un grupo de trabajadores buscaba un terreno para construir una planta de energía nuclear. Hoy en día, el acceso al lugar está bloqueado por las autoridades y solo se puede acceder a él con un permiso especial, aunque las cavernas centrales están naturalmente “protegidas” por una serie de pozos verticales y estrechos túneles de piedra caliza.
Una vez en las profundidades de la gruta, el aire contiene menos de la mitad de la cantidad de oxígeno que se encuentra al aire libre y rebosa de altos niveles de dióxido de carbono y sulfuro de hidrógeno. El interior, además, es completamente oscuro y no ha visto un rayo de luz solar durante millones de años.

Gracias a este cóctel de condiciones extremas, el lugar ha demostrado ser una mina de oro para los biólogos. Uno de los primeros intentos de documentar este extraño ecosistema se puede encontrar en un artículo escrito en 1996 por un trío de biólogos de la Universidad de Cincinnati (EEUU) y publicado en la revista Science. Posteriormente, nuevos estudios han confirmado lo excepcional de este ecosistema, que literalmente parece de otro mundo.
Escorpiones, arañas, caracoles y otras especies nunca vistas
los tres científicos identificaron 48 especies, 33 de las cuales eran totalmente exclusivas de esta cueva.
La mayoría de las diminutas criaturas de la cueva no tienen visión y carecen de pigmento. Pero en realidad, ¿quién necesita ver en la oscuridad total? También son, en general, un grupo de aspecto larguirucho, con extremidades muy largas y antenas que les ayudan a navegar en la oscuridad.
Según el microbiólogo J. Colin Murrell de la Universidad East Anglia, lo más normal es que las bacterias que existen en la gruta vivieran ya en su interior mucho tiempo antes de que la cueva quedara aislada. El resto de los insectos, debieron de caer y quedar atrapados cuando el suelo calizo se desplomó sellando la cueva. Luego los invertebrados se reprodujeron y se adaptaron a este hábitat subterráneo y sin luz solar hasta nuestros días. La cueva se extiende por unos 100 kms cuadrados, la mayor parte inaccesibles.
Como si esta cueva no fuera lo suficientemente extraña, fue el primer ecosistema terrestre descubierto que se basa en bacterias quimiosintéticas. La mayoría de los ecosistemas requieren la fotosíntesis para aprovechar la energía de la luz solar. Sin embargo, dado que no hay luz natural en la cueva, las bacterias necesitan obtener su energía y carbono directamente de reacciones químicas, como la oxidación de sulfuro o la oxidación de amonio.
¿De dónde salía el alimento?
Análisis del agua del lago demostraron que no se veían partículas de alimentos. “Así que la gran pregunta fue, ¿de dónde viene la comida para alimentar a todas estas criaturas? La comida proviene de una película espumosa que se encuentra en la parte superior del agua del lago y en las paredes de la cueva. Esta película es como papel higiénico, e incluso se puede rasgar como un pedazo de papel higiénico. Está lleno de miles de millones de autótrofos de bacterias», afirmó en el momento de su descubrimiento el microbiólogo Rich Boden, que entonces estaba en la Universidad de Warwick en Coventry, Reino Unido.
El ecosistema de la cueva dependía enteramente de estas bacterias quimiosintéticas. Pueden extraer carbono sin necesidad de luz solar, y las bacterias más numerosas usan dióxido de carbono, mientras que otras obtienen su carbono del metano. La película bacteriana en el agua del lago y las paredes de la cueva es donde todos los nutrientes ingresan al ecosistema de la cueva y es el único ejemplo conocido de un sistema de este tipo. El ciclo de la vida puede continuar a medida que las pequeñas criaturas se comen el limo y las criaturas más grandes se comen a las más pequeñas.
«Estas bacterias obtienen su carbono del dióxido de carbono al igual que las plantas», dice Boden. «El nivel de dióxido de carbono en la cueva es aproximadamente 100 veces más alto que el aire normal. Pero a diferencia de las plantas, obviamente no pueden usar la fotosíntesis ya que no hay luz.»
Una ventana abierta al pasado
El ecosistema y las criaturas únicas de Movile Cave quizás podrían ayudarnos a entender cómo era la vida en el pasado primordial del planeta, así como darnos algunas pistas para luchar contra los gases de efecto invernadero. En los primeros años de nuestro mundo, la luz solar estaba oscurecida por una sopa atmosférica que contenía dióxido de carbono, metano y amoníaco. Es posible que las primeras células vivas fueran similares a las encontradas en la cueva.
Más impresionante es la capacidad de las bacterias de la cueva para oxidar el metano y descomponer el dióxido de carbono, ambos gases de efecto invernadero importantes en el actual proceso de cambio climático. Los investigadores creen que sería realmente interesante descubrir cómo estas bacterias logran oxidar o descomponer estos dos gases para desarrollar así una tecnología que sea capaz de descomponer los dos gases de nuestra atmósfera a niveles más aceptables que los actuales.
Cerrada durante millones de años y con una atmósfera tóxica: ¡La vida surgió!
Todavía hay muchos misterios que yacen en lo profundo de la Cueva Movile. Incluso después de décadas de saber que existe, los investigadores creen que todavía hay muchos más habitantes por descubrir, algunos de los cuales podrían tener conocimientos sobre la biología evolutiva e incluso sobre la naturaleza de la vida misma.
Ene
25
¿Hasta dónde llegaremos?
por Emilio Silvera ~
Clasificado en General ~
Comments (0)
Las grandes firmas que trabajan en el desarrollo de la Inteligencia Artificial, están alcanzado cotas inimaginables.
Si todo esto sigue así… ¡No se sabe hasta donde podemos llegar, y, sobre todo… ¿Qué consecuencias tendrá todo esto? Sobre todo, en lo que se refiere a la Robótica, ese sueño de algunos que tratan de construir seres artificiales que piensen por sí mismo.
Necesitamos una Ley bien estructurada y avalada por todos los Gobiernos del mundo, que normalice y limite de alguna manera el alcance de desarrollo de la Inteligencia Artificial, de tal manera que nunca pueda dañar a nuestra especie-.
Emilio Silvera Vázquez
Ene
24
Velocidades inimaginables
por Emilio Silvera ~
Clasificado en General ~
Comments (0)
En el centro del átomo se encuentra un pequeño grano compacto aproximadamente 100.000 veces más pequeño que el propio átomo: el núcleo atómico. Su masa, e incluso más aún su carga eléctrica, determinan las propiedades del átomo del cual forma parte. Debido a la solidez del núcleo parece que los átomos, que dan forma a nuestro mundo cotidiano, son intercambiables entre sí, e incluso cuando interaccionan entre ellos para formar sustancias químicas (los elementos). Pero el núcleo, a pesar de ser tan sólido, puede partirse. Si dos átomos chocan uno contra el otro con gran velocidad podría suceder que los núcleos llegaran a chocar entre sí y entonces, o bien se rompen en trozos, o se funden liberando en el proceso partículas subnucleares. La nueva física de la primera mitad del siglo XX estuvo dominada por los nuevos acertijos que estas partículas planteaban.
Pero tenemos la mecánica cuántica; ¿es que no es aplicable siempre?, ¿Cuál es la dificultad? Desde luego, la mecánica cuántica es válida para las partículas subatómicas, pero hay más que eso. Las fuerzas con que estas partículas interaccionan y que mantienen el núcleo atómico unido son tan fuertes que las velocidades a las que tienen que moverse dentro y fuera del núcleo están cerca de la velocidad de la luz, c, que es de 299.792’458 Km/s. Cuando tratamos con velocidades tan altas se necesita una segunda modificación a las leyes de la física del siglo XIX; tenemos que contar con la teoría de la relatividad especial de Einstein.
1.905 fue uno de esos hitos. En aquel «año milagroso», Albert Einstein, entonces todavía un desconocido empleado de la Oficina de Patentes de Berna, publicó cinco artículos, hoy imprescindibles para conocer el desarrollo de la física, y, en más de un sentido, de la humanidad.
En 1902, gracias a la mediación de su amigo, el matemático suizo Marcel Grossman, Einstein logró en la Oficina Federal para la Propiedad Intelectual de Berna un puesto de examinador auxiliar de patentes (nivel III) con un sueldo de 3500 francos anuales.
Era un total desconocido en el “mundo” de la Física. Sin embargo, publicó cinco trabajos que removieron los cimientos de la Ciencia en el campo de la Física Teórica. Todos se preguntaban qué quién era aquel personaje. Máx Planck (Director por aquel entonces de una prestigiosa revista científica) que leyó sus trabajos, comprendió el alcance profundo que contenían y, los publicó.
Cada uno de ellos tenía un valor considerable. Sin embargo no todos se entendieron, aquello había sido un terremoto, Einstein había entrado en la Física como elefante en una cacharrería. ¡Las cosas que decía: “Masa y Energía son dos aspectos de la misma cosa”, “El transcurrir del Tiempo, se ralentiza si viajamos a velocidades cercanas a la de la luz en el vacío”, La luz marca el límite de la velocidad que un cuerpo puede alcanzar en nuestro universo…
Relaciono aquellos memorables cinco trabajos, y, por el primero, le concedieron el Nobel. Ha merecido algún Nobel más pero, los tacaños de la Academia se lo negaron.
- Efecto fotoeléctrico.
- Determinación de las dimensiones moleculares.
- Movimiento browniano.
- Electrodinámica de los cuerpos en movimiento o “relatividad especial”.
- Equivalencia de la masa y energía.
La enorme importancia de la Relatividad Especial (Y, más tarde, de la General).
Esta teoría también fue el resultado de una publicación de Einstein de 1905. en esta teoría quedaron sentadas las bases de que el movimiento y el reposo son conceptos relativos, no son absolutos, como tampoco habrá un sistema de referencia absoluto con respecto al cual uno pueda medir la velocidad de la luz.
Pero había más cosas que tenían que ser relativas. En este teoría, la masa y la energía también dependen de la velocidad, como lo hacen la intensidad del campo eléctrico y del magnético. Einstein descubrió que la masa de una partícula es siempre proporcional a la energía que contienen, supuesto que se haya tenido en cuenta una gran cantidad de energía en reposo de una partícula cualquiera, como se denota a continuación:
E = mc2
Como la velocidad de la luz es muy grande, esta ecuación sugiere que cada partícula debe almacenar una cantidad enorme de energía, y en parte esta predicción fue la que hizo que la teoría de la relatividadtuviese tanta importancia para la física (¡y para todo el mundo!). Para que la teoría de la relatividadtambién sea autoconsistente tiene que ser holista, esto es, que todas las cosas y todo el mundo obedezcan a las leyes de la relatividad. No son sólo los relojes los que se atrasan a grandes velocidades, sino que todos los procesos animados se comportan de la forma tan inusual que describe esta teoría cuando nos acercamos a la velocidad de la luz. El corazón humano es simplemente un reloj biológico y latirá a una velocidad menor cuando viaje en un vehículo espacial a velocidades cercanas a la de la luz. Este extraño fenómeno conduce a lo que se conoce como la “paradoja de los gemelos”, sugerida por Einstein, en la que dos gemelos idénticos tienen diferente edad cuando se reencuentran después de que uno haya permanecido en la Tierra mientras que el otro ha viajado a velocidades relativistas.
“Aquí Gμν es el tensor de Einstein que depende de la métrica gμν y de sus primeras y segundas derivadas con respecto a las coordenadas del espacio-tiempo. El tensor de Einstein contiene solamente magnitudes geométricas y su cálculo explícito se obtiene a partir de la curvatura del espacio-tiempo. La parte derecha de las ecuaciones contiene el tensor de energía-momento Tμν que depende directamente de magnitudes físicas como la masa, presión, volumen, etc. Consecuentemente, las ecuaciones de Einstein tienen un sentido físico muy profundo ya que se pueden interpretar conceptualmente como:
La constante de proporcionalidad
contiene la velocidad de la luz en el vacío c y la constante gravitacional de Newton G, de forma tal que nos permite relacionar la magnitud geométrica curvatura con magnitudes físicas como la energía, presión, etc. Esta equivalencia entre magnitudes geométricas fue propuesta por primera vez por Einstein para el campo gravitacional, pero hoy en día sabemos que es válida para todos los demás campos conocidos en la naturaleza.”
Einstein demostró matemáticamente que la gravedad no es en realidad una fuerza de atracción entre todos los objetos con masa, como pensaba Newton. En su lugar, Einstein mostró que la gravedad es un resultado de la deformación, o curvatura, del espacio y el tiempo, que forman el mismo “tejido” del espacio-tiempo.
Einstein comprendió rápidamente que las leyes de la gravedad también tendrían que ser modificadas para que cumplieran el principio relativista.
La formulación de newton es bien conocida, en la segunda imagen que se representan en este esquema dos partículas que se acercan entre sí siguiendo un movimiento acelerado. La interpretación newtoniana supone que el espacio-tiempo es llano y que lo que provoca la curvatura de las líneas de universo es la fuerza de interacción gravitatoria entre ambas partículas. Por el contrario, la interpretación einsteiniana supone que las líneas de universo de estas partículas son geodésicas (“rectas”), y que es la propia curvatura del espacio tiempo lo que provoca su aproximación progresiva.
Para poder aplicar el principio de la relatividad a la fuerza gravitatoria, el principio tuvo que ser extendido de la siguiente manera: no sólo debe ser imposible determinar la velocidad absoluta del laboratorio, sino que también es imposible distinguir los cambios de velocidad de los efectos de una fuerza gravitatoria.
La Gravedad arruga el Espacio-Tiempo en presencia de grandes masas
Einstein comprendió que la consecuencia de esto era que la gravedad hace al espacio-tiempo lo que la humedad a una hoja de papel: deformar la superficie con desigualdades que no se pueden eliminar. Hoy en día se conocen muy bien las matemáticas de los espacios curvos, pero en el época de Einstein el uso de estas nociones matemáticas tan abstractas para formular leyes físicas era algo completamente nuevo, y le llevó varios años encontrar la herramienta matemática adecuada para formular su teoría general de la relatividad que describe cómo se curva el espacio en presencia de grandes masas como planetas y estrellas.
Einstein tenía la idea en su mente desde 1907 (la relatividad especial la formuló en 1905), y se pasó 8 años buscando las matemáticas adecuadas para su formulación.
Leyendo el material enviado por un amigo al que pidió ayuda, Einstein quedó paralizado. Ante él, en la primera página de una conferencia dada ante el Sindicato de Carpinteros, 60 años antes por un tal Riemann, tenía la solución a sus desvelos: el tensor métrico de Riemann, que le permitiría utilizar una geometría espacial de los espacios curvos que explicaba su relatividad general.
“En la geometría de Riemann, el tensor métrico es un tensor de rango 2 que se utiliza para definir conceptos métricos como distancia, ángulo y volumen en un espacio localmente euclídeo. Paraboloide de Flamm (solución exterior de Schwarzschild).”
Pero comentemos otros temas de interés.
Desde que se puso en órbita el telescopio espacial de rayos gamma Fermi, el 11 de junio de 2008, ha detectado poblaciones enteras de objetos nunca antes vistos. El último hallazgo de Fermi afecta al púlsar J1823-3021A, avistado en 1994 con el radiotelescopio Lovell, en Inglaterra. Un equipo internacional de expertos se ha dado cuenta de que esta estrella pulsante emite rayos gamma y gracias a Fermi ha podido caracterizar sus inusuales propiedades. Los resultados de su investigación se publican en el último número de Science. Lo cierto es que han descubierto el púlsar de milisegundos más joven y con la fuerza magnética más potente
No está mal que en este punto recordemos la fuerza magnética y gravitatoria que nos puede ayudar a comprender mejor el comportamiento de las partículas subatómicas.
El electromagnetismo, decíamos al principio, es la fuerza con la cual dos partículas cargadas eléctricamente se repelen (si sus cargas son iguales) o se atraen (si tienen cargas de signo opuesto).
La interacción magnética es la fuerza que experimenta una partícula eléctricamente cargada que se mueve a través de un campo magnético. Las partículas cargadas en movimiento generan un campo magnético como, por ejemplo, los electrones que fluyen a través de las espiras de una bobina.
Faraday que no era matemático, sino un gran experimentador, le dio la idea con sus trabajos
Las fuerzas magnéticas y eléctricas están entrelazadas. En 1873, James Clerk Maxwell consiguió formular las ecuaciones completas que rigen las fuerzas eléctricas y magnéticas, descubiertas experimentalmente por Michael Faraday. Se consiguió la teoría unificada del electromagnetismo que nos vino a decir que la electricidad y el magnetismo eran dos aspectos de una misma cosa.
La interacción es universal, de muy largo alcance (se extiende entre las estrellas), es bastante débil. Su intensidad depende del cociente entre el cuadrado de la carga del electrón y 2hc (dos veces la constante de Planck por la velocidad de la luz). Esta fracción es aproximadamente igual a 1/137’036…, o lo que llamamos α y se conoce como constante de estructura fina.
En general, el alcance de una interacción electromagnética es inversamente proporcional a la masa de la partícula mediadora, en este caso, el fotón, sin masa.
También antes hemos comentado sobre la interacción gravitatoria de la que Einstein descubrió su compleja estructura y la expuso al mundo en 1915 con el nombre de teoría general de la relatividad, y la relacionó con la curvatura del espacio y el tiempo. Sin embargo, aún no sabemos cómo se podrían reconciliar las leyes de la gravedad y las leyes de la mecánica cuántica (excepto cuando la acción gravitatoria es suficientemente débil).
La teoría de Einstein nos habla de los planetas y las estrellas del cosmos. La teoría de Planck, Heisemberg, Schrödinger, Dirac, Feynman y tantos otros, nos habla del comportamiento del átomo, del núcleo, de las partículas elementales en relación a estas interacciones fundamentales. La primera se ocupa de los cuerpos muy grandes y de los efectos que causan en el espacio y en el tiempo; la segunda de los cuerpos muy pequeños y de su importancia en el universo atómico. Cuando hemos tratado de unir ambos mundos se produce una gran explosión de rechazo. Ambas teorías son (al menos de momento) irreconciliables.
- La interacción gravitatoria actúa exclusivamente sobre la masa de una partícula.
- La gravedad es de largo alcance y llega a los más lejanos confines del universo conocido.
- Es tan débil que, probablemente, nunca podremos detectar esta fuerza de atracción gravitatoria entre dos partículas elementales. La única razón por la que podemos medirla es debido a que es colectiva: todas las partículas (de la Tierra) atraen a todas las partículas (de nuestro cuerpo) en la misma dirección.
La partícula mediadora es el hipotético gravitón. Aunque aún no se ha descubierto experimentalmente, sabemos lo que predice la mecánica cuántica: que tiene masa nula y espín 2.
La ley general para las interacciones es que, si la partícula mediadora tiene el espín par, la fuerza entre cargas iguales es atractiva y entre cargas opuestas repulsiva. Si el espín es impar (como en el electromagnetismo) se cumple a la inversa.
Pero antes de seguir profundizando en estas cuestiones hablemos de las propias partículas subatómicas, para lo cual la teoría de la relatividad especial, que es la teoría de la relatividad sin fuerza gravitatoria, es suficiente.
Si viajamos hacia lo muy pequeño tendremos que ir más allá de los átomos, que son objetos voluminosos y frágiles comparados con lo que nos ocupará a continuación: el núcleo atómico y lo que allí se encuentra. Los electrones, que ahora vemos “a gran distancia” dando vueltas alrededor del núcleo, son muy pequeños y extremadamente robustos. El núcleo está constituido por dos especies de bloques: protones y neutrones. El protón (del griego πρώτος, primero) debe su nombre al hecho de que el núcleo atómico más sencillo, que es el hidrógeno, está formado por un solo protón. Tiene una unidad de carga positiva. El neutrón recuerda al protón como si fuera su hermano gemelo: su masa es prácticamente la misma, su espín es el mismo, pero en el neutrón, como su propio nombre da a entender, no hay carga eléctrica; es neutro.
La masa de estas partículas se expresa en una unidad llamada mega-electrón-voltio o MeV, para abreviar. Un MeV, que equivale a 106 electrón-voltios, es la cantidad de energía de movimiento que adquiere una partícula con una unidad de carga (tal como un electrón o un protón) cuando atraviesa una diferencia de potencial de 106 (1.000.000) voltios. Como esta energía se transforma en masa, el MeV es una unidad útil de masa para las partículas elementales.
La mayoría de los núcleos atómicos contienen más neutrones que protones. Los protones se encuentran tan juntos en el interior de un núcleo tan pequeño que se deberían repeles entre sí fuertemente, debido a que tienen cargas eléctricas del mismo signo. Sin embargo, hay una fuerza que los mantiene unidos estrechamente y que es mucho más potente e intensa que la fuerza electromagnética: la fuerza o interacción nuclear fuerte, unas 102 veces mayor que la electromagnética, y aparece sólo entre hadronespara mantener a los nucleones confinados dentro del núcleo. Actúa a una distancia tan corta como 10-15 metros, o lo que es lo mismo, 0’000000000000001 metros.
La interacción fuerte está mediada por el intercambio de mesones virtuales, 8 gluones que, como su mismo nombre indica (glue en inglés es pegamento), mantiene a los protones y neutrones bien sujetos en el núcleo, y cuanto más se tratan de separar, más aumenta la fuerza que los retiene, que crece con la distancia, al contrario que ocurre con las otras fuerzas.
Gracias a los fotones que viajan por el universo creando la luz, podemos contemplar maravillas como esta
La luz es una manifestación del fenómeno electromagnético y está cuantizada en “fotones”, que se comportan generalmente como los mensajeros de todas las interacciones electromagnéticas. Así mismo, como hemos dejado reseñado en el párrafo anterior, la interacción fuerte también tiene sus cuantos (los gluones). El físico japonés Hideki Yukawa (1907 – 1981) predijo la propiedad de las partículas cuánticas asociadas a la interacción fuerte, que más tarde se llamarían piones. Hay una diferencia muy importante entre los piones y los fotones: un pión es un trozo de materia con una cierta cantidad de “masa”. Si esta partícula está en reposo, su masa es siempre la misma, aproximadamente 140 MeV, y si se mueve muy rápidamente, su masa parece aumentar en función E = mc2. Por el contrario, se dice que la masa del fotón en reposo es nula. Con esto no decimos que el fotón tenga masa nula, sino que el fotón no puede estar en reposo. Como todas las partículas de masa nula, el fotón se mueve exclusivamente con la velocidad de la luz, 299.792’458 Km/s, una velocidad que el pión nunca puede alcanzar porque requeriría una cantidad infinita de energía cinética. Para el fotón, toda su masa se debe a su energía cinética.
Los físicos experimentales buscaban partículas elementales en las trazas de los rayos cósmicos que pasaban por aparatos llamados cámaras de niebla. Así encontraron una partícula coincidente con la masa que debería tener la partícula de Yukawa, el pión, y la llamaron mesón (del griego medio), porque su masa estaba comprendida entre la del electrón y la del protón. Pero detectaron una discrepancia que consistía en que esta partícula no era afectada por la interacción fuerte, y por tanto, no podía ser un pión. Actualmente nos referimos a esta partícula con la abreviatura μ y el nombre de muón, ya que en realidad era un leptón, hermano gemelo del electrón, pero con 200 veces su masa.
Antes de seguir veamos las partículas elementales de vida superior a 10-20 segundos que eran conocidas en el año 1970.
Nombre | Símbolo | Masa (MeV) | Carga | Espín | Vida media (s) |
Fotón | γ | 0 | 0 | 1 | ∞ |
Leptones (L = 1, B = 0) | |||||
Electrón | e– | 0’5109990 | – | ½ | ∞ |
Muón | μ– | 105’6584 | – | ½ | 2’1970 × 10-6 |
Tau | τ | ||||
Neutrino electrónico | νe | ~ 0 | 0 | ½ | ~ ∞ |
Neutrino muónico | νμ | ~ 0 | 0 | ½ | ~ ∞ |
Neutrino tauónico | ντ | ~ 0 | 0 | ½ | ~ ∞ |
Mesones (L = 0, B = 0) | |||||
Pión + | π+ | 139’570 | 2’603 × 10-8 | ||
Pión – | π– | 139’570 | 2’603 × 10-8 | ||
Pión 0 | π0 | 134’976 | 0’84 × 10-16 | ||
Kaón + | k+ | 493’68 | 1’237 × 10-8 | ||
Kaón – | k– | 493’68 | 1’237 × 10-8 | ||
Kaón largo | kL | 497’7 | 5’17 × 10-8 | ||
Kaón corto | kS | 497’7 | 0’893 × 10-10 | ||
Eta | η | 547’5 | 0 | 0 | 5’5 × 10-19 |
Bariones (L = 0, B = 1) | |||||
Protón | p | 938’2723 | + | ½ | ∞ |
Neutrón | n | 939’5656 | 0 | ½ | 887 |
Lambda | Λ | 1.115’68 | 0 | ½ | 2’63 × 10-10 |
Sigma + | Σ+ | 1.189’4 | + | ½ | 0’80 × 10-10 |
Sigma – | Σ– | 1.1974 | – | ½ | 7’4× 10-20 |
Sigma 0 | Σ0 | 0 | ½ | 1’48 × 10-10 | |
Ksi 0 | Ξ0 | 1.314’9 | 0 | ½ | 2’9 × 10-10 |
Ksi – | Ξ– | 1.321’3 | – | ½ | 1’64 × 10-10 |
Omega – | Ω– | 1.672’4 | – | 1½ | 0’82 × 10-10 |
Para cada leptón y cada barión existe la correspondiente antipartícula, con exactamente las mismas propiedades a excepción de la carga que es la contraria. Por ejemplo, el antiprotón se simboliza con y el electrón con e+. Los mesones neutros son su propia antipartícula, y el π+ es la antipartícula del π–, al igual que ocurre con k+ y k–. El símbolo de la partícula es el mismo que el de su antipartícula con una barra encima. Las masas y las vidas medias aquí reflejadas pueden estar corregidas en este momento, pero de todas formas son muy aproximadas.
Los símbolos que se pueden ver algunas veces, como s (extrañeza) e i (isoespín) están referidos a datos cuánticos que afectan a las partículas elementales en sus comportamientos.
Debo admitir que todo esto tiene que sonar algo misterioso. Es difícil explicar estos temas por medio de la simple palabra escrita sin emplear la claridad que transmiten las matemáticas, lo que, por otra parte, es un mundo secreto para el común de los mortales, y ese lenguaje es sólo conocido por algunos privilegiados que, mediante un sistema de ecuaciones pueden ver y entender de forma clara, sencilla y limpia, todas estas complejas cuestiones.
Si hablamos del espín (o, con más precisión, el momento angular, que es aproximadamente la masa por el radio por la velocidad de rotación) se puede medir como un múltiplo de la constante de Planck, h, dividido por 2π. Medido en esta unidad y de acuerdo con la mecánica cuántica, el espín de cualquier objeto tiene que ser o un entero o un entero más un medio. El espín total de cada tipo de partícula – aunque no la dirección del mismo – es fijo.
El electrón, por ejemplo, tiene espín ½. Esto lo descubrieron dos estudiantes holandeses, Samuel Gondsmit (1902 – 1978) y George Uhlenbeck (1900 – 1988), que escribieron sus tesis conjuntamente sobre este problema en 1972. Fue una idea audaz que partículas tan pequeñas como los electronespudieran tener espín, y de hecho, bastante grande. Al principio, la idea fue recibida con escepticismo porque la “superficie del electrón” se tendría que mover con una velocidad 137 veces mayor que la de la luz, lo cual va en contra de la teoría de la relatividad general en la que está sentado que nada en el universo va más rápido que la luz, y por otra parte, contradice E=mc2, y el electrón pasada la velocidad de la luz tendría una masa infinita.
Hoy día, sencillamente, tal observación es ignorada, toda vez que el electrón carece de superficie.
Las partículas con espín entero se llaman bosones, y las que tienen espín entero más un medio se llaman fermiones. Consultado los valores del espín en la tabla anterior podemos ver que los leptones y los bariones son fermiones, y que los mesones y los fotones son bosones. En muchos aspectos, los fermionesse comportan de manera diferente de los bosones. Los fermiones tienen la propiedad de que cada uno de ellos requiere su propio espacio: dos fermiones del mismo tipo no pueden ocupar o estar en el mismo punto, y su movimiento está regido por ecuaciones tales que se evitan unos a otros. Curiosamente, no se necesita ninguna fuerza para conseguir esto. De hecho, las fuerzas entre los fermiones pueden ser atractivas o repulsivas, según las cargas. El fenómeno por el cual cada fermión tiene que estar en un estado diferente se conoce como el principio de exclusión de Pauli. Cada átomo está rodeado de una nube de electrones, que son fermiones (espín ½). Si dos átomos se aproximan entre sí, los electrones se mueven de tal manera que las dos nubes se evitan una a otra, dando como resultado una fuerza repulsiva. Cuando aplaudimos, nuestras manos no se atraviesan pasando la uno a través de la otra. Esto es debido al principio de exclusión de Pauli para los electrones de nuestras manos que, de hecho, los de la izquierda rechazan a los de la derecha.
En contraste con el característico individualismo de los fermiones, los bosones se comportan colectivamente y les gusta colocarse todos en el mismo lugar. Un láser, por ejemplo, produce un haz de luz en el cual muchísimos fotones llevan la misma longitud de onda y dirección de movimiento. Esto es posible porque los fotones son bosones.
Cuando hemos hablado de las fuerzas fundamentales que, de una u otra forma, interaccionan con la materia, también hemos explicado que la interacción débil es la responsable de que muchas partículas y también muchos núcleos atómicos exóticos sean inestables. La interacción débil puede provocar que una partícula se transforme en otra relacionada, por emisión de un electrón y un neutrino. Enrico Fermi, en 1934, estableció una fórmula general de la interacción débil, que fue mejorada posteriormente por George Sudarshan, Robert Marschak, Murray Gell-Mann, Richard Feynman y otros. La fórmula mejorada funciona muy bien, pero se hizo evidente que no era adecuada en todas las circunstancias.
Uno de los protones se transmuta en un neutrón por medio de la interacción débil, transformando un quark “up”, en “down”. Este proceso consume energía (el neutrón tiene ligeramente más masa que..
En 1970, de las siguientes características de la interacción débil sólo se conocían las tres primeras:
- La interacción actúa de forma universal sobre muchos tipos diferentes de partículas y su intensidad es aproximadamente igual para todas (aunque sus efectos pueden ser muy diferentes en cada caso). A los neutrinos les afecta exclusivamente la interacción débil.
- Comparada con las demás interacciones, ésta tiene un alcance muy corto.
- La interacción es muy débil. Consecuentemente, los choques de partículas en los cuales hay neutrinos involucrados son tan poco frecuentes que se necesitan chorros muy intensos de neutrinos para poder estudiar tales sucesos.
- Los mediadores de la interacción débil, llamados W+, W– y Z0, no se detectaron hasta la década de 1980. al igual que el fotón, tienen espín 1, pero están eléctricamente cargados y son muy pesados (esta es la causa por la que el alcance de la interacción es tan corto). El tercer mediador, Z0, que es responsable de un tercer tipo de interacción débil que no tiene nada que ver con la desintegración de las partículas llamada “corriente neutra”, permite que los neutrinos puedan colisionar con otras partículas sin cambiar su identidad.
A partir de 1970, quedó clara la relación de la interacción débil y la electromagnética (electrodébil de Weinberg-Salam).
La interacción fuerte (como hemos dicho antes) sólo actúa entre las partículas que clasificamos en la familia llamada de los hadrones, a los que proporciona una estructura interna complicada. Hasta 1972 sólo se conocían las reglas de simetría de la interacción fuerte y no fuimos capaces de formular las leyes de la interacción con precisión.
Como apuntamos, el alcance de esta interacción no va más allá del radio de un núcleo atómico ligero (10-13 cm aproximadamente).
La interacción es fuerte. En realidad, la más fuerte de todas. Sin embargo trabaja a muy cortas distancias, y, es la única de las cuatro fuerzas fundamentales, que crece con la distancia.
Lo dejaré aquí, en verdad, eso que el Modelo Estándar de la Física, es feo, complejo e incompleto y, aunque hasta el momento ha sido una buena herramienta con la que trabajar, la verdad es que, se necesita un nuevo modelo más avanzado y que incluya la Gravedad.
Existen esperanzas de que el LHC empleando energías más elevadas, nos pueda dar alguna sorpresa y encuentre objetos largamente perseguidos.
Mucho de lo arriba descrito, son las ideas del Nobel Gerardus ‘t Hoof.
Por mi parte, me limito humildemente a buscar cuestiones de interés en todos los campos del saber, y, muy especialmente en Física y Astronomía, aunque no me resista a presentar trabajos sobre la complejidad de la Mente, o, sobre el por qué llegamos aquí y de dónde venimos y hacia dónde vamos. Aporto humildemente lo que puedo, y, sobre todo, trabajo como un negro para mantener el Blog en el candelero, es mi hobbi, desde siempre me pudo la curiosidad por el saber de las cosas que no comprendía. Me compensa el número de visitas diarias que están entre 15.000 y 25.000 diarias.
Mi única queja es la poca aparición de visitantes que se atrevan a comentar.
Me acuerdo con nostalgia de aquellas primeras cien visitas ¡Qué ilusión! En el presente estamos en los casi 73.000.000.
Emilio Silvera Vázquez