Dic
13
Siempre buscando respuestas sobre el Universo y la Vida
por Emilio Silvera ~ Clasificado en El Universo y la Química de la Vida ~ Comments (0)
La NASA y la ESA, hace algunos años ya que comenzaron a colaborar en una nueva generación de proyectos que podrían usar una tecnología de nuevo cuño. La crisis económica por la que estamos pasando todos, ha hecho que finalmente, muchos de edsos proyectos se fusionen en un Proyecto verdaderamente global, y, se llevan a cabo mediante la colaboración de diversas Entidades y Organismos de diferentes paises que participan en la aventura del Espacio para saber del Universo y, poco a poco, ir descubriendo sus secretos.
La sonda Gaia de la ESA descubrió su primera supernova en una galaxia distante a unos 500 millones de años-luz de distancia, siendo el primer fenómeno de este tipo que encuentra desde su lanzamiento el 19 de diciembre de 2013.
Sería una colaboración entre todos los expertos de renombre que hay en la Tierra para buscar la prueba de que no estamos solos en el Universo -Gaia en su conjunto buscando otras Gaias- El Proyecto de la Agencia Espacial Europea se conoce como el proyecto Darwin, pero también se denomina de una manera más prosaica, Interferómetro Espacial de Infrarrojos (IRSI = Infrared Space Interferometer); equivalente al de la NASA denominado Terrestrial Planet Zinder (TPF). Los dos proyectos funcionaron según los mismos principios.
Más de cien moléculas diferentes han sido identificadas hasta hoy en las densas nubes de gas y polvo del medio interestelar y, algunas de ellas, son esenciales para la la formación de estructuras básicas para la vida. Entre otras muchas, han detectado la presencia de naftaleno en el medio interestelar en dirección a la estrella Cernis52, en la constelación de Perseo. Esta molécula está formada por dos anillos de átomos de carbono en forma hexagonal rodeados por átomos de hidrógen. También han sido detectadas moléculas de azúcares en algunas nebulosas gigantes conocidas como nubes moleculares.
De estas moléculas, ochenta y tres contienen carbono, entre las que se encuentran el ácido cianhídrico HCN, el amoníaco NH3 y el formaldehído H2CO. Moléculas precursoras que generalmente conducen a los aminoácidos. Para verificar que la síntesis de aminoácidos en las condiciones del medio interestelar es posible, una mezcla de hielo de agua, amoníaco, metanol, monóxido y dióxido de carbono ha sido irradiada en el Laboratorio de Astrofísica de Leyde en Holanda, en condiciones que imitan a las del medio interestelar (vacío impulsado de 10-7 mbar, y temperatura de -261°C).
Pero, ¿es fácil localizar planetas como la Tierra?
Sin embargo, por sorprendente que pueda parecer, especialmente después de ver las imágenes de la Tierra tomadas desde el espacio, en las cuales ésta aparece como una brillante bola azul y blanca sobre un fondo oscuro, la luz visible no ofrece las mejores perspectivas para detectar directamente otros planetas similares a la Tierra. Esto es así por dos razones:
En primer lugar, la luz visible que se recibe desde un planeta como la Tierra es en esencia el reflejo de la luz procedente de su estrella progenitora, por lo que no sólo es relativamente débil, sino que resulta muy difícil de captar a distancias astronómicas sobre el fondo iluminado por el resplandor de dicha estrella.
En segundo lugar, los planetas del tipo de la Tierra alcanzan en realidad su brillo máximo en la parte de rayos infrarrojos del espectro electromagnético, por el modo en que la energía absorbida procedente del Sol vuelve a irradiarse en la zona de infrarrojos de dicho espectro, con longitudes de onda más largas que las de la luz visible.
En una longitud de onda de unas pocas micras, la Tierra es el planeta más brillante del Sistema solar y destacaría como un objeto impactante si se utilaza cualquier telescopio de infrarrojos suficientemente sensible situado en nuestra proximidad estelar. El problema es que, dado que la radiación de infrarrojos es absorbida por los propios gases de la atmósfera terrestre, como el dióxido de carbono y el vapor de agua, que son lo que nos interesa descubrir, el telescopio que se utilice para buscar otros planetas como la Tierra tendrá que ser colocado en las profundidades del espacio, lejos de cualquier fuente potencial de contaminación. También tendrá que ser muy sensible, lo que significa muy grande. De ahí que estemos hablando de un proyecto internacional muy caro que tardará décadas en llevarse a buen puerto haciéndolo una realidad.
La sola presencia de gases como el dióxido de carbono y el vapor de agua no es suficiente como un signo de vida, pero sí de la existencia de planetas del tipo de la Tierra en el sentido de que tendrían una atmósfera como Venus y Marte, mientras que, en particular, la presencia de agua indicaría la probabilidad de que existiera un lugar adecuado para la vida.
En realidad, cuando se estudian de forma detenida y pormenorizada los mecanismos del Universo, podemos ver la profunda sencillez sobre la que este se asienta. Los objetos más complejos del Universo conocido son los seres vivos, como, por ejemplo, nosotros mismos.
Los materiales del ADAN están en las estrellas
Estos sistemas complejos están hechos de las materias primas más comunes que existen en Galaxias como la Vía Láctea. En forma de aminoácidos estas materias primas se ensamblan de manera natural, dando lugar a sistemas autoorganizadores donde unas causas subyacentes muy sencillas pueden producir complejidad en la superficie, como en el caso del tigre y sus manchas. Finalmente, con el fin de detectar la presencia de esta complejidad máxima de unos sistemas universales no necesitamos ninguna prueba sofisticada para distinguir la materia viva de la materia “inerte”, si no únicamente las técnicas más sencillas (aunque asistidas por tecnologías altamente avanzadas) para identificar la presencia de uno de los compuestos más simples del universo: El oxígeno.
El Caos y la Complejidad se combinan para hacer del universo un lugar muy ordenado que es justo el entorno adecuado para formas vivas como nosotros mismos. Como dijo Stuart Kauffman, “en el universo estamos en nuestra propia casa”. Sin embargo, no es que el universo se haya diseñado así para beneficiarnos a nosotros. Por el contrario, lo que sucede es que estamos hechos a imagen y semejanza del universo.
Planteémonos una simple pregunta: Dadas las condiciones que imperaban en la Tierra hace cuatro mil millones de años, ¿qué probabilidades había de que surgiera la vida?
No basta con responder que “la vida era inevitable, puesto que nosotros estamos aquí “. Obviamente, la vida sí se inició: nuestra existencia lo demuestra. Pero ¿tenía que iniciarse? En otras palabras, ¿era inevitable que emergiera la vida a partir de un combinado químico y radiado por la energía interestelar y después de millones de años?
Nadie conoce una respuesta exacta a esta pregunta. El origen de la vida, según todos los indicios y datos con los que hoy contamos, parece ser un accidente químico con una alta probabilidad de reproducirse en otros lugares del Universo que sean poseedores de las condiciones especiales o parecidas a las que están presentes en nuestro planeta.
Es probable que, como ocurre aquí en la Tierra, las formas de vida más abundantes en el espacio exterior, sean las Bacterias y demás dominios del mundo microscópico de la vida, y, más difícil será seres inteligentes como nosotros…sin descartar su existencia. Simplemente se trata de hacer unas sencillas cuentas. La vida en la Tierra está presente desde hace unos 4.000 millones de años pero, nosotros, sólo tenemos una antigüedad de unos escasos tres millones de años. La Evolución es lenta y se ha necesitado mucho tiempo para que podamos estar aquí, de la misma manera, ocurrirá en esos mundos perdidos por el espacio y, si están en sus fases primeras, la posible vida existente en ellos…será bacteriana.
Pero la vida, no consiste solo en ADN, genes y replicación. Es cierto que, en un sentido biológico estricto, la vida está simplemente ocupada en replicar genes. Pero el ADN es inútil por sí sólo. Debe construir una célula, con todas sus sustancias químicas especializadas, para llevar a cabo realmente el proceso de replicación. En las denominadas formas de vida superior debe construir un organismo completo para que tenga todos los requisitos exigidos para que pueda replicarse. Desde la perspectiva de un genoma, un organismo es una manera indirecta de copiar ADN.
Sería muy laborioso y complejo explicar aquí de manera completa todos y cada uno de los pasos necesarios y códigos que deben estar presentes para formar cualquier clase de vida. Sin embargo, es necesario dejar constancia aquí de que los elementos necesarios para el surgir de la vida sólo se pueden fabricar en el núcleo de las estrellas y en las explosiones de supernovas que pueblan el universo para formar nebulosas que son los semilleros de nuevas estrellas y planetas y también de la vida.
El surgir de la vida en nuestro Universo puede ser menos especial de lo que nosotros pensamos, y, en cualquier lugar o región del Cosmos pueden estar presentes formas de vida en condiciones que para nosotros podría ser como las del infierno.
Hace varias décadas, los biólogos quedaron sorprendidos al descubrir bacterias que vivían confortablemente a temperaturas de setenta grados Celsius. Estos microbios peculiares se encontraban en pilas de abonos orgánicos, silos e inclusos en sistemas domésticos de agua caliente y fueron bautizados como termófilos.
Resultó que esto era sólo el principio. A finales de los años setenta la nave sumergible Alvin, perteneciente al Woods Hole Océano Graphic Institute, fue utilizada para explorar el fondo del mar a lo largo de la Grieta de las Galápagos en el océano Pacífico. Este accidente geológico, a unos dos kilómetros y medio bajo la superficie, tiene interés para los geólogos como un ejemplo primordial de las chimeneas volcánicas submarinas conocidas como “húmeros negros “. Cerca de un humero negro, el agua del mar puede alcanzar temperaturas tan altas como trescientos cincuenta grados Celsius, muy por encima del punto de ebullición normal. Esto es posible debido a la inmensa presión que hay en dicha profundidad.
El término termófilo se aplica a organismos vivos que pueden soportar temperaturas imposibles y vivir en lugares de aguas calientes y sulfurosas, en terrenos de alto índice de salinidad o de Ph no apto para seres vivos, así como en lugares y situaciones que, se podrían, sin lugar a ninguna duda, comparar con otros existentes en el exterior, planetas y lunas sin atmósfera o de atmósfera reducida o demasiado densas.
Resultó que esto era sólo el principio. A finales de los años setenta la nave sumergible Alvin, perteneciente al Woods Hole Océano Graphic Institute, fue utilizada para explorar el fondo del mar a lo largo de la Grieta de las Galápagos en el océano Pacífico. Este accidente geológico, a unos dos kilómetros y medio bajo la superficie, tiene para los geólogos como un ejemplo primordial de las chimeneas volcánicas submarinas conocidas como “húmeros negros “. Cerca de un humero negro, el agua del mar puede alcanzar temperaturas tan altas como trescientos cincuenta grados Celsius, muy por encima del punto de ebullición normal. Esto es posible debido a la inmensa presión que hay en dicha profundidad.
Fumarola negra descubierta en el Caribe
Lugares como este permitieron la proliferación de pequeños seres vivos que, al calor de sus emisiones de gases tóxicos (de los que se alimentaban) salieron adelante y se expandieron de una manera bastante prolífica. Se cree que en lugares como este pudieron surgir especímes que evolucionaron hacia otros niveles. De hecho se han descubierto unas lombrices que viven ahí tan ricamente.
La favorita de estas lombrices es el azufre, no necesita oxígeno para nada. Se basta, en concreto, con el sulfuro de hidrógeno que sale de las chimeneas termales. Sale hirviendo así que las lombrices tienen que sorber con cuidado. Usan esas plumas rojas para captar el sulfuro. Las plumas, tienen ese color debido a la hemoglobina, esa sustancia que tambien nosotros tenemos en la sangre y nos ayuda a transportar el oxígeno. A ellas les ayuda a transportar azufre, lo cual nos mataría a nosotros enseguida.
Para asombro de los científicos implicados en el proyecto Alvin la región en torno a los húmeros negros de las Galápagos y otros lugares de las profundidades marinas resultó estar rebosante de vida. Entre los moradores más exóticos de las profundidades había cangrejos y gusanos tubulares gigantes. También había bacterias termófilas ya familiares en la periferia de los húmeros negros. Lo más notable de todo, sin embargo, eran algunos microbios hasta entonces desconocidos que vivían muy cerca de las aguas abrasadoras a temperaturas de hasta ciento diez grados Celsius. Ningún científico había imaginado nunca seriamente que una forma de vida pudiera soportar calor tan extremo.
Resultó que las aguas rojas del Tinrto estaban llenas de vida a pesar del PH imposible
Igualmente se han encontrado formas de vida en lugares de gélidas temperaturas y en las profundidades de la tierra. Así mismo, la NASA ha estado en un pueblo de Huelva para estudiar aguas con un PH imposible para la vida y cargada de metales pesados que, sin embargo, estaba rebosante de vida. El proyecto de estos estudios se denomina P-TINTO, ya que, las aguas a las que nos referimos son precisamente las del Río Tinto, llenas de extremófilos.
La anterior reseña viene a confirmarla enorme posibilidad de la existencia de vida en cualquier parte del universo que está regido por mecanismos iguales en cualquiera de sus regiones, por muchos años luz que nos separen de ellas. En comentarios anteriores dejamos claro que las Galaxias son lugares de autorregulación, y, podríamos considerarlos como organismos vivos que se regeneran así mismos de manera automática luchando contra la entropía del caos de donde vuelve a resurgir los materiales básicos para el nacimiento de nuevas estrellas y planetas donde surgirá alguna clase de vida.
La idea de que la vida puede tener una historia se remonta a poco más de dos siglos. Anteriormente, se consideraba que las especies habían sido creadas de una vez para siempre. La vida no tenía más historia que el Universo. Sólo nosotros, los seres humanos, teníamos una historia. Todo lo demás, el Sol y las estrellas, continentes y océanos, plantas y animales, formaban la infraestructura inmutable creada para servir como fondo y soporte de la aventura humana. Los fósiles fueron los primeros en sugerir que esta idea podía estar equivocada.
Durante cerca de tres mil millones de años, la vida habría sido visible sólo a través de sus efectos en el ambiente y, a veces , por la presencia de colonias, tales como los extremófilos que asociaban billones de individuos microscópicos en formaciones que podrían haber pasado por rocas si no fuera por su superficie pegajosa y por sus colores cambiantes.
Toda la panoplia de plantas, hongos y animales que en la actualidad cubre el globo terrestre con su esplendor no existía. Sólo había organismos unicelulares, que empezaron con casi toda seguridad con bacterias. Esa palabra, “bacteria”, para la mayoría de nosotros evoca espectros de peste, enfermedades, difteria y tuberculosis, además de todos los azotes del pasado hasta que llegó Pasteur. Sin embargo, las bacterias patógenas son sólo una pequeña minoría, el resto, colabora con nosotros en llevar la vida hacia delante, y, de hecho, sin ellas, no podríamos vivir. Ellas, reciclan el mundo de las plantas y animales muertos y aseguran que se renueve el carbono, el nitrógeno y otros elementos bioquímicos.
Por todas estas razones, podemos esperar que, en mundos que creemos muertos y carentes de vida, ellas (las bacterias) estén allí. Están relacionadas con las primeras formas de vida, las bacterias han estado ahí desde hace cerca de 4.000 millones de años, y, durante gran parte de ese tiempo, no fueron acompañadas por ninguna otra forma de vida.
Pero, ¿No estamos hablando del Universo? ¡Claro que sí! Hablamos del Universo y, ahora, de la forma más evolucionada que en él existe: Los seres pensantes y conscientes de SER, nosotros los humanos que, de momento, somos los únicos seres inteligentes conocidos del Inmenso Universo. Sin embargo, pensar que estamos solos, sería un terrible y lamentable error que, seguramente, nos traería consecuencias de difícil solución.
Hay que pensar seriamente en la posibilidad de la vida extraterrestre que, incluso en nuestra propia Galaxia, podría ser muy abundante. Lo único que necesitamos es ¡Tiempo! Y, si pensamos con algo de lógica, no desecharemos la idea de que esa vida, como toda la que existe y ha existido en la Tierra, esté también, basada en el Carbono, el elemento de la vida que, por sus características especiales, mejor se adapta a ella.
Tiempo para poder avanzar en el conocimiento que nos lleve, por ejemplo, a poder aprovechar la energía de los Agujeros Negros. Cuando eso llegue, estaremos preparados para dar el salto hacia las estrellas, y, allí, nos esperan sorpresas que ahora, ni podemos sospechar.
Pero, por otra parte, nuestra imaginación, es casi tan grande como el Universo mismo, y, ¡cuando de verdad, nos ponemos a pensar! Cualquier cosa será posible, dentro de los límites impuestos por el propio Universo.
En todo el Universo siempre es lo mismo, rigen las mismas leyes, las mismas fuerzas que ayer mismo quedaron explicadas aquí, e, igualmente, en todas partes está presente la misma Materia.
T O D O |
Quarks | |
Nucleones | ||
Núcleos | ||
Átomos | ||
Moléculas | ||
Sustancias | ||
Cuerpos | ||
Planetas (Vida) | ||
Estrellas | ||
Galaxias | ||
Cúmulos de galaxias |
Siempre he dicho aquí que todo lo grande está hecho de cosas pequeñas. Las infinitesimales partículas subatómicas, todas esas familias de los pequeños objetos que interactúan con las fuerzas fundamentales del universo, Quarks para conformar Hadrones (bariones y Mesones) y Leptones, son los pequeños objetos que se unen para formar átomos de materia, éstos de juntan y forman células que, a su vez, unidas crean moléculas que cuando se unen unas a otras construyen objetos más grandes, tan grandes como todos los que podemos contemplar a nuestro alrededor y mirando por un telescopio, todos están hechos de esas minúsculas partículas.
emilio silvera
Dic
13
La NASA pide cautela ante el posible descubrimiento del planeta X
por Emilio Silvera ~ Clasificado en Noticias ~ Comments (0)
James Green, Director de la División de Ciencia Planetaria de la Agencia, ha destacado que el hallazgo publicado hace un par de día es sólo un comienzo en un largo camino para desarrollar un proceso científico que podrá confirmar la existencia del noveno planeta del Sistema Solar.
El astrofísico y divulgador Carl Sagan defendió a lo largo de su carrera la idea de que a la hora de divulgar la ciencia y sus avances era necesario despertar la sed de maravilla. Pero también alertó de que, sin las necesarias dosis de escepticismo y de pensamiento crítico, la ciencia podía transformarse en pseudociencia. Es decir, en mito y fábula.
Un día después de que los astrónomos Michael Brown y Konstantin Batygin publicaran en la revista «The Astronomical Journal» el posible hallazgo del Planeta X, el que podría ser el noveno planeta del Sistema Solar, la NASA ha querido hacer un llamamiento hacia la cautela. Y el escepticismo.
«La idea de que haya un nuevo planeta es sin duda excitante para mí, como científico planetario», ha dicho James Green, Director de la División de Ciencia Planetaria de la NASA en un vídeo difundido hoy. «Sin embargo, no estamos ante la detección de un nuevo planeta. Es muy pronto para poder afirmar esto», ha señalado.
En el artículo científico publicado ayer, los científicos proponían la hipótesis de que hubiera un nuevo planeta gigante en los confines del Sistema Solar. Pero ese cuerpo no se ha detectado, y podría no existir. Su idea se basa en cálculos matemáticos sobre las órbitas de seis lejanos cuerpos, que parecen girar en torno a algo que aún no se ha encontrado.
«Estamos ante una predicción temprana basada en modelos matemáticos elaborados con observaciones limitadas (…) Estamos en el comienzo de un proceso que podría llevar a un interesantísimo resultado», ha explicado James Green.
Comienza el debate
Eso no quiere decir que la hipótesis de Brown y Batygin sea endeble. Sino que efectivamente aún se trata de una hipótesis, lo que significa que tiene que ser comprobada por otros investigadores y superar la prueba final: la detección directa del noveno planeta.
De hecho, los propios autores del artículo ya estaban preparados ante la inevitable ola de escepticismo. Para ello, trataron de blindar su trabajo con una larga serie de datos, análisis orbitales de otros objetos distantes y complejas simulaciones informáticas: «Si dices que tienes evidencias del planeta X -afirmaba Brown- prácticamente cualquier astrónomo dirá: “¿Otra vez? Estos chicos, claramente, están locos. ¿por qué esta vez debería ser diferente a las demás?”. Esta vez es diferente porque esta vez tenemos razón».
Adoptando una postura más intermedia, Green ha destacado la importancia del artículo publicado ayer, porque «alimenta el interés por la exploración espacial» y estimula un «sano debate» que «forma parte del proceso científico».
Las reglas del escepticismo
«Teorías como estas sirven para estimular ideas y conversaciones. Tocan nuestra curiosidad innata», ha dicho. Pero, «cada vez que tenemos una idea tan interesante como esta, siempre debemos aplicar las reglas de Carl Sagan del pensamiento crítico, que piden confirmar de forma independiente los hechos, buscar explicaciones alternativas y estimular el debate científico».
«Si el planeta X está ahí fuera, lo encontraremos juntos. O buscaremos una explicación alternativa para los datos que hemos recibido hasta el momento. Ahora, vamos a explorar», ha propuesto James Green.
Dic
13
Planetas extrasolares
por Emilio Silvera ~ Clasificado en Nuevos mundos ~ Comments (0)
El telescopio espacial ‘Kepler’ confirma la existencia de 1.284 nuevos planetas fuera del Sistema Solar, el mayor número anunciado nunca
Los responsables del telescopio espacial Kepler, el mayor cazador de planetas fuera del Sistema Solar, han anunciado el descubrimiento de 1.284 nuevos exoplanetas, lo que dobla de una tacada el número de estos cuerpos que se conocía hasta la fecha.
“Este anuncio duplica el número de planetas confirmados por el Kepler“, ha dicho Ellen Stofan, científica jefe de la NASA durante una rueda de prensa celebrada hoy. “Esto nos da esperanzas de que en algún lugar ahí afuera, en una estrella muy similar a la nuestra, podamos descubrir otra Tierra”, ha añadido.
El anuncio llega meses antes de que el Kepler se jubile. “Tenemos hasta octubre de este año para elaborar el catálogo final de exoplanetas, el censo de planetas en nuestra galaxia [la Vía Láctea]”, ha resaltado Natalie Batalha, científica de la misión Kepler.
Del conjunto de planetas presentado hoy, unos 550 son rocosos y de un tamaño similar al de la Tierra. Nueve de ellos orbitan en la zona habitable de sus estrellas, donde puede existir agua líquida y, por tanto, vida. Con esta nueva adición, ya se conocen 21 planetas de este tipo, los más parecidos a la Tierra y con las mayores posibilidades a albergar vida. Entre todos los nuevos descubrimientos hay dos que han llamado la atención de los científicos por su extraordinario parecido con la Tierra. Entre ellos hay uno con un tamaño casi exactamente igual al de nuestro planeta y otro donde un año dura casi lo mismo, en concreto 380 días, han dicho los científicos del Kepler.
Esto nos da esperanzas de que en algún lugar ahí afuera, en una estrella muy similar a la nuestra, podamos descubrir otra Tierra
Si se extrapolan los números de planetas de este tipo detectados hasta ahora a la población de estrellas conocidas, se obtiene que probablemente existan decenas de miles de millones de planetas habitables en toda la Vía Láctea y que “el más cercano podría estar a apenas 11 años luz”, ha dicho Batalha.
El descubrimiento presentado hoy se hizo en base al catálogo de Kepler de julio de 2015, que entonces tenía 4.302 candidatos. El método que se ha empleado es estadístico y asigna una probabilidad determinada de que cada planeta candidato detectado por el Kepler exista realmente. Según los resultados, publicados en The Astrophysical Journal, hay más de un 99% de posibilidades de que los 1.284 planetas descubiertos sean reales y no fallos del sistema. Otros 1.327 candidatos son probables, pero no superan ese nivel de confianza. Lo más probable es que los 707 restantes sean otro tipo de fenómeno astrofísico, ha dicho la NASA en un comunicado.
Desde su lanzamiento en 2009, el Kepler había identificado más de 4.500 planetas candidatos y confirmado la existencia de 984. Con el descubrimiento anunciado hoy, la NASA completa el mapa de exoplanetas del Kepler, que ya era el más completo del mundo. Este telescopio es también el primero en el espacio capaz de detectar planetas del tamaño de la Tierra y que orbitan en la llamada zona habitable en torno a su estrella, donde podría existir agua líquida y, por tanto, vida.
Gracias a este instrumento, que ha seguido funcionando a pesar de una avería en 2013, se han conocido mundos y sistemas solares cuya simple existencia hubiera sonado a ciencia ficción hace 30 o 40 años. El catálogo incluye sistemas solares que doblan en edad al nuestro y demuestran que la vida en el universo pudo surgir mucho antes de lo que se pensaba, planetas como la Tierra que están siendo literalmente destruidos por su estrella, como le sucederá algún día a nuestro planeta, y otras estrellas con extraños objetos orbitando que han disparado las especulaciones sobre la existencia de otras civilizaciones.
Dic
12
No siempre hablamos de lo que comprendemos
por Emilio Silvera ~ Clasificado en Física ~ Comments (2)
¡La Física! Lo que busca la física fundamental es reducir las leyes de la naturaleza a una teoría final sencilla que lo explique todo. El físico y premio Nobel Steven Weinberg señala que las reglas fundamentales son lo más satisfactorio (al menos para él). Las leyes básicas de Isaac Newton, que predicen el comportamiento de los planetas, son más satisfactorias, por ejemplo, que un almanaque en el que se indique la posición de todos los planetas en cada momento. Weinberg nos dice que la Física no puede explicarlo todo, matizando que sólo puede explicar los sucesos relacionándolos con otros sucesos y con las reglas existentes.
En relación al Universo, los cosmólogos también echan mano de conjeturas que les salve la cara, es decir, que disimule su gran ignorancia, y, se inventaron la “materia oscura” para explicar lo que para ellos, era inexplicable, es decir, el movimiento de las estrellas y el por qué se alejan las galaxias las unas de las otras y qué fuerza es la que las atrae y, no encontraron nada mejor que la materia oscura.
Por ejemplo, las órbitas de los planetas son el resultado de unas reglas, pero las distancias de los planetas al Sol son accidentales, y no son consecuencia de ley fundamental alguna. Claro que, también las leyes podrían ser fruto de casualidades. Lo que sí es cierto es que los físicos están más interesados por descubrir las reglas que por los sucesos que dichas reglas determinan, y más por los hechos que son independientes del tiempo; por ejemplo, les interesa más la masa del electrón que un tornado que se pueda producir en un lugar determinado.
La ciencia, como nos dice Weinberg, no puede explicarlo todo y, sin embargo, algunos físicos tienen la sensación de que nos estamos acercando a “una explicación del mundo” y, algún día, aunando todos los esfuerzos de muchos, las ideas de las mejores mentes que han sido, y las nuevas que llegarán, podremos, al fín, construir esa Teoría final tan largamente soñada que, para que sea convincente, deberá también, incluirnos a nosotros. Pero, paradógicamente y a pesar de estos pensamientos, existen hechos que los contradicen, por ejemplo, conocemos toda la física fundamental de la molécula de agua desde hace 7 decenas de años, pero todavía no hay nadie que pueda explicar por qué el agua hierve a los 100 ºC. ¿Qué ocurre? ¿Somos acaso demasiado tontos? Bueno, me atrevería a pronosticar que seguiremos siendo “demasiado tontos” incluso cuando los físicos consigan (por fin) esa teoría final que nos pueda dar una “explicación del mundo”. Siempre seguiremos siendo aprendices de la naturaleza que, sabia ella, nos esconde sus secretos para que persista el misterio.
¿Qué sería de nosotros si lo supiéramos todo?
La explicación que dan los físicos actualmente sobre la subestructura de la materia se llama “el modelo estándar”. En este modelo están incluídas las doce partículas elementales y las tres fuerzas que, cuando se mezclan y se encajan, sirven para construir todo lo que hay en el universo, desde un redondo pan de pueblo hecho en un horno de leña, hasta las más complejas galaxias, y puede explicar todos los mecanismos de acción, es decir, la mecánica del mundo.
Entre las partículas figuran los seis Quarks famosos: arriba, abajo, extraño, encanto, fondo y cima. Las otras seis partículas son Leptones: el electrón y sus dos parientes más pesados, el muón y el tau y los tres neutrinos a ellos asociados. Las tres fuerzas son la electromagnética, la fuerza nuclear fuerte (que mantiene unidos a los quarks) y la fuerza nuclear débil (responsable de la radioactividasd). Hay una cuarta fuerza: la Gravedad que, aunque tan importante como las demás, nadie ha sabido como encajarla en el modelo estándar. Todas las partículas y fuerzas de este modelo son cuánticas; es decir, siguen las reglas de la mecánica cuántica. Aún no existe una teoría de la gravedad cuántica.
En realidad, la región que denominamos Gravedad cuántica nos lleva y comprende preguntas sobre el origen del universo observable que nadie ha sabido contestar. Nos lleva a complejos procesos cuánticos situados en las épocas más cercanas imaginables en un espacio-tiempo clásico, es decir, en lo que se conoce como Tiempo de Planck a 10-43 segundos del supuesto big bang, cuando reinaba una temperatura del orden de 10 x 1031 K. Pero, como hemos dicho, al no existir una teoría autoconsistente de la Gravedad cuántica, lo único que podemos hacer (como en tantas otras áreas de la Ciencia) es especular.
El Modelo Estándar no es, ni mucho menos, satisfactorio. Los científicos piensan que no sólo es incompleto, sino que es demasiado complicado y, desde hace mucho tiempo, buscan, incansables, otro modelo más sencillo y completo que explique mejor las cosas y que, además, no tenga (como tiene el modelo actual) una veintena de parámetros aleatorios y necesarios para que cuadren las cuentas…, un ejemplo: el bosón de Higgs necesario para dar masa a las partículas.
¡La masa! ese gran problema. Todas las partículas tienen masa diferentes pero nadie sabe de donde salen sus valores. No existe fórmula alguna que diga, por ejemplo, que el quark extraño debería pesar el doble (o lo que sea) del quark arriba, o que el electrón deba tener 1/200 (u otra proporción) de la masa del muón. Las masas son de todo tipo y es preciso “ponerlas a mano”, como se suele decir: cada una ha de ser medida experimental e individualmente. En realidad, ¿por qué han de tener masa las partículas? ¿de dónde viene la masa?
No puedo evitarlo ni tampoco me puedo quedar callado, cuando he asistido a alguna conferencia sobre la materia y, el ponente de turno se agarra a la “materia oscura” para justificar lo que no sabe, si al final hay debate, entro en escena para discutir sobre la existencia de esa “materia fantasma” que quiere tapar nuestra enorme ignorancia.
Pero, sigamos con el problema de la masa. Para resolverlo, muchos expertos en física de partículas creen actualmente en algo que llaman “campo de Higgs”. Se trata de un campo misterioso, invisible y etéreo que está permeando todo el espacio (¿habrán vuelto al antiguo éter pero cambiándole el nombre?). Hace que la materia parezca pesada, como cuando tratamos de correr por el fondo de la piscina llena de agua pero que el agua no se pudiera ver. Si pudiéramos encontrar ese campo, o más bien la partícula la partícula que se cree es la manifestación de ese campo (llamada el bosón de Higgs), avanzaríamos un largo trecho hacia el conocimiento del universo. Sí, ya se que hace un par de años dijeron haberla encontrado y, sin embargo yo, todavía tengo dudas al respecto, no acabo de convencerme de su existencia y de cómo da la masa a las otras partículas, el mecanismo para mí no ha quedado nada claro.
Aquí, en este imponente artilugio inventiva de nuestras mentes, se quiere dar respuesta a una serie de interrogantes que se espera solucionar con este experimento:
• Qué es la masa.
• El origen de la masa de las partículas
• El origen de la masa para los bariones.
• El número exacto de partículas del átomo.
Claro que, si no fuera tan largo de contar, os diría que, en realidad, el Campo de Higgs se descubrió hace ya muchos siglos en la antigua India, con el nopmbre de maya, que sugiere la idea de un velo de ilusión para dar peso a los objetos del mundo material. Pocos conocen que, los hindúes fueron los que más se acercaron a las ideas modernas sobre el átomo, la física cuántica y otras teorías actuales. Ellos desarrollaron muy temprano sólidas teorías atomistas sobre la materia. Posiblemente, el pensamiento atomista griega recibió las influencias del pensamiento de los hindúes a través de las civilizaciones persas. El Rig-Veda, que data de alguna fecha situada entre el 2000 y el 1500 a. C., es el primer texto hindú en el que se exponen unas ideas que pueden considerarse leyes naturales universales. La ley cósmica está realcionada con la luz cósmica.
Anteriores a los primeros Upanishads tenemos en la India la creación de los Vedas, visiones poéticas y espirituales en las que la imaginación humana ve la Naturaleza y la expresa en creación poética, y después va avanzando hacia unidades más intensamente reales que espirituales hasta llegar al Brahmán único de los Upanishads.
Hacia la época de Buda (500 a, C.), los Upanishad, escritos durante un período de varios siglos, mencionaban el concepto de svabhava, definido como “la naturaleza inherente de los distintos materiales”; es decir, su eficacia causal única, , tal como la combustión en el caso del fuego, o el hecho de fluir hacia abajo en el caso dela agua. El pensador Jainí Bunaratna nos dijo: “Todo lo que existe ha llegado a existir por acción de la svabhava. Así… la tierra se transforma en una vasija y no en paño… A partir de los hilos se produce el paño y no la vasija”.
También aquellos pensadores, manejaron el concepto de yadrccha, o azar desde tiempos muy remotos. Implicaba la falta de orden y la aleatoriedad de la causalidad. Ambos conceptos se sumaron a la afirmación del griego Demócrito medio siglo más tarde: “Todo lo que hay en el universo es fruto del azar y la necesidad”. El ejemplo que que dio Demócrito -similar al de los hilos del paño- fue que, toda la materia que existe, está formada por a-tomos o átomos.
Bueno, no lo puedo evitar, mi imaginación se desboca y corre rápida por los diversos pensamientos que por la mente pasan, de uno se traslada a otros y, al final, todo resulta un conglomerado de ideas que, en realidad, quieren explicar, dentro de esa diversidad, la misma cosa.
emilio silvera
Dic
12
Velocidades inimaginables
por Emilio Silvera ~ Clasificado en Física Cuántica ~ Comments (0)
En el centro del átomo se encuentra un pequeño grano compacto aproximadamente 100.000 veces más pequeño que el propio átomo: el núcleo atómico. Su masa, e incluso más aún su carga eléctrica, determinan las propiedades del átomo del cual forma parte. Debido a la solidez del núcleo parece que los átomos, que dan forma a nuestro mundo cotidiano, son intercambiables entre sí, e incluso cuando interaccionan entre ellos para formar sustancias químicas (los elementos). Pero el núcleo, a pesar de ser tan sólido, puede partirse. Si dos átomos chocan uno contra el otro con gran velocidad podría suceder que los núcleos llegaran a chocar entre sí y entonces, o bien se rompen en trozos, o se funden liberando en el proceso partículas subnucleares. La nueva física de la primera mitad del siglo XX estuvo dominada por los nuevos acertijos que estas partículas planteaban.
Pero tenemos la mecánica cuántica; ¿es que no es aplicable siempre?, ¿cuál es la dificultad? Desde luego, la mecánica cuántica es válida para las partículas subatómicas, pero hay más que eso. Las fuerzas con que estas partículas interaccionan y que mantienen el núcleo atómico unido son tan fuertes que las velocidades a las que tienen que moverse dentro y fuera del núcleo están cerca de la velocidad de la luz, c, que es de 299.792’458 Km/s. Cuando tratamos con velocidades tan altas se necesita una segunda modificación a las leyes de la física del siglo XIX; tenemos que contar con la teoría de la relatividad especial de Einstein.
Esta teoría también fue el resultado de una publicación de Einstein de 1905. en esta teoría quedaron sentadas las bases de que el movimiento y el reposo son conceptos relativos, no son absolutos, como tampoco habrá un sistema de referencia absoluto con respecto al cual uno pueda medir la velocidad de la luz.
Pero había más cosas que tenían que ser relativas. En este teoría, la masa y la energía también dependen de la velocidad, como lo hacen la intensidad del campo eléctrico y del magnético. Einstein descubrió que la masa de una partícula es siempre proporcional a la energía que contienen, supuesto que se haya tenido en cuenta una gran cantidad de energía en reposo de una partícula cualquiera, como se denota a continuación:
E = mc2
Como la velocidad de la luz es muy grande, esta ecuación sugiere que cada partícula debe almacenar una cantidad enorme de energía, y en parte esta predicción fue la que hizo que la teoría de la relatividad tuviese tanta importancia para la física (¡y para todo el mundo!). Para que la teoría de la relatividad también sea autoconsistente tiene que ser holista, esto es, que todas las cosas y todo el mundo obedezcan a las leyes de la relatividad. No son sólo los relojes los que se atrasan a grandes velocidades, sino que todos los procesos animados se comportan de la forma tan inusual que describe esta teoría cuando nos acercamos a la velocidad de la luz. El corazón humano es simplemente un reloj biológico y latirá a una velocidad menor cuando viaje en un vehículo espacial a velocidades cercanas a la de la luz. Este extraño fenómeno conduce a lo que se conoce como la “paradoja de los gemelos”, sugerida por Einstein, en la que dos gemelos idénticos tienen diferente edad cuando se reencuentran después de que uno haya permanecido en la Tierra mientras que el otro ha viajado a velocidades relativistas.
Einstein comprendió rápidamente que las leyes de la gravedad también tendrían que ser modificadas para que cumplieran el principio relativista.
La formulación de newton es bien conocida, en la segunda imagen que se representan en este esquema dos partículas que se acercan entre sí siguiendo un movimiento acelerado. La interpretación newtoniana supone que el espacio-tiempo es llano y que lo que provoca la curvatura de las líneas de universo es la fuerza de interacción gravitatoria entre ambas partículas. Por el contrario, la interpretación einsteiniana supone que las líneas de universo de estas partículas son geodésicas (“rectas”), y que es la propia curvatura del espacio tiempo lo que provoca su aproximación progresiva.
Para poder aplicar el principio de la relatividad a la fuerza gravitatoria, el principio tuvo que ser extendido de la siguiente manera: no sólo debe ser imposible determinar la velocidad absoluta del laboratorio, sino que también es imposible distinguir los cambios de velocidad de los efectos de una fuerza gravitatoria.
Einstein comprendió que la consecuencia de esto era que la gravedad hace al espacio-tiempo lo que la humedad a una hoja de papel: deformar la superficie con desigualdades que no se pueden eliminar. Hoy en día se conocen muy bien las matemáticas de los espacios curvos, pero en el época de Einstein el uso de estas nociones matemáticas tan abstractas para formular leyes físicas era algo completamente nuevo, y le llevó varios años encontrar la herramienta matemática adecuada para formular su teoría general de la relatividad que describe cómo se curva el espacio en presencia de grandes masas como planetas y estrellas.
Einstein tenía la idea en su mente desde 1907 (la relatividad especial la formuló en 1905), y se pasó 8 años buscando las matemáticas adecuadas para su formulación.
Leyendo el material enviado por un amigo al que pidió ayuda, Einstein quedó paralizado. Ante él, en la primera página de una conferencia dada ante el Sindicato de Carpinteros, 60 años antes por un tal Riemann, tenía la solución a sus desvelos: el tensor métrico de Riemann, que le permitiría utilizar una geometría espacial de los espacios curvos que explicaba su relatividad general.
Desde que se puso en órbita el telescopio espacial de rayos gamma Fermi, el 11 de junio de 2008, ha detectado poblaciones enteras de objetos nunca antes vistos. El último hallazgo de Fermi afecta al púlsar J1823-3021A, avistado en 1994 con el radiotelescopio Lovell, en Inglaterra. Un equipo internacional de expertos se ha dado cuenta de que esta estrella pulsante emite rayos gamma y gracias a Fermi ha podido caracterizar sus inusuales propiedades. Los resultados de su investigación se publican en el último número de Science. Lo cierto es que han descubierto el púlsar de milisegundos más joven y con la fuerza magnética más potente
No está mal que en este punto recordemos la fuerza magnética y gravitatoria que nos puede ayudar a comprender mejor el comportamiento de las partículas subatómicas.
El electromagnetismo, decíamos al principio, es la fuerza con la cual dos partículas cargadas eléctricamente se repelen (si sus cargas son iguales) o se atraen (si tienen cargas de signo opuesto).
La interacción magnética es la fuerza que experimenta una partícula eléctricamente cargada que se mueve a través de un campo magnético. Las partículas cargadas en movimiento generan un campo magnético como, por ejemplo, los electrones que fluyen a través de las espiras de una bobina.
Las fuerzas magnéticas y eléctricas están entrelazadas. En 1873, James Clerk Maxwell consiguió formular las ecuaciones completas que rigen las fuerzas eléctricas y magnéticas, descubiertas experimentalmente por Michael Faraday. Se consiguió la teoría unificada del electromagnetismo que nos vino a decir que la electricidad y el magnetismo eran dos aspectos de una misma cosa.
La interacción es universal, de muy largo alcance (se extiende entre las estrellas), es bastante débil. Su intensidad depende del cociente entre el cuadrado de la carga del electrón y 2hc (dos veces la constante de Planck por la velocidad de la luz). Esta fracción es aproximadamente igual a 1/137’036…, o lo que llamamos α y se conoce como constante de estructura fina.
En general, el alcance de una interacción electromagnética es inversamente proporcional a la masa de la partícula mediadora, en este caso, el fotón, sin masa.
También antes hemos comentado sobre la interacción gravitatoria de la que Einstein descubrió su compleja estructura y la expuso al mundo en 1915 con el nombre de teoría general de la relatividad, y la relacionó con la curvatura del espacio y el tiempo. Sin embargo, aún no sabemos cómo se podrían reconciliar las leyes de la gravedad y las leyes de la mecánica cuántica (excepto cuando la acción gravitatoria es suficientemente débil).
La teoría de Einstein nos habla de los planetas y las estrellas del cosmos. La teoría de Planck, Heisemberg, Schrödinger, Dirac, Feynman y tantos otros, nos habla del comportamiento del átomo, del núcleo, de las partículas elementales en relación a estas interacciones fundamentales. La primera se ocupa de los cuerpos muy grandes y de los efectos que causan en el espacio y en el tiempo; la segunda de los cuerpos muy pequeños y de su importancia en el universo atómico. Cuando hemos tratado de unir ambos mundos se produce una gran explosión de rechazo. Ambas teorías son (al menos de momento) irreconciliables.
- La interacción gravitatoria actúa exclusivamente sobre la masa de una partícula.
- La gravedad es de largo alcance y llega a los más lejanos confines del universo conocido.
- Es tan débil que, probablemente, nunca podremos detectar esta fuerza de atracción gravitatoria entre dos partículas elementales. La única razón por la que podemos medirla es debido a que es colectiva: todas las partículas (de la Tierra) atraen a todas las partículas (de nuestro cuerpo) en la misma dirección.
La partícula mediadora es el hipotético gravitón. Aunque aún no se ha descubierto experimentalmente, sabemos lo que predice la mecánica cuántica: que tiene masa nula y espín 2.
La ley general para las interacciones es que, si la partícula mediadora tiene el espín par, la fuerza entre cargas iguales es atractiva y entre cargas opuestas repulsiva. Si el espín es impar (como en el electromagnetismo) se cumple a la inversa.
Pero antes de seguir profundizando en estas cuestiones hablemos de las propias partículas subatómicas, para lo cual la teoría de la relatividad especial, que es la teoría de la relatividad sin fuerza gravitatoria, es suficiente.
Si viajamos hacia lo muy pequeño tendremos que ir más allá de los átomos, que son objetos voluminosos y frágiles comparados con lo que nos ocupará a continuación: el núcleo atómico y lo que allí se encuentra. Los electrones, que ahora vemos “a gran distancia” dando vueltas alrededor del núcleo, son muy pequeños y extremadamente robustos. El núcleo está constituido por dos especies de bloques: protones y neutrones. El protón (del griego πρώτος, primero) debe su nombre al hecho de que el núcleo atómico más sencillo, que es el hidrógeno, está formado por un solo protón. Tiene una unidad de carga positiva. El neutrón recuerda al protón como si fuera su hermano gemelo: su masa es prácticamente la misma, su espín es el mismo, pero en el neutrón, como su propio nombre da a entender, no hay carga eléctrica; es neutro.
La masa de estas partículas se expresa en una unidad llamada mega-electrón-voltio o MeV, para abreviar. Un MeV, que equivale a 106 electrón-voltios, es la cantidad de energía de movimiento que adquiere una partícula con una unidad de carga (tal como un electrón o un protón) cuando atraviesa una diferencia de potencial de 106 (1.000.000) voltios. Como esta energía se transforma en masa, el MeV es una unidad útil de masa para las partículas elementales.
La mayoría de los núcleos atómicos contienen más neutrones que protones. Los protones se encuentran tan juntos en el interior de un núcleo tan pequeño que se deberían repeles entre sí fuertemente, debido a que tienen cargas eléctricas del mismo signo. Sin embargo, hay una fuerza que los mantiene unidos estrechamente y que es mucho más potente e intensa que la fuerza electromagnética: la fuerza o interacción nuclear fuerte, unas 102 veces mayor que la electromagnética, y aparece sólo entre hadrones para mantener a los nucleones confinados dentro del núcleo. Actúa a una distancia tan corta como 10-15 metros, o lo que es lo mismo, 0’000000000000001 metros.
La interacción fuerte está mediada por el intercambio de mesones virtuales, 8 gluones que, como su mismo nombre indica (glue en inglés es pegamento), mantiene a los protones y neutrones bien sujetos en el núcleo, y cuanto más se tratan de separar, más aumenta la fuerza que los retiene, que crece con la distancia, al contrario que ocurre con las otras fuerzas.
La luz es una manifestación del fenómeno electromagnético y está cuantizada en “fotones”, que se comportan generalmente como los mensajeros de todas las interacciones electromagnéticas. Así mismo, como hemos dejado reseñado en el párrafo anterior, la interacción fuerte también tiene sus cuantos (los gluones). El físico japonés Hideki Yukawa (1907 – 1981) predijo la propiedad de las partículas cuánticas asociadas a la interacción fuerte, que más tarde se llamarían piones. Hay una diferencia muy importante entre los piones y los fotones: un pión es un trozo de materia con una cierta cantidad de “masa”. Si esta partícula está en reposo, su masa es siempre la misma, aproximadamente 140 MeV, y si se mueve muy rápidamente, su masa parece aumentar en función E = mc2. Por el contrario, se dice que la masa del fotón en reposo es nula. Con esto no decimos que el fotón tenga masa nula, sino que el fotón no puede estar en reposo. Como todas las partículas de masa nula, el fotón se mueve exclusivamente con la velocidad de la luz, 299.792’458 Km/s, una velocidad que el pión nunca puede alcanzar porque requeriría una cantidad infinita de energía cinética. Para el fotón, toda su masa se debe a su energía cinética.
Los físicos experimentales buscaban partículas elementales en las trazas de los rayos cósmicos que pasaban por aparatos llamados cámaras de niebla. Así encontraron una partícula coincidente con la masa que debería tener la partícula de Yukawa, el pión, y la llamaron mesón (del griego medio), porque su masa estaba comprendida entre la del electrón y la del protón. Pero detectaron una discrepancia que consistía en que esta partícula no era afectada por la interacción fuerte, y por tanto, no podía ser un pión. Actualmente nos referimos a esta partícula con la abreviatura μ y el nombre de muón, ya que en realidad era un leptón, hermano gemelo del electrón, pero con 200 veces su masa.
Antes de seguir veamos las partículas elementales de vida superior a 10-20 segundos que eran conocidas en el año 1970.
Nombre | Símbolo | Masa (MeV) | Carga | Espín | Vida media (s) |
Fotón | γ | 0 | 0 | 1 | ∞ |
Leptones (L = 1, B = 0) | |||||
Electrón | e– | 0’5109990 | – | ½ | ∞ |
Muón | μ– | 105’6584 | – | ½ | 2’1970 × 10-6 |
Tau | τ | ||||
Neutrino electrónico | νe | ~ 0 | 0 | ½ | ~ ∞ |
Neutrino muónico | νμ | ~ 0 | 0 | ½ | ~ ∞ |
Neutrino tauónico | ντ | ~ 0 | 0 | ½ | ~ ∞ |
Mesones (L = 0, B = 0) | |||||
Pión + | π+ | 139’570 | 2’603 × 10-8 | ||
Pión – | π– | 139’570 | 2’603 × 10-8 | ||
Pión 0 | π0 | 134’976 | 0’84 × 10-16 | ||
Kaón + | k+ | 493’68 | 1’237 × 10-8 | ||
Kaón – | k– | 493’68 | 1’237 × 10-8 | ||
Kaón largo | kL | 497’7 | 5’17 × 10-8 | ||
Kaón corto | kS | 497’7 | 0’893 × 10-10 | ||
Eta | η | 547’5 | 0 | 0 | 5’5 × 10-19 |
Bariones (L = 0, B = 1) | |||||
Protón | p | 938’2723 | + | ½ | ∞ |
Neutrón | n | 939’5656 | 0 | ½ | 887 |
Lambda | Λ | 1.115’68 | 0 | ½ | 2’63 × 10-10 |
Sigma + | Σ+ | 1.189’4 | + | ½ | 0’80 × 10-10 |
Sigma – | Σ– | 1.1974 | – | ½ | 7’4× 10-20 |
Sigma 0 | Σ0 | 0 | ½ | 1’48 × 10-10 | |
Ksi 0 | Ξ0 | 1.314’9 | 0 | ½ | 2’9 × 10-10 |
Ksi – | Ξ– | 1.321’3 | – | ½ | 1’64 × 10-10 |
Omega – | Ω– | 1.672’4 | – | 1½ | 0’82 × 10-10 |
Para cada leptón y cada barión existe la correspondiente antipartícula, con exactamente las mismas propiedades a excepción de la carga que es la contraria. Por ejemplo, el antiprotón se simboliza con y el electrón con e+. Los mesones neutros son su propia antipartícula, y el π+ es la antipartícula del π–, al igual que ocurre con k+ y k–. El símbolo de la partícula es el mismo que el de su antipartícula con una barra encima. Las masas y las vidas medias aquí reflejadas pueden estar corregidas en este momento, pero de todas formas son muy aproximadas.
Los símbolos que se pueden ver algunas veces, como s (extrañeza) e i (isoespín) están referidos a datos cuánticos que afectan a las partículas elementales en sus comportamientos.
Debo admitir que todo esto tiene que sonar algo misterioso. Es difícil explicar estos temas por medio de la simple palabra escrita sin emplear la claridad que transmiten las matemáticas, lo que, por otra parte, es un mundo secreto para el común de los mortales, y ese lenguaje es sólo conocido por algunos privilegiados que, mediante un sistema de ecuaciones pueden ver y entender de forma clara, sencilla y limpia, todas estas complejas cuestiones.
Si hablamos del espín (o, con más precisión, el momento angular, que es aproximadamente la masa por el radio por la velocidad de rotación) se puede medir como un múltiplo de la constante de Planck, h, dividido por 2π. Medido en esta unidad y de acuerdo con la mecánica cuántica, el espín de cualquier objeto tiene que ser o un entero o un entero más un medio. El espín total de cada tipo de partícula – aunque no la dirección del mismo – es fijo.
El electrón, por ejemplo, tiene espín ½. Esto lo descubrieron dos estudiantes holandeses, Samuel Gondsmit (1902 – 1978) y George Uhlenbeck (1900 – 1988), que escribieron sus tesis conjuntamente sobre este problema en 1972. Fue una idea audaz que partículas tan pequeñas como los electrones pudieran tener espín, y de hecho, bastante grande. Al principio, la idea fue recibida con escepticismo porque la “superficie del electrón” se tendría que mover con una velocidad 137 veces mayor que la de la luz, lo cual va en contra de la teoría de la relatividad general en la que está sentado que nada en el universo va más rápido que la luz, y por otra parte, contradice E=mc2, y el electrón pasada la velocidad de la luz tendría una masa infinita.
Hoy día, sencillamente, tal observación es ignorada, toda vez que el electrón carece de superficie.
Las partículas con espín entero se llaman bosones, y las que tienen espín entero más un medio se llaman fermiones. Consultado los valores del espín en la tabla anterior podemos ver que los leptones y los bariones son fermiones, y que los mesones y los fotones son bosones. En muchos aspectos, los fermiones se comportan de manera diferente de los bosones. Los fermiones tienen la propiedad de que cada uno de ellos requiere su propio espacio: dos fermiones del mismo tipo no pueden ocupar o estar en el mismo punto, y su movimiento está regido por ecuaciones tales que se evitan unos a otros. Curiosamente, no se necesita ninguna fuerza para conseguir esto. De hecho, las fuerzas entre los fermiones pueden ser atractivas o repulsivas, según las cargas. El fenómeno por el cual cada fermión tiene que estar en un estado diferente se conoce como el principio de exclusión de Pauli. Cada átomo está rodeado de una nube de electrones, que son fermiones (espín ½). Si dos átomos se aproximan entre sí, los electrones se mueven de tal manera que las dos nubes se evitan una a otra, dando como resultado una fuerza repulsiva. Cuando aplaudimos, nuestras manos no se atraviesan pasando la uno a través de la otra. Esto es debido al principio de exclusión de Pauli para los electrones de nuestras manos que, de hecho, los de la izquierda rechazan a los de la derecha.
En contraste con el característico individualismo de los fermiones, los bosones se comportan colectivamente y les gusta colocarse todos en el mismo lugar. Un láser, por ejemplo, produce un haz de luz en el cual muchísimos fotones llevan la misma longitud de onda y dirección de movimiento. Esto es posible porque los fotones son bosones.
Cuando hemos hablado de las fuerzas fundamentales que, de una u otra forma, interaccionan con la materia, también hemos explicado que la interacción débil es la responsable de que muchas partículas y también muchos núcleos atómicos exóticos sean inestables. La interacción débil puede provocar que una partícula se transforme en otra relacionada, por emisión de un electrón y un neutrino. Enrico Fermi, en 1934, estableció una fórmula general de la interacción débil, que fue mejorada posteriormente por George Sudarshan, Robert Marschak, Murray Gell-Mann, Richard Feynman y otros. La fórmula mejorada funciona muy bien, pero se hizo evidente que no era adecuada en todas las circunstancias.
Uno de los protones se transmuta en un neutrón por medio de la interacción débil, transformando un quark “up”, en “down”. Este proceso consume energía (el neutrón tiene ligeramente más masa que..
En 1970, de las siguientes características de la interacción débil sólo se conocían las tres primeras:
- La interacción actúa de forma universal sobre muchos tipos diferentes de partículas y su intensidad es aproximadamente igual para todas (aunque sus efectos pueden ser muy diferentes en cada caso). A los neutrinos les afecta exclusivamente la interacción débil.
- Comparada con las demás interacciones, ésta tiene un alcance muy corto.
- La interacción es muy débil. Consecuentemente, los choques de partículas en los cuales hay neutrinos involucrados son tan poco frecuentes que se necesitan chorros muy intensos de neutrinos para poder estudiar tales sucesos.
- Los mediadores de la interacción débil, llamados W+, W– y Z0, no se detectaron hasta la década de 1980. al igual que el fotón, tienen espín 1, pero están eléctricamente cargados y son muy pesados (esta es la causa por la que el alcance de la interacción es tan corto). El tercer mediador, Z0, que es responsable de un tercer tipo de interacción débil que no tiene nada que ver con la desintegración de las partículas llamada “corriente neutra”, permite que los neutrinos puedan colisionar con otras partículas sin cambiar su identidad.
A partir de 1970, quedó clara la relación de la interacción débil y la electromagnética (electrodébil de Weinberg-Salam).
La interacción fuerte (como hemos dicho antes) sólo actúa entre las partículas que clasificamos en la familia llamada de los hadrones, a los que proporciona una estructura interna complicada. Hasta 1972 sólo se conocían las reglas de simetría de la interacción fuerte y no fuimos capaces de formular las leyes de la interacción con precisión.
Como apuntamos, el alcance de esta interacción no va más allá del radio de un núcleo atómico ligero (10-13 cm aproximadamente).
La interacción es fuerte. En realidad, la más fuerte de todas.
Lo dejaré aquí, en verdad, eso que el Modelo Estándar de la Física, es feo, complejo e incompleto y, aunque hasta el momento ha sido una buena herramienta con la que trabajar, la verdad es que, se necesita un nuevo modelo más avanzado y que incluya la Gravedad.
Existen esperanzas de que el LHC empleando energías más elevadas, nos pueda dar alguna sorpresa y encuentre objetos largamente perseguidos.
emilio silvera