Nov
17
Las cosas del Universo que tratamos de comprender
por Emilio Silvera ~ Clasificado en Astronomía y Astrofísica ~ Comments (0)
Tenemos que volver a los que posiblemente son los objetos más misteriosos de nuestro universo: los agujeros negros. Si estos objetos son lo que se dice (no parece que se pueda objetar nada en contra), seguramente serán ellos los que, finalmente, nos faciliten las respuestas sobre las ondas gravitacionales y el esquivo gravitón.
Las ondas gravitacionales ya han hablado y se han dejado capturar por LIGO pero, ¿que pasa con el esquivo gravitón? Acaso la fuerza de Gravedad es la única que no tiene su Bosón mensajero?
La onda gravitacional emitida por el agujero negro produce una ondulación en la curvatura del espacio-tiempo que viaja a la velocidad de la luz transportada por los “gravitones”.
Si nos adentramos con un microscopio electrónico de barrido hasta lo más profundo de la materia, allí encontramos un mundo extraño, nos topamos con escenarios que nuestro sentido común rechazaría.
Hay aspectos de la física que me dejan totalmente sin habla, me obligan a pensar y me transportan de este mundo material nuestro a otro fascinante donde residen las maravillas del universo. Hay magnitudes asociadas con las leyes de la gravedad cuántica. La longitud de Planck-Wheeler, = 1’62 × 10-33 cm, es la escala de longitud por debajo de la cual es espacio, tal como lo conocemos, deja de existir y se convierte en espuma cuántica. El tiempo de Planck-Wheeler (1/c veces la longitud de Planck-Wheeler, o aproximadamente 10-43 segundos), es el intervalo de tiempo más corto que puede existir; si dos sucesos están separados por menos que esto, no se puede decir cuál sucede antes y cuál después. El área de Planck-Wheeler (el cuadrado de la longitud de Planck-Wheeler, es decir, 2’61 × 10-66 cm2) juega un papel clave en la entropía de un agujero negro.
Experimentos en el LHC que nos muestran la materia en su mínimo exponente (hasta el momento), se espera que cuando funcione a 100 TeV, quizás podamos llegar hasta las cuerdas vibrantes de esa misteriosa teoría.
Experimento sobre fluctuaciones del vacío Crédito: Adaptado de C. RIEK ET AL., SCIENCE (2015)
“Gracias al principio de incertidumbre, el vacío bulle con pares de partículas-antipartículas que aparecen y desaparecen. Incluyen, entre muchos otros, los pares electrón-positrón y pares de fotones, que son sus propias antipartículas. Normalmente, esas partículas “virtuales” no pueden captarse directamente. Pero, como un fantasmal coro griego, ejercen sutiles influencias sobre el mundo “real”.”
Diagrama de Feynman
Me llama poderosamente la atención lo que conocemos como las fluctuaciones de vacío; esas oscilaciones aleatorias, impredecibles e ineliminables de un campo (electromagnético o gravitatorio), que son debidas a un tira y afloja en el que pequeñas regiones del espacio toman prestada momentáneamente energía de regiones adyacentes y luego la devuelven.
En física, cuando hablamos de vacío, no nos referimos al del abismo. Es la ausencia de material, y, dicho vacío no existe, ni en el laboratorio lo hemos podido conseguir. En el espacio Interestelar
Ordinariamente, definimos el vacío como el espacio en el que hay una baja presión de un gas, es decir, relativamente pocos átomos o moléculas. En ese sentido, un vacío perfecto no contendría ningún átomo o molécula, pero no se puede obtener, ya que todos los materiales que rodean ese espacio tienen una presión de vapor infinita. En un bajo vacío, la presión se reduce hasta 10-2 pascales, mientras que un alto vacío tiene una presión de 10-2 – 10-7 pascales. Por debajo de 10-7 pascales se conoce como un vacío ultraalto. No puedo dejar de referirme al vacío theta (vacío θ), que es el estado de vacío de un campo gauge no abeliano (en ausencia de campos fermiónicos y campos de Higgs). En el vacío theta hay un número infinito de estados degenerados con efecto túnel entre estos estados. Esto significa que el vacío theta es análogo a una función de Bloch* en un cristal. Cuando hay un fermión sin masa, el efecto túnel entre estados queda completamente suprimido. Cuando hay campos fermiónicos con masa pequeña, el efecto túnel es mucho menor que para campos gauge puros, pero no está completamente suprimido. El vacío theta es el punto de partida para comprender el estado de vacío de las teoría gauge fuertemente interaccionantes, como la cromodinámica cuántica.
Ese otro “mundo” desconocido de las fluctuaciones de vacío
En astronomía, el vacío está referido a regiones del espacio con menos contenido de galaxias que el promedio, o ninguna galaxia. También solemos llamarlo vacío cósmico. Han sido detectados vacíos con menos de una décima de la densidad promedio del universo en escalas de hasta 200 millones de años luz en exploraciones a gran escala. Estas regiones son, a menudo (aunque no siempre), esféricas.
El primer gran vacío en ser detectado fue el de Boötes en 1.981; tiene un radio de unos 180 millones de años luz y su centro se encuentra a aproximadamente 500 millones de años luz de la Vía Láctea. La existencia de grandes vacíos no sorprende a la comunidad de astrónomos y cosmólogos, dada la existencia de cúmulos de galaxias y supercúmulos a escalas muy grandes. Claro que, según creo yo personalmente, ese vacío, finalmente, resultará que está demasiado lleno, hasta el punto de que su contenido nos manda mensajes que, aunque hemos captado, no sabemos descifrar. Cuando esté totalmente preparado para ello, os lo contaré; el mensaje permanece escondido fuera de nuestra vista.
La física cuántica tiene una cualidad espectral que destruye toda lógica. Una de sus más extrañas predicciones, que el vacío en realidad contiene una serie de partículas virtuales que entran y salen de la existencia, parece haber sido confirmada por un grupo de investigadores de la Universidad Tecnológica de Chalmers en Gotenburgo. De forma cuasidivina, este equipo ha logrado crear luz del vacío usando espejos en movimiento.
La física cuántica sostiene que existen estas partículas virtuales que desaparecen y reaparecen en la espuma cuántica, pero que pueden tener efectos tangibles. Por ejemplo: si dos espejos son colocados extremadamente cerca, los tipos de partículas virtuales, o fotones, que pueden existir entre ellos pueden estar limitados. Este límite significa que más fotones virtuales existen afuera de los espejos que entre ellos, creando una fuerza que junta las placas. Esto es lo que se conoce como ‘la fuerza de Casimir’, la cual en casos así es suficientemente fuerte para ser medida.
Sabemos referirnos al producto o cociente de las unidades físicas básicas, elevadas a las potencias adecuadas, en una cantidad física derivada. Las cantidades físicas básicas de un sistema mecánico son habitualmente la masa (m), la longitud (l) y el tiempo (t). Utilizando estas dimensiones, la velocidad, que es una unidad física derivada, tendrá dimensiones l/t, y la aceleración tendrá dimensiones l/t2. Como la fuerza es el producto de una masa por una aceleración, la fuerza tiene dimensiones mlt-2. En electricidad, en unidades SI, la corriente, I, puede ser considerada como dimensionalmente independiente, y las dimensiones de las demás unidades eléctricas se pueden calcular a partir de las relaciones estándar. La carga, por ejemplo, se puede definir como el producto de la corriente por el tiempo; por tanto, tiene dimensión It. La diferencia de potencia está dad por la relación P = VI, donde P es la potencia. Como la potencia es la fuerza por la distancia entre el tiempo (mlt-2 × l × t-1 = ml2t-3), el voltaje V está dado por V = ml2t-3I-1. Así queda expresado lo que en física se entiende por dimensiones, referido al producto o cociente de las cantidades físicas básicas.
En la mecánica clásica la cantidad de acción, producto de energía por tiempo, puede expresarse de forma continua desde cero hasta infinito, pero la revolución que supuso el descubrimiento del llamado cuanto de acción fue, precisamente, que esta cantidad física sólo podía existir de forma estable en múltiplos enteros de esa mínima cantidad llamada h, o cuanto mínimo de acción de Planck .
Las consecuencias de la existencia del cuanto mínimo de acción fueron revolucionarios para la comprensión del vacío. Mientras la continuidad de la acción clásica suponía un vacío plano, estable y “realmente” vacío, la discontinuidad que supone el cuanto nos dibuja un vacío inestable, en continuo cambio y muy lejos de poder ser considerado plano en las distancias atómicas y menores. El vacío cuántico es de todo menos vacío, en él la energía nunca puede quedar estabilizada en valor cero, está fluctuando sobre ese valor, continuamente se están creando y aniquilando todo tipo de partículas, llamadas por eso virtuales, en las que el producto de su energía por el tiempo de su existencia efímera es menor que el cuanto de acción. Se llaman fluctuaciones cuánticas del vacío y son las responsables de que exista un campo que lo inunda todo llamado campo de punto cero.
Pero volvamos de nuevo a las fluctuaciones de vacío, que al igual que las ondas “reales” de energía positiva, están sujetas a las leyes de la dualidad onda/partícula; es decir, tienen tanto aspectos de onda como aspectos de partícula.
Las ondas fluctúan de forma aleatoria e impredecible, con energía positiva momentáneamente aquí, energía negativa momentáneamente allí, y energía cero en promedio. El aspecto de partícula está incorporado en el concepto de partículas virtuales, es decir, partículas que pueden nacer en pares (dos partículas a un tiempo), viviendo temporalmente de la energía fluctuacional tomada prestada de regiones “vecinas” del espacio, y que luego se aniquilan y desaparecen, devolviendo la energía a esas regiones “vecinas”. Si hablamos de fluctuaciones electromagnéticas del vacío, las partículas virtuales son fotones virtuales; en el caso de fluctuaciones de la gravedad en el vacío, son gravitones virtuales.
De las llamadas fluctuaciones de vacío pueden surgir, partículas virtuales y quién sabe que cosas más… Hasta un nuevo Universo.
“El espacio no está vacío ni es silencioso. Aunque técnicamente es un vacío, contiene partículas energéticas cargadas, gobernadas por campos magnéticos y eléctricos que pueden ser escuchadas. En regiones atadas con campos magnéticos, como el ambiente espacial que rodea nuestro planeta, las partículas son continuamente lanzadas hacia adelante y atrás por el movimiento de varias ondas electromagnéticas conocidas como ‘ondas de plasma'”
Partículas efímeras que surgen del “vacío” producido por fluctuaciones
Claro que, en realidad, sabemos poco de esas regiones vecinas de las que tales fluctuaciones toman la energía. ¿Qué es lo que hay allí? ¿Está en esa región la tan buscada partícula de Higgs? Sabemos que las fluctuaciones de vacío son, para las ondas electromagnéticas y gravitatorias, lo que los movimientos de degeneración claustrofóbicos son para los electrones. Si confinamos un electrón a una pequeña región del espacio, entonces, por mucho que uno trate de frenarlo y detenerlo, el electrón está obligado por las leyes de la mecánica cuántica a continuar moviéndose aleatoriamente, de forma impredecible. Este movimiento de degeneración claustrofóbico que produce la presión mediante la que una estrella enana blanca se mantiene contra su propia compresión gravitatoria o, en el mismo caso, la degeneración de neutrones mantiene estable a la estrella de neutrones, que obligada por la fuerza que se genera de la degeneración de los neutrones, es posible frenar la enorme fuerza de gravedad que está comprimiendo la estrella.
No creo que esto sea el salto cuántico
De la misma forma, si tratamos de eliminar todas las oscilaciones electromagnéticas o gravitatorias de alguna región del espacio, nunca tendremos éxito. Las leyes de la mecánica cuántica insisten en que siempre quedarán algunas oscilaciones aleatorias impredecibles, es decir, algunas ondas electromagnéticas y gravitatorias aleatorias e impredecibles. Estas fluctuaciones del vacío no pueden ser frenadas eliminando su energía (aunque algunos estiman que, en promedio, no contienen energía en absoluto). Claro que, como antes decía, aún nadie ha podido medir de ninguna manera la cantidad real de energía que se escapa de ese supuesto “vacío”, como tampoco se ha medido la cantidad de fuerza gravitatoria que puede salir de ese mismo espacio “vacío”. Si la energía es masa y la masa produce gravedad, entonces ¿qué es lo que hay en ese mal llamado “espacio vacío”?
No, el espacio no está vacío como alguna vez se pudo creer.
…el espacio no está vacío como creíamos, está lleno de una esencia viva que empezamos a entender. Está demostrado que nuestras experiencias internas influyen en el mundo a través del espacio. La nada no existe, si de “ella” surgió algo, es por había.
No podemos contestar de momento a esas preguntas, sin embargo, parece que no sería un disparate pensar en la existencia allí (en eso que llamamos vacío) de alguna clase de materia que, desde luego, al igual que la bariónica que sí podemos ver, genera energía y ondas gravitacionales que, de alguna manera que aún se nos oculta, escapa a nuestra vista y sólo podemos constatar sus efectos al medir las velocidades a las que se alejan las galaxias unas de otras: velocidad de expansión del universo, que no se corresponde en absoluto con la masa y la energía que podemos ver.
El vacío no existe, siempre hay. También resulta ser así en nuestras mentes. Sin embargo, en algunas hay más que en otras. No todos tenemos abundancia de ese ingrediente que llamamos capacidad intelectual
Estoy atando cabos sueltos, uniendo piezas y buscando algunas que están perdidas de tal manera que, por mucho que miremos, nunca podremos ver. El lugar de dichas piezas perdidas no está en nuestro horizonte y se esconde más allá de nuestra percepción sensorial. Se necesitará tiempo y evolución para que, nosotros, podamos “ver” esas dimensiones extra que, al parecer, hacen posible que todo alcance una simetría universal en la que, pacíficamente, convivan todas las fuerzas, todas las energías y, toda la materia.
Se habla de la materia perdida. Situada a lo largo de la línea de observación de este AGN, a una distancia de alrededor de millones de años luz de la Tierra, se encuentra una estructura conocida como Pared del Escultor. Esta estructura muy difusa se prolonga a lo largo de decenas de millones de años luz conteniendo en su interior miles de galaxias y también una reserva importante de gas difuso y caliente (WHIM) en el que podría hallarse la materia buscada.
No dejamos de observar, seguimos buscando esas respuestas a preguntas planteadas que nadie ha sabido contestar…
Estamos en un momento crucial de la física, las matemáticas y la cosmología, y debemos, para poder continuar avanzando, tomar conceptos nuevos que, a partir de los que ahora manejamos, nos permitan traspasar los muros que nos están cerrando el paso para llegar a las supercuerdas, a la materia oscura o a una teoría cuántica de la gravedad, que también está implícita en la teoría M. Estamos anclados; necesitamos nuevas y audaces ideas que puedan romper las cadenas virtuales que atan nuestras mentes a ideas del pasado. En su momento, esas ideas eran perfectas y cumplieron su misión. Sin embargo, ahora no nos dejan continuar y debemos preparar nuestras mentes para evolucionar hacia nuevos conceptos y ahondar en aquellos que, aun estando ahí presentes, no somos capaces de utilizar, como por ejemplo el hiperespacio, de tan enorme importancia en el futuro de la Humanidad. Cuando sepamos “ver” dimensiones más altas, todo será mucho más sencillo y encontraremos las respuestas a los problemas que hoy no sabemos resolver.
emilio silvera
Nov
17
¿Cómo se desarrolló la Teoría de la Relatividad?
por Emilio Silvera ~ Clasificado en Física ~ Comments (0)
A ella se pudo llegar gracias al desarrollo de una serie de pensamientos que comienza por Faraday y Maxwell y asentados en el principio de que todo suceso físico debe atribuirse a acciones cercanas, o, dicho en términos más matemáticos, en ecuaciones a derivadas parciales. Maxwell consiguió expresarlo así para el caso de los fenómenos electromagnéticos en cuerpos inmóviles, desarrollando la idea del efecto magnético de la corriente de desplazamiento en el vacío y proponiendo la identidad entre los campos “electromotores” producidos por inducción y los campos electrostáticos.
Con esta reconocida imagen nos podemos hacer una idea del campo magnético
La ampliación de la electrodinámica al caso de los cuerpos en movimiento fue una tarea que quedó para los sucesores de Maxwell. H. Hertz intentó resolver el problema asignado al espacio vacío (éter) unas propiedades físicas totalmente similares a las de la materia ponderable; en particular, el éter, al igual que la materia debería poseer determinada velocidad en cada punto. La inducción electromagnética o magneto-eléctrica debía estar determinada por la velocidad de variación del flujo eléctrico, o magnético, como en los cuerpos en reposo, siempre que estas variaciones de velocidad se produjeran con respecto a elementos de la superficie que se movieran con el cuerpo. Sin embargo, la teoría de Hertz contradecía el experimento fundamental de Fizeau sobre la propagación de la luz a través de fluidos en movimiento. La ampliación más inmediata de la teoría de Maxwell a los cuerpos en movimiento era incompatible con el experimento.
La física oculta del éter
En ese punto la salvación llegó de la mano de H. A. Lorentz. Siendo partidario incondicional de la teoría atomista de la materia, Lorentz no podía concebir esta última como un emplazamiento de campos electromagnéticos continuos. En consecuencia, concibió estos campos como condiciones o estados del éter, que se consideraba continuo. Lorentz se imaginaba el éter como algo que en esencia era independiente de la materia, tanto mecánica como físicamente. El éter no debía participar del movimiento de la materia y sólo debía mantener una interacción con ella en tanto que la materia se concebía como conductora de cargas eléctricas ligadas a ella.
Bien sabido es de todos que el átomo es un conglomerado de cargas eléctricas que, siendo positivas (protones) y negativas (electrones), al ser equivalentes se anulan las unas a las otras y se logra la armonía y estabilidad requerida para que, el universo pueda formar las moléculas y, éstas, se agrupan para conformar la materia.
El gran avance metodológico de la teoría de Lorentz residía en el hecho de que, gracias a ella, toda la electrodinámica de los cuerpos en reposo y en movimiento se podía reducir a las ecuaciones del espacio vacío de Maxwell. Esta teoría no sólo era superior a la de Hertz desde un punto de vista metodológico, sino que, además, gracias a ella, H. A. Lorentz consiguió dar una explicación asombrosamente acertada de los hechos experimentales.
Sólo hay un punto de importancia fundamental en el que la teoría no resulta satisfactoria. Parece ser que daba preferencia a un sistema de coordenadas que se encontrara en un determinado estado de movimiento (un sistema de coordenadas que estaba en reposo con respecto al éter luminífero) frente a todos los demás sistemas de coordenadas que se encontraran en movimiento con relación a éste. En este punto parecía que la teoría estaba en contradicción frontal con la mecánica clásica, en la cual todos los sistemas inerciales (que tienen un movimiento uniforme unos con respecto a otros) son equivalentes como sistemas de coordenadas (principio especial de la relatividad). En este sentido, todos los experimentos realizados en el ámbito de la electrodinámica (en particular el experimento de Michelson) ponía de manifiesto la equivalencia de todos los sistemas inerciales, es decir, apoyaban el principio especial de la relatividad.
Experimento Michelson-Morley Reposo con el éter luminífero Interferómetro de Michelson y Morley en reposo respecto al éter luminífero
El movimiento del éter siempre fue un misterio que muchos quisieron resolver y, para ello, se hicieron experimentos de todo tipo. El de Michelson-Morley vino a dejar claro el tema y sirvió a Einstein para descartar el éter de su teoría. Sin embargo, pasado el tiempo, ahora mismo, se está hablando de nuevo de la existencia de una especie de “éter” que impregna todo el espacio.
Así las cosas, la teoría especial de la relatividad surgió precisamente gracias a esta dificultad inicial, que en sí misma resultaba insoportable. La teoría nació como respuesta a la pregunta: ¿Realmente existe una contradicción entre el principio especial de la relatividad y las ecuaciones de campo de Maxwell para el espacio vacío? Aparentemente la respuesta tenía que ser afirmativa. Las mencionadas ecuaciones son va´lidas para un sistema de coordenadas K y se introduce un nuevo sistema de coordenadas K1 mediante las ecuaciones de transformación, aparentemente fáciles de justificar (aquí las obviaré) y que nos llevan a la transformación de Galileo y, entonces, las ecuaciones de campo de Maxwell ya no se cumplen para esas nuevas coordenadas.
Las coordenadas han sido muy útiles y de fructífero rendimiento
Pero siguiendo con en tema tenemos que decir que, muchas veces, las apariencias engañan. Mediante un análisis más profundo del significado físico del espacio y del tiempo se puede ver que la transformación de Galileo se basa en suposiciones arbitrarias, especialmente en la hipótesis de que la afirmación de la simultaneidad tiene un sentido independiente del estado de movimiento que tenga el sistema de coordenadas utilizado. Queda claro que las ecuaciones de campo en el vacío satisfacían el principio especial de la relatividad cuando se utilizaban las ecuaciones de la Transformación de Lorentz.
Es estas ecuaciones, x, y, z son las coordenadas medidas con una vara de medir que se encuentra en reposo con respecto al sistema de coordenadas (y aunque no las he querido reflejar aquí para no enredar), y en ellas, t representa el tiempo medido con un reloj que se encuentra en reposo y está debidamente ajustado.
Lo grande y lo pequeño: Eso es la Teoría
Ahora bien, para que pueda cumplirse el principio especial de la relatividad, es necesario que todas las ecuaciones de la física conserven invariable su forma al pasar de un sistema inercial a otro, cuando utilizamos para este cambio la Transformación de Lorentz. En lenguaje matemático, diremos que todos los sistemas de ecuaciones que expresan leyes físicas deben ser covariantes con respecto a la Transformación de Lorentz. Por consiguiente, bajo un punto de vista metodológico, el principio especial de la relatividad es comparable al principio de Carnot, que afirma la imposibilidad del perpetuum mobile (movimiento perpetuo o continuo) de segunda especie, ya que, al igual que este último, establece una condición general que deben cumplir todas las leyes naturales.
De manera que la transformación de Einstein, que es la transformación de Lorentz queda como
Podría dejarlo aquí, pero vamos a complicarlo un poco. Introducimos una nueva coordenada espacial a partir de ct, el producto de una velocidad por el tiempo es el espacio y utilizamos la siguiente notación:
Con lo que la transformación de Lorentz queda de la forma más simétrica.
“El origen en el diagrama espacio-tiempo (ct, r) = (0, 0) representa el “ahora”. En la región de color amarillo que representa el “futuro” que le espera al observador predomina el componente temporal sobre el componente espacial, con lo cual s² siempre es mayor que cero (positivo) y por lo tanto es una región de intervalos tipo temporal. En la región de color ciano que representa el “pasado” que recorrió el observador también predomina el componente temporal sobre el componente espacial, con lo cual s² siempre es mayor que cero (positivo) y por lo tanto también es una región de intervalos tipo temporal (timelike). En las líneas que delimitan al cono de luz la componente temporal es igual a la componente espacial con lo cual s² = 0, y es aquí en donde tenemos a los intervalos tipo luminoso que involucran rayos de luz. Y fuera de todo esto tenemos a los intervalos en donde el componente espacial es mayor que el componente temporal con lo cual s² es menor que cero (negativo) siendo por lo tanto la región de intervalos tipo espacial.”
Para esta condición de covariancia encontró H. Minkowski una espresión especialmente bella y sugerente que revela un parentesco formal entre la geometría euclidea tridimensional y el continuo espacio-tiempo de la física.
Seguidamente tendría que exponer aquí un esquema con ecuaciones de la geometría euclidea tridimensional y otro (para comparar) de la teoría especial de la relatividad. Sin embargo, no queriendo complejidades que desvíen al lector de la historia esencial, diré que de ellas se deduce que el tiempo es equivalente a las coordenadas espaciales (dejando a un lado sus relaciones con la realidad), no por lo que respecta a su significado físico, sino por el papel que desempeña en las ecuaciones de la física. desde este punto de vista, la física es en cierto modo una geometría euclidea de cuatro dimensiones o, mejor dicho, un determinado tipo de estática en un continuo euclideo cuatridimensional.
Cono de luz en un espacio-tiempo de Minkowski
El desarrollo de la teoría especial de la relatividad se desarrolló en dos pasos principales: la adaptación de la métrica espacio-temporal a la electrodinámica de Maxwell y una adaptación del resto de la físca a esa métrica espacio-temporal modificada. El primero de estos procesos de adaptación profujo la relativización de la simultaneidad, la influencia del mocimiento en varas de medir y relojes, una modificación de la cinemática y, en particular, un nuevo teorema de adiciín de las velocidades.
El segundo proceso de adaptación dio lugar a una modificación de las leyes newtonianas del movimiento para grandes velocidades, así como una aclaración sobre la naturaleza de la masa inercial cuya importancia es fundamental. Se descubrió que la inercia no es una propiedad fundamental de la materia, ni una magnitud irreducible, sino una propiedad de la energía. Si a un cuerpo se le suministra una energía E, su masa inercial aumenta en una cantidad E/c2, donde c es la velocidad de la luz en el vacío; a la inversa, un cuerpo de masa m debe ser considerado como una reserva de energía de magnitud mc2.
Cuando se intentó establecer el vínculo entre las teorías de la gravitación y la teoría especial de la relatividad, no tardó en verse que esto no era posible de una manera natural. A propósito de ello a Einstein de le ocurrió que la fuerza de la gravedad posee una propiedad fundamental que la distingue de la fuerza electromagnética: todos los cuerpos caen en un campo gravitatorio con la misma aceleración, o -formulando lo mismo de otra manera- la masa inercial y gravitatoria de un cuerpo son numéricamente iguales.
La vinculación gravitatoria de los cuerpos es bien patente y, en la Tierra y la Luna, tenemos la mejor prueba de ello.
Esta igualdad numérica de la masa inercial y gravitatoria nos hace sospechar que ambas sean esencialmente idénticas; pero ¿pueden las masas inerciales y gravitatorias ser realmente iguales? Esta pregunta nos lleva directamente a la teoría general de la relatividad. ¿No sería posible considerar que la Tierra no realiza un movimiento de rotación, si concibo la fuerza centrífuga, que actúa sobre los cuerpos que están en reposo con respecto a la Tierra, como un campo gravitatorio “real” (o como una parte del campo gravitatorio)? Si esta idea es viable, entonces está realmente demostrado que las masas inercial y gravitatoria son idénticas, ya que el mismo efecto que se considera como inercia desde el punto de vista de un sistema que “no toma parte en la rotación”, puede interpretarse como gravedad si se observa desde un sistema que comparte la rotación. Según Newton, esta interpretación es imposible, porque no se puede considerar según la ley de Newton que el campo centrífugo esté generado por masas, y porque un campo “real” del tipo de “campo de Coriolis” no está contemplado en la teoría newtoniana.
Pero, ¿sería posible sustituir la ley de campos de Newton por alguna otra compatible con el campo que puede existir con respecto a un sistema de coordenadas “en rotación”? El convencimiento de que las masas inercial y gravitatoria son idénticas inspiró a Einstein una confianza incondicional en la validez de esta interpretación y, una idea le llenó de esperanza: conocemos los campos “aparentes” que son válidos con respecto a cualquier sistema de coordenadas que se mueve arbitrariamente con relación a un sistema inercial; utilizando los campos (especiales) se podrá estudiar la ley que cunplen en general los campos gravitatorios. para ello habrá que tener en cuanta que, como generadoras de estos campos, serán determinantes las masas ponderables, o bien lo será la densidad de energía (una magnitud que posee el carácter transformador de un tensor), según el resultado fundamental de la teoría especial de la relatividad.
Tensor métrico de Riemann
A partir de aquí, tendríamos que entrar en el Tensor métrico de Riemann pero, ¡el tiempo! como pasa siempre, me lo impide así que, dejaremos para mejor ocasión el continuar con el tema que, como todo lo que concierne a Einstein, termina siendo fascinante porque, dentro de su complejidad, subyace una sencillez de ideas que, finalmente, terminan por conquistarnos.
emilio silvera
Nov
16
¡La Física! Siempre presente
por Emilio Silvera ~ Clasificado en Física ~ Comments (0)
Todo comienza siendo una cosa y con el tiempo, se transforma en otra diferente: Evolución por la energía. En el universo en que vivimos, nada desaparece; con el tiempo se cumplen los ciclos de las cosas y se convierten en otra distinta, es un proceso irreversible. Estudiar en profundidad el simple proceso que siguen los Quarks -siempre con los Gluones pegados al culo- para poder formar el núcleo atómico, y, más tarde, que se forme el átomo, es una maravilla de la Naturaleza a la que no damos la importancia que verdaderamente tiene. Sin átomos… ¡No estaríamos! Todo lo que arriba nos muestrasn esas bellas imágenes son átomos que se juntaron para conformarlas.
El gas y el polvo se transforma en una brillante estrella que vive diez mil millones de años y termina en Nebulosa planeta con una enana blanca en el centro. Entonces la estrella que tenía un diámetro de 1.500 km, se reduce hasta unas pocas decenas, 20 0 30 Km y, su densidad, es inmensa, emitiendo radiación ultravioleta durante mucjho tiempo hasta que se enfría y se convierte en un cadáver estelar.
En lo concerniente a cambios y transformaciones, el que más me ha llamado siempre la atención es el de las estrellas que se forman a partir de gas y polvo cósmico. Nubes enormes de gas y polvo se van juntando. Sus moléculas cada vez más apretadas se rozan, se ionizan y se calientan hasta que en el núcleo central de esa bola de gas caliente, la temperatura alcanza millones de grados. La enorme temperatura posible la fusión de los protones y, en ese instante, nace la estrella que brillará miles de millones de años y dará luz y calor. Su ciclo de vida estará supeditado a su masa. Si la estrella es supermasiva, varias masas solares, su vida será más corta, ya que consumirá el combustible nuclear de fusión (hidrógeno, helio, litio, oxígeno, etc) con más voracidad que una estrella mediana como nuestro Sol, de vida más duradera.
Cuando agotan el combustible nuclear de fusión, se convierten en otros objetos diferentes. Mientras tanto, durante miles de años fusionan materiales sencillos en otros más complejos y, alcanzan la estabilidad debido a las dos fuerzas contrapuestas: La Radiación que tiene a expandir la masa estelar, y, la Gravedad que trata de comprimirla.
Una estrella, como todo en el universo, está sostenida por el equilibrio de dos fuerzas contrapuestas; en caso, la fuerza que tiende a expandir la estrella (la energía termonuclear de la fusión) y la fuerza que tiende a contraerla (la fuerza gravitatoria de su propia masa). Cuando finalmente el proceso de fusión se detiene por agotamiento del combustible de fusión, la estrella pierde la fuerza de expansión y queda a merced de la fuerza de gravedad; se hunde bajo el peso de su propia masa, se contrae más y más, y en el caso de estrellas súper masivas, se convierten en una singularidad, una masa que se ha comprimido a tal extremo que acaba poseyendo una fuerza de gravedad de una magnitud difícil de imaginar el común de los mortales.
La singularidad con su inmensa fuerza gravitatoria atrae a la estrella vecina
La Tierra, un objeto minúsculo en comparación con esos objetos súper masivos estelares, genera una fuerza de gravedad que, para escapar de ella, una nave o cohete espacial tiene que salir disparado la superficie terrestre a una velocidad de 11’18 km/s; el sol exige 617’3 km/s. Es lo que se conoce como velocidad de escape, que es la velocidad mínima requerida escapar de un campo gravitacional que, lógicamente, aumenta en función de la masa del objeto que la produce. El objeto que escapa puede ser una cosa cualquiera, desde una molécula de gas a una nave espacial. La velocidad de escape de un cuerpo está dada por , donde G es la constante gravitacional, M es la masa del cuerpo y R es la distancia del objeto que escapa del centro del cuerpo. Un objeto que se mueva con una velocidad menor que la de escape entra en una órbita elíptica; si se mueve a una velocidad exactamente igual a la de escape, sigue una órbita , y si el objeto supera la velocidad de escape, se mueve en una trayectoria hiperbólica y rompe la atadura en que la mantenía sujeto al planeta, la estrella o el objeto que emite la fuerza gravitatoria.
La mayor velocidad que es posible alcanzar en nuestro universo es la de la luz, c, velocidad que la luz alcanza en el vacío y que es de 299.793’458 km/s.
Sí, se pudo confirmar que los neutrinos respetan la supremacía del fotón, y la luz, sigue siendo la más rápida del Universo. Y sin embargo, no escapar de la atracción de un A.N. Los neutrinos, según todos los indicios, tiene una ínfima masa que les hace diferentes de los fotones que, en reposo, no tienen masa.
Pues bien, es tal la fuerza de gravedad de un agujero negro que ni la luz puede escapar de allí; la singularidad la absorbe, la luz desaparece en su interior, de ahí su , agujero negro, la estrella supermasiva se contrae, llega a un punto que desaparece de nuestra vista. De acuerdo con la relatividadgeneral, cabe la posibilidad de que una masa se comprima y reduzca sin límites su tamaño y se auto confine en un espacio infinitamente pequeño que encierre una densidad y una energía infinitos. Allí, el espacio y el tiempo dejan de existir.
Las singularidades ocurren en el Big Bang, en los agujeros negros y en el Big Crunch (que se podría considerar una reunión de todos los agujeros negros generados por el paso del tiempo en el universo y que nos llevará a un fin que será el comienzo).
Las singularidades de los agujeros negros están rodeados por una circunferencia invisible a su alrededor que marca el límite de su influencia. El objeto que traspasa ese límite es atraído, irremisiblemente, la singularidad que lo engulle, sea una estrella, una nube de gas o cualquier otro objeto cósmico que ose traspasar la línea que se conoce como horizonte de sucesos del agujero negro.
La existencia de los agujeros negros fue deducida por Schwarzschild, en el año 1.916, a partir de las ecuaciones de Einstein de la relatividad general. Este astrónomo alemán predijo su existencia, pero el de agujero negro se debe a Wehleer.
Señalamos la singularidad del Big Bang pero… ¿fue así?
Así, el conocimiento de la singularidad está dado por las matemáticas de Einstein y más tarde por la observación de las señales que la presencia del agujero generan. Es una fuente emisora de rayos X que se producen al engullir materia que traspasa el horizonte de sucesos y es atrapada la singularidad, donde desaparece siempre sumándose a la masa del agujero cada vez mayor.
En el centro de nuestra galaxia, la Vía Láctea, ha sido detectado un enorme agujero negro, ya muy famoso, llamado Cygnus X-1. Después de todo, la velocidad de la luz, la máxima del universo, no vencer la fuerza de gravedad del agujero negro que la tiene confinada para siempre. En nuestra galaxia, con cien mil años luz de diámetro y unos doscientos mil millones de estrellas, ¿cuántos agujeros negros habrá?
Para mí, la cosa está clara: el tiempo es imparable, el reloj cósmico sigue y sigue andando sin que nada lo pare, miles o cientos de miles, millones y millones de estrellas súper masivas explotarán en brillantes supernovas para convertirse en temibles agujeros negros. Llegará un momento que el de agujeros negrosen las galaxias será de tal magnitud que comenzarán a fusionarse unos con otros que todo el universo se convierta en un inmenso agujero negro, una enorme singularidad, lo único que allí estará presente: la gravedad.
Esa fuerza de la naturaleza que está sola, no se puede juntar con las otras fuerzas que, como se ha dicho, tienen sus dominios en la mecánica cuántica, mientras que la gravitación residen en la inmensidad del cosmos; las unas ejercen su dominio en los confines microscópicos del átomo, mientras que la otra sólo aparece de manera significativa en presencia de grandes masas estelares. Allí, a su alrededor, se aposenta curvando el espacio y distorsionando el tiempo.
Esa reunión final de agujeros negros será la causa de que la Densidad Crítica sea superior a la ideal. La gravedad generada por el inmenso agujero negro que se irá formando en cada galaxia tendrá la consecuencia de parar la expansión actual del universo. Todas las galaxias que ahora están separándose las unas de las otras se irán frenando parar y, despacio al principio pero más rápido después, comenzarán a recorrer el camino hacia atrás. Finalmente, toda la materia será encontrada en un punto común donde chocará violentamente formando una enorme bola de fuego, el Big Crunch.
de que eso llegue, tendremos que resolver el primer problema: la muerte del Sol.
Aquí se refleja el ciclo que seguirá el Sol hasta convertirse en enana blanca
Los científicos se han preguntado a veces qué sucederá eventualmente a los átomos de nuestros cuerpos mucho tiempo después de que hayamos muerto. La posibilidad más probable es que nuestras moléculas vuelvan al Sol. En páginas anteriores he explicado el destino del Sol: se agotará su combustible de hidrógeno y fusionará helio; se hinchará en gigante roja y su órbita es probable que sobrepase la Tierra y la calcine; las moléculas que hoy constituyen nuestros cuerpos serán consumidas por la atmósfera solar.
Carl Sagan pinta el cuadro siguiente:
“Dentro de miles de millones de años a partir de , habrá un último día perfecto en la Tierra… Las capas de hielo Ártica y Antártica se fundirán, inundando las costas del mundo. Las altas temperaturas oceánicas liberarán más vapor de agua al aire, incrementando la nubosidad y escondiendo a la Tierra de la luz solar retrasando el final. Pero la evolución solar es inexorable. Finalmente los océanos hervirán, la atmósfera se evaporará en el espacio y nuestro planeta será destruido por una catástrofe de proporciones que ni podemos imaginar.”
En una escala de tiempo de varios miles de millones de años, debemos enfrentarnos al hecho de que la Vía Láctea, en la que vivimos, morirá. Más exactamente, vivimos en el brazo espiral Orión de la Vía Láctea. miramos al cielo nocturno y nos sentimos reducidos, empequeñecidos por la inmensidad de las luces celestes que puntúan en el cielo, estamos mirando realmente una minúscula porción de las estrellas localizadas en el brazo de Orión. El resto de los 200 mil millones de estrellas de la Vía Láctea están tan lejanas que apenas pueden ser vistas como una cinta lechosa que cruza el cielo nocturno.
Aproximadamente a dos millones de años luz de la Vía Láctea está nuestra galaxia vecina más cercana, la gran galaxia Andrómeda, dos o tres veces mayor que nuestra galaxia. Las dos galaxias se están aproximando a unos 500 km/s, y chocarán en un periodo de entre 3 y 4 mil millones de años. Como ha dicho el astrónomo Lars Hernquist de la California en Santa Cruz, esta colisión será “parecida a un asalto. Nuestra galaxia será literalmente consumida y destruida“. Aunque, lo cierto es que aunque en el choque algo se detruya, lo cierto es que todo quedará en forma de una galaxia mucho mayor.
Así las cosas, no parece que la Humanidad del futuro lo tenga nada fácil. Primero tendrá que escapar, dentro de unos 4.000 millones de años del gigante rojo en que se convertirá el Sol que calcinará al planeta Tierra. Segundo, en unos 10.000 millones de años, la escapada tendrá que ser aún más lejana; la destrucción será de la propia galaxia que se fusionará con otra mayor sembrando el caos cósmico del que difícilmente se podría escapar quedándonos aquí. Por último, el final anunciado, aunque más largo tiempo, es el del propio universo que, por congelación o fuego, tiene los eones contados.
Por todas estas catástrofes anunciadas por la ciencia, científicos como Kip S. Thorne y Stephen Hawking sugieren a otros universos paralelos a través de agujeros de gusano en el hiperespacio. Sería la única puerta de salida para que la Humanidad no se destruyera.
Si lo alcanzaremos o no, es imposible de contestar, no tenemos los necesarios para ello. Incluso se podría decir que aparte de estas catástrofes futuras que sabemos a ciencia cierta que ocurrirán, seguramente existan otras que están ahí latentes en la incertidumbre de si finalmente ocurren o no, sólo pendiente de decidir lo uno o lo otro por parámetros ocultos que no sabemos ni que puedan existir.
En esta situación de impotencia, de incapacidad física e intelectual, nos tenemos que dar y admitir que, verdaderamente, comparados con el universo y las fuerzas que lo rigen, somos insignificantes, menos que una mota de polvo flotando en el haz de luz que entra, imparable, por la ventana entre-abierta de la habitación.
Sin embargo, tampoco es así. Que se sepa, no existe ningún otro grupo inteligente que esté capacitado tratar de todas estas cuestiones. Que la especie humana sea consciente de dónde vino y hacia dónde va, en verdad tiene bastante mérito, y más, si consideramos que nuestro origen está a partir de materia inerte evolucionada y compleja que, un día, hace probablemente miles de millones de años, se fraguó en estrellas muy lejanas.
A finales de los 60, un joven físico italiano, Gabriele Veneziano, buscaba un grupo de ecuaciones que explicara la fuerza nuclear fuerte. Este pegamento tan fuerte que mantenía unidos los protones y neutrones del núcleo de cada átomo. Parece ser que por casualidad se encontró con un libro antiguo de matemáticas y en su interior encontró una ecuación de más de 200 años de antigüedad creada por un matemático suizo llamado Leonhard Euler. Veneziano descubrió con asombro que las ecuaciones de Euler, consideradas desde siempre una simple curiosidad matemática, parecían describir la fuerza nuclear fuerte. Después de un año de , se podría decir, que elaboraron la Teoría de Cuerdas de manera fortuita. Tras circular entre compañeros, la ecuación de Euler acabó escrita frente a Leonard Susskind, quien se retiro a su ático para investigar. Creía que aquella antigua fórmula describía matemáticamente la fuerza nuclear fuerte, pero descubrió algo nuevo. Lo primero que descubrió fue que describía una especie de partícula con una estructura interna que vibraba y que mostraba un comportamiento que no se limitaba al de una partícula puntual. Dedujo que se trataba de una cuerda, un hilo elástico, como una goma cortada por la mitad. Esta cuerda se estiraba y contraía además de ondear y coincidía exactamente con la fórmula. Susskind redactó un artículo donde explicaba el descubrimiento de las cuerdas, pero nunca llegó a publicarse.
Muchos buscaron la 5ª dimensión… ¡sin fortuna! Aquí sólo hay tres y el espacio.
Claro que, ya he comentado otras veces que la teoría de cuerdas tiene un origen real en las ecuaciones de Einstein en las que se inspiro Kaluza para añadir la quinta dimensión y perfeccionó Klein (teoría Kaluza-Klein). La teoría de cuerdas surgió a partir de su descubrimiento accidental por Veneziano y , y a partir de ahí, la versión de más éxito es la creada por los físicos de Princeton David Gross, Emil Martinec, Jeffrey Harvey y Ryan Rohm; ellos son conocidos en ese mundillo de la física teórica como “el cuarteto de cuerdas”. Ellos han propuesto la cuerda heterótica (híbrida) y están seguros de que la teoría de cuerdas resuelve el problema de “construir la propia materia a partir de la pura geometría: eso es lo que en cierto sentido hace la teoría de cuerdas, especialmente en su versión de cuerda heterótica, que es inherentemente una teoría de la gravedad en la que las partículas de materia, tanto las otras fuerzas de la naturaleza, emergen del mismo modo que la gravedad emerge de la geometría“.
La Gravedad cuántica está en algunas mentes , ¿Estará en la Naturaleza?
La característica más notable de la teoría de cuerdas ( ya he señalado), es que la teoría de la gravedad de Einstein está contenida automáticamente en ella. De hecho, el gravitón (el cuanto de gravedad) emerge como la vibración más pequeña de la cuerda cerrada, es más, si simplemente abandonamos la teoría de la gravedad de Einstein como una vibración de la cuerda, entonces la teoría se vuelve inconsistente e inútil. , de hecho, es la razón por la que Witten se sintió inicialmente atraído hacia la teoría de cuerdas.
Witten está plenamente convencido de que “todas las ideas realmente grandes en la física, están incluidas en la teoría de cuerdas“.
No entro aquí a describir el modelo de la teoría de cuerdas que está referido a la “cuerda heterótica”, ya que su complejidad y profundidad de detalles podría confundir al lector no iniciado. Sin embargo, parece justo que deje constancia de que consiste en una cuerda cerrada que tiene dos tipos de vibraciones, en el sentido de las agujas del reloj y en el sentido contrario, que son tratadas de diferente.
Las vibraciones en el sentido de las agujas de reloj viven en un espacio de diez dimensiones. Las vibraciones de sentido contrario viven en un espacio de veintiséis dimensiones, de las que dieciséis han sido compactificadas (recordemos que en la teoría pentadimensional Kaluza-Klein, la quinta dimensión se compactificaba curvándose en un circulo). La cuerda heterótica debe su al hecho de que las vibraciones en el sentido de las agujas de reloj y en el sentido contrario viven en dos dimensiones diferentes pero se combinan para producir una sola teoría de supercuerdas. Esta es la razón de que se denomine según la palabra griega heterosis, que significa “vigor híbrido”.
En conclusión, las simetrías que vemos a nuestro alrededor, el arcoíris a las flores y a los cristales, pueden considerarse en última instancia como manifestaciones de fragmentos de la teoría deca-dimensional original. Riemann y Einstein habían confiado en llegar a una comprensión geométrica de por qué las fuerzas pueden determinar el movimiento y la naturaleza de la materia.
La teoría de cuerdas, a partir del descubrimiento Veneziano-Suzuki, estaba evolucionando atrás buscando las huellas de Faraday, Riemann, Maxwell y Einstein poder construir una teoría de campos de cuerdas. De hecho, toda la física de partículas estaba basada en teoría de campos. La única teoría no basada en teoría de campos era la teoría de cuerdas.
De la teoría de cuerdas combinada con la supersimetría dio lugar a la teoría de supercuerdas. La cuerda es un objeto unidimensional que en nueva teoría se utiliza remplazando la idea de la partícula puntual de la teoría cuántica de campos. La cuerda se utiliza en la teoría de partículas elementales y en cosmología y se representa por una línea o lazo (una cuerda cerrada). Los estados de una partícula pueden ser producidos por ondas estacionarias a lo largo de esta cuerda.
En teoría se trata de unificar a todas las fuerzas fundamentales incorporando simetría y en la que los objetos básicos son objetos unidimensionales que tienen una escala de 10-35 metros y, como distancias muy cortas están asociadas a energías muy altas, este caso la escala de energía requerida es del orden de 1019 GeV, que está muy por encima de la que hoy en día pueda alcanzar cualquier acelerador de partículas.
Antes expliqué, las cuerdas asociadas con los bosones sólo son consistentes como teorías cuánticas en un espacio-tiempo de 26 dimensiones; aquella asociadas con los fermiones sólo lo son en un espacio tiempo de 10 dimensiones. Ya se ha explicado que las dimensiones extras, además de las normales que podemos constatar, tres de espacio y una de tiempo, como la teoría de Kaluza-Klein, están enrolladas en una distancia de Planck. De , inalcanzables.
Una de las características más atractivas de la teoría de supercuerdas es que dan lugar a partículas de espín 2, que son identificadas con los gravitones (las partículas que transportan la gravedad y que aún no se han podido localizar). Por tanto, una teoría de supercuerdas automáticamente contiene una teoría cuántica de la interacción gravitacional. Se piensa que las supercuerdas, al contrario que ocurre con otras teorías ( ellas el Modelo Estándar), están libres de infinitos que no pueden ser eliminados por renormalización, que plagan todos los intentos de construir una teoría cuántica de campos que incorpore la gravedad. Hay algunas evidencias de que la teoría de supercuerdas está libre de infinitos, pero se está a la búsqueda de la prueba definitiva.
Aunque no hay evidencia directa de las supercuerdas, algunas características de las supercuerdas son compatibles con los hechos experimentales observados en las partículas elementales, como la posibilidad de que las partículas no respeten paridad, lo que en efecto ocurre en las interacciones débiles.
Extrañas configuraciones a las que, algunos físicos le quieren sacar lo que seguramente no se encuentra en ellas
Estoy convencido de que la teoría de supercuerdas será finalmente corroborada por los hechos y, ello, se necesitará algún tiempo; no se puede aún comprobar ciertos parámetros teóricos que esas complejas matemáticas a las que llaman topología nos dicen que son así.
Habrá que tener siempre a mano las ecuaciones de Einstein, las funciones modulares de Ramanujan y el Supertensor métrico de ese genio matemático que, al igual que Ramanujan, fue un visionario llamado Riemann.
Las historias de estos dos personajes, en cierto modo, son muy parecidas. Tanto Riemann como Ramanujan murieron antes de cumplir los 40 años y, también en ambos casos, en difíciles. Estos personajes desarrollaron una actividad matemática sólo comparable al trabajo de toda la vida de muchos buenos matemáticos.
¿Cómo es posible que, para proteger la simetría conforme original por su destrucción por la teoría cuántica, deben ser milagrosamente satisfechas cierto número de identidades matemáticas, que precisamente son las identidades de la función modular de Ramanujan?
En este trabajo he expresado que las leyes de la naturaleza se simplifican cuando se expresan en dimensiones más altas. Sin embargo, a la luz de la teoría cuántica, debo corregir algo esta afirmación, y para decirlo correctamente debería decir: las leyes de la naturaleza se simplifican cuando se expresan coherentemente en dimensiones más altas. Al añadir la palabra coherentemente hemos señalado un punto crucial, la ligadura nos obliga a utilizar las funciones modulares de Ramanujan, que fijan en diez de dimensiones del espacio-tiempo. Esto a su vez, puede facilitarnos la clave decisiva para explicar el origen del universo.
emilio silvera
Nov
16
Partículas, antipartículas, fuerzas…
por Emilio Silvera ~ Clasificado en Física ~ Comments (0)
Bajo la “definición basada en quarks y leptones”, las partículas elementales y compuestas formadas de quarks (en púrpura) y leptones (en verde) serían la “materia”; mientras los bosones “izquierda” (en rojo) no serían materia. Sin embargo, la energía de interacción inherente a partículas compuestas (por ejemplo, gluones, que implica a los neutrones y los protones) contribuye a la masa de la materia ordinaria.
Esquema de una aniquilación electrón-positrón.
Ya hemos descrito en trabajos anteriores las dos familias de partículas elementales: Quarks y Leptones. Pero hasta ahí, no se limita la sociedad del “universo” infinitesimal. Existen además las antifamilias. A quarks y electrones se asocian, por ejemplo, antiquarks y antielectrones. A cada partícula, una antipartícula.
Uno de los primeros éxitos de la teoría relativista del campo cuántico fue la predicción de las antipartículas: nuevos cuantos que eran la imagen especular de las partículas ordinarias. Las antipartículas tienen la misma masa y el mismo spin que sus compañeras las partículas ordinarias, pero cargas inversas. La antipartícula del electrón es el positrón, y tiene, por tanto, carga eléctrica opuesta a la del electrón. Si electrones y positrones se colocan juntos, se aniquilan, liberando la energía de sus masas según la equivalencia masa-energía einsteniana.
¿Cómo predijeron los físicos la existencia de anti-partículas? Bueno, por la «interpretación estadística» implicaba que la intensidad de un campo determinaba la probabilidad de hallar sus partículas correspondientes. Así pues, podemos imaginar un campo en un punto del espacio describiendo la creación o aniquilación de sus partículas cuánticas con una probabilidad concreta. Si esta descripción matemática de la creación y aniquilación de partículas cuánticas se inserta en el marco de la teoría relativista del campo cuántico, no podemos contar con la posibilidad de crear una partícula cuántica sin tener también la de crear un nuevo género de partícula: su anti-partícula. La existencia de antimateria es imprescindible para una descripción matemáticamente coherente del proceso de creación y aniquilación según la teoría de la relatividad y la teoría cuántica.
La misteriosa sustancia conocida como “materia oscura” puede ser en realidad una ilusión, creada por la interacción gravitacional entre partículas de corta vida de materia y antimateria. Un mar hirviente de partículas en el espacio puede crear la gravedad repulsiva.
Puede ser posible que las cargas gravitacionales en el vacío cuántico podrían proporcionar una alternativa a la “materia oscura”. La idea se basa en la hipótesis de que las partículas y antipartículas tienen cargas gravitacionales de signo opuesto. Como consecuencia, los pares de partícula-antipartícula virtuales en el vacío cuántico y sus dipolos de forma gravitacional (una carga gravitacional positivos y negativos) pueden interactuar con la materia bariónica para producir fenómenos que se suele atribuir a la materia oscura. Fue el físico del CERN, Dragan Slavkov Hajdukovic, quien propuso la idea, y demostró matemáticamente que estos dipolos gravitacionales podrían explicar las curvas de rotación de las galaxias observadas sin la materia oscura en su estudio inicial. Sin embargo, señaló que quedaba mucho por hacer.
Pero sigamos con la cuántica…
El pionero en comprender que era necesario que existiesen anti-partículas fue el físico teórico Paul Dirac, que hizo varías aportaciones importantes a la nueva teoría cuántica. Fue él quien formuló la ecuación relativista que lleva hoy su nombre, y a la que obedece el campo electrónico; constituye un descubrimiento comparable al de las ecuaciones del campo electromagnético de Maxwell. Cuando resolvió su ecuación, Dirac se encontró con que además de describir el electrón tenía soluciones adicionales que describían otra partícula con una carga eléctrica opuesta a la del electrón. ¿Qué significaría aquello? En la época en que Dirac hizo esta observación, no se conocían más partículas con esta propiedad que el protón. Dirac, que no deseaba que las partículas conocidas proliferasen, decidió que las soluciones adicionales de su ecuación describían el protón.
Pero, tras un análisis más meticuloso, se hizo evidente que las partículas que describían las soluciones adicionales tenían que tener exactamente la misma masa que el electrón. Quedaba así descartado el protón, cuya masa es por lo menos, 1.800 veces mayor que la del electrón. Por tanto, las soluciones adicionales tenían que corresponder a una partícula completamente nueva de la misma masa que el electrón, pero de carga opuesta: ¡El antielectrón! Esto quedó confirmado a nivel experimental en 1932 cuando Carl Anderson, físico del Instituto de Tecnología de Calífornia, detectó realmente el antielectrón, que hoy se llama positrón.
Antes de empezar, debemos recordar que el Premio Nobel de Física de 1936 se repartió a partes iguales entre Victor Franz Hess y Carl David Anderson. Merece la pena leer la Nobel Lecture de Carl D. Anderson, “The production and properties of positrons,” December 12, 1936, quien nos explica que en esta imagen un “electrón” de 63 MeV atraviesa un placa de plomo de 6 mm y emerge con una energía de 23 MeV, pero lo hace con la curvatura “equivocada” como si fuera una partícula de carga positiva, como si fuera un protón pero con la masa de un electrón. La Nobel Lecture muestra muchas otras fotografías de positrones y electrones. Anderson afirma: “The present electron theory of Dirac provides a means of describing many of the phenomena governing the production and annihilation of positrons.”
Por otro lado, el Premio Nobel de Física de 1933 se repartió a partes iguales entre Erwin Schrödinger y Paul Adrien Maurice Dirac. También vale la pena leer la Nobel Lecture de Paul A. M. Dirac, “Theory of electrons and positrons,” December 12, 1933, aunque no cuente la historia de su descubrimiento, afirma que su ecuación predice el “antielectrón” de soslayo: ”There is one other feature of these equations which I should now like to discuss, a feature which led to the prediction of the positron.” (fuente: Francis (th)E mule Science’s News).
La aparición de las anti-partículas cambió definitivamente el modo de pensar de los físicos respecto a la materia. Hasta entonces, se consideraba la materia permanente e inmutable. Podían alterarse las moléculas, podían desintegrarse los átomos en procesos radiactivos, pero los cuántos fundamentales se consideraban invariables. Sin embargo, tras el descubrimiento de la anti-materia realizado por Paul Dirac hubo que abandonar tal criterio. Heisenberg lo expresaba así:
“Creo que el hecho de que Dirac haya descubierto partículas y antipartículas, ha cambiado toda nuestra visión de la física atómica… creo que, hasta entonces, todos los físicos habían concebido las partículas elementales siguiendo los criterios de la filosofía de Demócrito, es decir, considerando esas partículas elementales como unidades inalterables que se hallan en la naturaleza como algo dado y son siempre lo mismo, jamás cambian, jamás pueden transmutarse en otra cosa. No son sistemas dinámicos, simplemente existen en sí mismas. Tras el descubrimiento de Dirac, todo parecía distinto, porque uno podía preguntar: ¿por qué un protón no podría ser a veces un protón más un par electrón-positrón, etc.?… En consecuencia, el problema de la división de la materia había adquirido una dimensión distinta.”
Dado que la anti-materia tiene la misma masa que la materia, es decir son de la misma magnitud y signo (la definición de masa es positiva siempre), el efecto gravitacional de la anti-materia no debe ser distinto de la materia, es decir, siempre sera un efecto atractivo. Pero, ¿acaso no importa la equivalencia establecida de anti-partícula viajando al futuro = partícula viajando al pasado?
Existe un “universo” que se nos escapa de la comprensión
La respuesta es sí. Dicha equivalencia proviene de algo llamado simetría CPT (Charge-Parity-Time), y nos dice que la equivalencia entre las partículas y anti-partículas no solo corresponde a realizar una transformación sobre la carga, sino también sobre la paridad y el tiempo. La carga no afecta la gravedad, pero la paridad y el tiempo si la afectan. En otras palabras, al modificarse el tiempo (poner el tiempo al revés) y el espacio (la paridad es “girar” el espacio), estamos alterando el espacio-tiempo, y como la teoría general de la relatividad lo afirma, es la geometría de este el que determina la gravedad.
El carácter mutable de la materia se convirtió en piedra angular de la nueva física de partículas. El hecho de que partículas y antipartículas puedan crearse juntas a partir del vacío si se aporta energía suficiente, no sólo es importante para entender cómo se crean las partículas en aceleradores de alta energía, sino también para entender los procesos cuánticos que se produjeron en el Big Bang.
Como ya lo hemos expresado, el conocimiento que se obtuvo sobre la existencia de anti-familias de partículas o familias de anti-partículas es una consecuencia de la aplicación de la teoría relativista del campo cuántico, para cada partícula existe una partícula que tiene la misma masa pero cuya carga eléctrica (y otras llamadas cargas internas) son de signo opuesto. Estas son las anti-partículas. Así, al conocido electrón, con carga negativa, le corresponde un «electrón positivo» como anti-partícula, llamado positrón, descubierto en 1932. El anti-protón, descubierto en 1956, tiene la misma masa que el protón, pero carga eléctrica negativa de igual valor. El fotón, que no tiene masa ni carga eléctrica, puede ser considerada su propia anti-partícula.
Un agujero negro es un objeto que tiene tres propiedades: masa, espín y carga eléctrica. La forma del material en un agujero negro no se conoce, en parte porque está oculta para el universo externo, y en parte porque, en teoría, el material continuaría colapsando hasta tener radio cero, punto conocido como Singularidad, de densidad infinita.
Un agujero negro tiene tres propiedades: masa, espín y carga eléctrica. La forma del material de un agujero negro no se conoce, en parte porque está oculta para el universo externo, y en parte porque, en teoría, el material continuaría colapsando hasta tener radio cero, punto conocido como singularidad, de densidad infinita.
La luz (fotones), no son una onda distinta que un electrón o protón, etc.
1°- “No se dispersan”, no son más pequeñas, como las ondas del agua (olitas) cuando tiramos una piedra, a medida que se alejan de su centro; sino que en el caso de la luz son menos partículas, pero son siempre el mismo tipo de onda (determinada frecuencia), igual tamaño.
2°- Las ondas con más energía son más grandes, los fotones al igual que las partículas son más pequeñas, contra toda lógica (contracción de Lorentz).
3°- No necesitan de un medio material para desplazarse. Viajan en el vacío. El medio que usan para viajar, es el mismísimo espacio.
4°- Su cualidad de onda no es diferente de las partículas. Lo podemos ver en la creación de pares y la cualidad de onda de las partículas, etc. En ningún momento la partícula, es una cosa compacta (ni una pelotita), siempre es una onda, que no se expande. En la comparación con la ola, sería como un “montón” o un “pozo” de agua, con una dirección, lo que conocemos como ecuación de Schrödinger. En ningún momento la partícula, es una pelotita; la ola sobre el agua, no es un cuerpo que se mueve sobre el agua, no es un montón de agua que viene (aunque parece), sino una deformación del agua. Así la partícula, no es un montón de algo, sino una deformación del espacio.
La curvatura está relacionadas con la probabilidad de presencia, no es una bolita que está en uno de esos puntos, sino que es una onda en esa posición. El fotón es una onda que no necesita de un medio material para propagarse, se propaga por el espacio vacío. Así como una onda de sonido es una contracción-expansión del medio en que se propaga, el fotón es una contracción-expansión del espacio (del mismísimo espacio), razón por la cual entendemos que el espacio se curva, se contrae y expande. La rigidez del medio, da la velocidad de la deformación (velocidad de la onda), en el caso de la rigidez del espacio da una velocidad “c”.Esta onda por causa de la contracción del tiempo (velocidad “c”), no se expande, sino que se mantiene como en su origen (para el observador ), como si fuese una “burbuja”, expandida o contraída, en cada parte, positiva-negativa.
Cada partícula está caracterizada por un cierto número de parámetros que tienen valores bien definidos: su masa, carga eléctrica, spin o rotación interna y otros números, conocidos como cuánticos. Estos parámetros son tales que, en una reacción, su suma se mantiene y sirve para predecir el resultado. Se dice que hay conservación de los números cuánticos de las partículas. Así, son importantes el número bariónico, los diversos números leptónicos y ciertos números definidos para los quarks, como la extrañeza, color, etc. Estos últimos y sus antipartículas tienen cargas eléctricas (± 1/3 o ± 2/3) y números bariónicos (±1/3) fraccionarios. No todos los números asociados a cada partícula han sido medidos con suficiente precisión y no todas las partículas han sido detectadas en forma aislada, por lo menos de su ligamento, como el caso de
loquarksy de los gluones.
Los gluones son una especie de «partículas mensajeras» que mantienen unidos a los quarks. Su nombre proviene del término inglés “glue”, que significa pegamento, en español quizás podría ser gomón. Ahora, en cuanto a los quarks, ya hicimos referencia de ellos anteriormente. Pero recordemos aquí, que fueron descubiertos en 1964 por Murray Gell-Mann, como los componentes más reducidos de la materia. Hasta entonces se pensaba que los átomos consistían simplemente en electrones rodeando un núcleo formado por protones y electrones.
En estado natural, quarks y gluones no tienen libertad. Pero si se eleva la temperatura a niveles 100.000 veces superiores, como se ha hecho en aceleradores de partículas, a la del centro del Sol, se produce el fenómeno del desconfinamiento y por un brevísimo tiempo quedan libres. En ese preciso momento aparece lo que se suele llamar plasma, «una sopa de quarks y gluones» que equivale al estado en que se podría haber encontrado la naturaleza apenas una milésima de segundo luego del Big Bang.
Recientemente se ha descubierto un nuevo estado de la materia, esta vez a niveles muy altos de energía, que los científicos han denominado Plasma Gluón-Quark. La transición ocurre a temperaturas alrededor de cien mil millones de grados y consiste en que se rompen las fuertes ligaduras que mantienen unidos los quarks dentro de los núcleos atómicos. Los protones y neutrones están formados, cada uno, por 3 quarks que se mantienen unidos gracias a los gluones (El gluón es la partícula portadora de interacción nuclear fuerte, fuerza que mantiene unida los núcleos atómicos). A temperaturas superiores se vence la fuerza nuclear fuerte y los protones y neutrones se dividen, formando esta sopa denominada plasma Gluón-Quark.
Pero por ahora aquí, nos vamos a quedar con los quarks al natural. Normalmente, los quarks no se encuentra en un estado separados, sino que en grupos de dos o tres. Asimismo, la duración de las vidas medias de las partículas, antes de decaer en otras, es muy variable (ver tablas).
Por otra parte, las partículas presentan una o más de las siguientes interacciones o fuerzas fundamentales entre ellas. Por un lado se tiene la gravitación y el electromagnetismo, conocidas de la vida cotidiana. Hay otras dos fuerzas, menos familiares, que son de tipo nuclear y se conocen como interacciones fuertes y débiles.
La gravitación afecta a todas las partículas, es una interacción universal. Todo cuerpo que tiene masa o energía está sometido a esta fuerza. Aunque es la más débil de las interacciones, como las masas son siempre positivas y su alcance es infinito, su efecto es acumulativo. Por ello, la gravitación es la fuerza más importante en cosmología.
Los campos magnéticos están presentes por todo el Universo
La fuerza electromagnética se manifiesta entre partículas con cargas eléctricas. A diferencia de las demás, puede ser de atracción (entre cargas de signos opuestos) o de repulsión (cargas iguales). Esta fuerza es responsable de la cohesión del átomo y las moléculas. Mantiene los objetos cotidianos como entidades con forma propia. Un vaso, una piedra, un auto, el cuerpo humano. Es mucho más fuerte que la gravitación y aunque es de alcance infinito, las cargas de distinto signo se compensan y sus efectos no operan a grandes distancias. Dependiendo de las circunstancias en que actúen, estas interacciones pueden manifestarse como fuerzas eléctricas o magnéticas solamente, o como una mezcla de ambos tipos.
La Fuerza Nuclear Débil: otra fuerza nuclear, considerada mucho más débil que la Fuerza Nuclear Fuerte. El fenómeno de decaimiento aleatorio de la población de las partículas subatómicas (la radioactividad) era difícil de explicar hasta que el concepto de esta fuerza nuclear adicional fue introducido.
La interacción nuclear débil es causa de la radioactividad natural y la desintegración del neutrón. Tiene un rol capital en las reacciones de fusión del hidrógeno y otros elementos en el centro de las estrellas y del Sol. La intensidad es débil comparada con las fuerzas eléctricas y las interacciones fuertes. Su alcance es muy pequeño, sólo del orden de 10-15 cm.
La interacción fuerte es responsable de la cohesión de los núcleos atómicos. Tiene la intensidad más elevada de todas ellas, pero es también de corto alcance: del orden de 10-13 cm. Es posible caracterizar las intensidades de las interacciones por un número de acoplamiento a, sin dimensión, lo que permite compararlas directamente:
Fuerte as = 15
Electromagnéticas a = 7,3 x 10-3
Débil aw 3,1 x 10-12
Gravitacional aG = 5,9 x 10-39
Por otro lado, la mecánica cuántica considera que la interacción de dos partículas se realiza por el intercambio de otras llamadas «virtuales». Tienen ese nombre porque no son observables: existen por un tiempo brevísimo, tanto más corto cuanto mayor sea su masa, siempre que no se viole el principio de incertidumbre de Heisenberg de la teoría cuántica (que en este contexto dice que el producto de la incertidumbre de la energía por el tiempo de vida debe ser igual o mayor que una constante muy pequeña). Desaparecen antes de que haya tiempo para que su interacción con otras partículas delate su existencia.
El fotón virtual común se desplaza hacia la partícula menos energética.
Dos partículas interactúan al emitir una de ellas una partícula virtual que es absorbida por la otra. Su emisión y absorción cambia el estado de movimiento de las originales: están en interacción. Mientras menos masa tiene la partícula virtual, más lejos llega, mayor es el rango de la interacción. El alcance de la interacción es inversamente proporcional a la masa de la partícula portadora o intermedia. Por ejemplo, la partícula portadora de la fuerza electromagnética es el fotón, de masa nula y, por lo tanto, alcance infinito. La interacción gravitacional también tiene alcance infinito y debe corresponder a una partícula de masa nula: se le denomina gravitón. Naturalmente tiene que ser neutro. (Aún no ha sido vistos ni en pelea de perros).
Como ya hicimos mención de ello, a las fuerzas nucleares se les asocian también partículas portadoras. Para la interacción débil estas partículas se llaman bosones intermedios, expresados como W+, W- y Zº (neutro). El W- es anti-partícula del W+. Los W tienen masas elevadas comparadas con las otras partículas elementales. Lo de bosones les viene porque tienen spin entero, como el fotón y el gravitón, que también los son, pero que tienen masas nulas. Las fuerzas fuertes son mediadas por unas partículas conocidas como gluones, de los cuales habría ocho. Sin embargo, ellos no tienen masa, pero tienen algunas de las propiedades de los quarks, que les permiten interactuar entre ellos mismos. Hasta ahora no se han observado gluones propiamente tal, ya que lo que mencionamos en párrafos anteriores corresponde a un estado de la materia a la que llamamos plasma. Claro está, que es posible que un tiempo más se puedan detectar gluones libres cuando se logre aumentar, aún más, la temperatura, como está previsto hacerlo en el acelerador bautizado como “Relativistic Heavy Ion Collider”, empotrado en Estados Unidos de Norteamérica.
TABLA DE LAS PRINCIPALES PROPIEDADES DE LAS PARTÍCULAS PORTADORAS DE LAS INTERACCIONES FUNDAMENTALES
Una partícula y su antipartícula no pueden coexistir si están suficientemente cerca como para interactuar. Si ello ocurre, ellas se destruyen mutuamente: hay aniquilación de las partículas. El resultado es radiación electromagnética de alta energía, formada por fotones gamma. Así, si un electrón está cercano a un positrón se aniquilan en rayos gamma. Igual con un par protón-antiprotón muy próximos.
La reacción inversa también se presenta. Se llama «materialización o creación de partículas» de un par partícula-antipartícula a partir de fotones, pero se requieren condiciones físicas rigurosas. Es necesario que se creen pares partícula-antipartícula y que los fotones tengan una energía mayor que las masas en reposo de la partículas creadas. Por esta razón, se requieren fotones de muy alta energía, de acuerdo a la relación de Einstein E=mc2 . Para dar nacimiento a electrones/positrones es necesario un campo de radiación de temperaturas mayores a 7×109 °K. Para hacer lo mismo con pares protón/antiprotón es necesario que ellas sean superiores a 2×1012 °K. Temperaturas de este tipo se producen en los primeros instantes del universo.
Imagen: El pasado 12 de abril, uno de los instrumentos del observatorio espacial, el Telescopio de Área Grande (LAT), concebido y ensamblado en el National Accelerator Laboratory SLAC del Departamento de Energía, operado en la Universidad de Stanford, California, obtuvo el hito histórico con su detección 1.000.000.000 (mil millones) de rayos gamma extraterrestres.
“Luego de tres años de observación y análisis de los datos recabados a partir de observar día y noche tres cuartas partes de la bóveda celeste, identificamos una fuente de rayos gamma de TeVs muy particular. Se trata de un sistema binario conformado por una estrella de neutrones de unas 16 masas solares y una estrella supergigante de tipo A de 40 masas solares, las cuales orbitan una alrededor de otra a una distancia equivalente a un tercio de la distancia entre el Sol y Mercurio.”
Los rayos gamma están presentes en explosiones de supernovas, colisión de estrellas de neutrones… Todos los sucesos de altas energías los hace presente para que nuestros ingenios los detecten y podamos conocer lo que la materia esconde en lo más profundo de sus “entrañas”. Aún no hemos podido conocer en profundidad la materia ni sabemos, tampoco, lo que realmente es la luz.
emilio silvera
Nov
15
La importancia del Carbono para la Vida y otros
por Emilio Silvera ~ Clasificado en Bioquímica ~ Comments (0)
El concepto de Gaia, considera a la Tierra como un Ente Vivo que evoluciona y se recicla
Nuestro planeta, la Tierra, forma parte del Universo, y, es una prueba indiscutible de que sus componentes biológicos y físicos forman parte de una única red que funciona de un modo autorregulado, y, de esa forma, mantiene las condiciones que son ampliamente adecuadas para la existencia de vida, pero que sufren fluctuaciones a todas las escalas (incluidos los ritmos de alternancia de glaciaciones y periodos interglaciales, así como las extinciones masivas). En un sentido real, la Tierra es el lugar que alberga una red de vida como seguramente estará presente en muchos otros mundos en el que se den las circunstancias adecuadas, y la existencia de esta red (Gaia) sería visible para cualquier forma de vida inteligente que hubiera en Marte o en cualquier otro planeta y que fuera capaz de aplicar la prueba conocida de Lovelock y buscar señales de reducción de la entropía.
Cuando Lovelock publicó la hipótesis de Gaia, provoco una sacudida en muchos científicos, sobre todo en aquellos con una mente más lógica que odiaban un concepto que sonaba tan místico. Les producía perplejidad, y lo más desconcertante de todo era que Lovelock era uno de ellos. Tenía fama de ser algo inconformista, pero sus credenciales científicas eran muy sólidas. Entre otros logros a Lovelock se le conocía por ser el científico que había diseñado los instrumentos de algunos de los experimentos para buscar vida que la nave estadounidense Viking había llevado a cabo en la superficie de Marte.
Ni la NASA, tomó nunca la prueba de Lovelock lo suficientemente en serio como para aplicarla a la búsqueda de vida en el Sistema Solar; pero si se lo tomó en serio para buscar vida más allá del Sistema Solar. Pero recapacitaron y comenzaron a enviar al planeta Marte, una serie de ingenios en forma de pequeñas navez robotizadas como la Mars Phoenix que comenzó encontrando hielo de agua diluyendo porciones de la tierra marciana en agua y debidamente tratada, hallaron la presencia de magnesio, sodio, potasio y cloruros. Uno de los científicos responsables llegó a decir:
“Hay más que evidencia de agua porque las sales están ahí. Además hemos encontrado los compuestos químicos necesarios para la vida como la conocemos. y, lo sorprendente de Marte es que no es un mundo extraño, sino que, en muchos aspectos es igual que la Tierra.”
Se están analizando los gases y los compuestos químicos del suelo y del hielo allí encontrados, y, todo ello, debidamente procesado nos dará una respuesta de lo que allí existe.
Lo que para mí está muy claro es que, los mecanismos del Universo son los mismos en cualquier región del cielo, y, las estrellas y los planetas surgen en todas partes de la misma manera. Y, si eso es así, sería lógico pensar que la vida podría estar en cualquier parte, y, además, con muchas probabilidades de que sea más o menos tal como la conocemos, ya que, la nuestra, basada en el Carbono y el Nitrógeno (siempre en presencia de agua), es la más natural dadas las características de estos elementos para unirse.
La historia de la vida en el Universo es otro ejemplo de complejidad superficial construida sobre cimientos de una profunda sencillez. Actualmente la prueba de que el universo tal como lo conocemos surgió a partir de un estado denso y caliente (Big Bang) hace unos 14.000 millones de años, es poco discutida.
Con los elementos primordiales creados en las estrellas, miles de años más tarde, en los mundos situados en las zonas habitables de sus estrellas, se habrán podido conformar células replicantes que habrían dado comienzo a la aventura de la vida. En la Tierra, el único planeta con vida que conocemos (por el momento), las formas de vida y especies que han estado aquí y siguen estando ha sido de una rica variedad y de asombrosos metabolismos.
Los bloques de construcción básicos que emergieron del big bang fueron el hidrógeno y el helio, casi exactamente en una proporción de 3:1. Todos los demás elementos químicos (excepto unos leves vestigios de unos pocos elementos muy ligeros, como el litio) han sido fabricados en el interior de las estrellas y dispersados por el espacio cuando estas se dilataron y expulsaron materiales, o, al final de sus vidas, agotado el combustible nuclear de fusión, explotaron como Supernovas regando grandes regiones con Nebulosas creadoras de nuevas estrellas y nuevos mundos.
Una estrella como el Sol genera calor convirtiendo hidrógeno en helio dentro de su núcleo; en otras estrellas los procesos cruciales incluyen fusiones sucesivas de núcleos de helio. Dado que cada núcleo de helio es una unidad que contiene cuatro “nucleones” (dos protones y dos neutrones), y este elemento se denomina abreviadamente helio-4, esto significa que los elementos cuyos núcleos contienen un número de nucleones que es múltiplo de cuatro son relativamente comunes en el universo, excepto el berilio-8, que es inestable.
El carbono-12 es el más abundante de los dos isótopos estables del elemento Carbono, representando el 98,89% de todo el carbono terrestre. Está conformado por 6 protones, 6 neutrones y 6 electrones.
Adquiere particular importancia al usarse como patrón para el cálculo de la masa atómica de los distintos nucleidos existentes en la naturaleza; dado que la masa atómica del 12C es, por definición, 12 umas.
Concretamente, en las primeras etapas de este proceso se produce carbono-12 y oxígeno-16, y resulta que el nitrógeno-14, aunque no contiene un número entero de núcleos de helio-4, se obtiene como subproducto de una serie de interacciones en las que participan núcleos de oxígeno y de carbono que operan en estrellas de masa un poco mayor que la de nuestro Sol.
Como consecuencia, estos son, con gran diferencia, los elementos más comunes, aparte del hidrógeno y del helio. Dado que éste último es un gas inerte (noble) que no reacciona químicamente, se deduce que los cuatro elemenbtos reactivos más comunes en el universo son el Carbono, el Hidrógeno, el Oxígeno y el Nitrógeno, conocidos en el conjunto por el acrónimo CHON.
No es casualidad que los cuatro elementos químicos que participan con una aplastante mayoría en la composición de los seres vivos de la Tierra sean el carbono, el hidrógeno, el oxígeno y el nitrógeno.
En estado puro y dependiendo de cómo estén dispuestos sus átomos, este elemento puede formar tanto el mineral más duro que ocurre en la naturaleza, el diamante, como uno de los más blandos, el grafito. Organizados en hexágonos y formando láminas, los átomos de carbono dan lugar al grafeno, un material del que habréis oído hablar estos últimos años por sus “increíbles” propiedades
Estructuras basadas en el Carbono
El Carbono desarrolla el papel clave en el desarrollo de la vida, porque un solo átomo de este elemento es capaz de combinarse químicamente nada menos que con otros cuatro átomos al mismo tiempo (incluídos otros átomos de carbono, que pueden estar unidos a su vez a más átomos de carbono, formando anillos y cadenas), de tal modo que este elemento tiene una química excepcionalmente rica. Así decimos con frecuencia que la vida en la Tierra está basada en el Carbono, el elemento más ductil y crucial en nuestra formación.
Claro que, tal comentario, no implica la negación de que pudieran existir otras clases de vida basadas en el Silicio o en cualquier otra combinación química, pero todas las pruebas que aporta la Astronomía sugieren que es mucho mayor la probabilidad de que la vida más allá de nuestras fronteras esté basada también en el CHON.
Es inadmisible lo poco que la gente común sabe del Universo al que pertenecen y también lo poco que se valora el trabajo de Astrónomos, Astrofísicos y Cosmólogos, ellos son los que realizan las pruebas y las comprobaciones que finalmente nos llevan al conocimiento que hoy tenemos del cielo y de los objetos que lo pueblan y de las fuerzas que allí actúan.
La Nebulosa de la Quilla, una de las regiones de nacimiento de estrellas más grandes del universo: pilares de 3 años luz de altura que parecen abultados como las velas de un barco por la fuerza tirante de los astros que, literalmente, da a luz en su interior.
Gran parte de estas pruebas proceden del análisis espectroscópico del material que está presente en las Nebulosas, esas inmensas nubes de gas y polvo que se encuentran en el espacio como resultado de explosiones de supernovas o de otros fenómenos que en el Universo son de lo más frecuente. A partir de esas nubes se forman los sistemas planetarios como nuestro sistema solar, allí, nacen nuevas estrellas que contienen los mismos materiales expulsados por estrellas de generaciones anteriores.
En estas nubes hay muchos compuestos construidos en torno a átomos de carbono, y este elemento es tan importante para la vida que sus compuestos reciben en general el nombre de compuestos “orgánicos”. Entre los compuestos detectados en nubes interestelares hay sustancias muy sencillas, como metano y dióxido de carbono, pero también materiales orgánicos mucho más complejos, entre los que cabe citar el formaldehído, el alcohol etílico, e incluso al menos un aminoácido, la glicina. Lo que constituye un descubrimiento muy esclarecedor, porque es muy probable que toso los materiales existentes en las nubes interestelares hayan estado presentes en la nube a partir de la cual se formó nuestro Sistema Solar, hace unos cinco milo millones de años.
En este cúmulo estelar llamado NGC 602, cerca de la Pequeña Nube de Magallanes, millones de estrellas jóvenes emiten radiación y energía en forma de ondas que erosionan el material que las rodea creando formaciones visualmente interesantes. El tamaño de lo que se ve en la foto abarca 200 años luz de lado a lado
A partir de estos datos, equipos científicos han llevado a cabo en la Tierra experimentos en los que unas materias primas, debidamente tratadas simulando las condiciones de densidad y energías de aquellas nubes interestelares (ahora en laboratorio), dieron como resultado el surgir expontáneo de tres aminoácidos (glicina, serina y alanina). Todos conocemos el experimento de Miller.
En otro experimento utilizando otra mezcla de ingredientes ligeramente distinta, se producian no menos de dieciseis aminoácidos y otros compuestos orgánicos diversos en unas condiciones que eran las existentes en el espacio interestelar.
Para hacernos una idea, las proteínas de todos los seres vivos de la Tierra están compuestas por diversas combinaciones de tan sólo veinte aminoácidos. Todas las evidencias sugieren que este tipo de materia habría caído sobre los jóvenes planetas durante las primeras etapas de formación del sistema planetario, deposita por cometas que habría sido barridos por la influencia gravitatoria de unos palnetas que estaban aumentando de tamaño.
En idénticas condiciones de temperatura y presión que el universo de hace 4.600 millones de años, Experimentos llevados a cabo en el laboratorio, han logrado originar ribosa, la molécula que luego acabó convirtiéndose en ADN.
Como hemos podido deducir, una sopa de aminoácidos posee la capacidad de organizarse por sí sóla, formando una red con todas las propiedades que ha de tener la vida. De esto se deduce que los aminoácidos que estuvieron formando durante largos períodos de tiempo en las profundidades del espacio (utilizando energias proporciona por la luz de las estrellas), serían transportados a la superficie de cualquier planeta joven, como la Tierra.
Algunos planetas pueden resultar demasiado calientes para que se desarrolle la vida, y otros demasiado fríos. Pero ciertos planetas como la propia Tierra (existentes a miles de millones), estarían justo a la temperatura adecuada. Allí, utilizando la expresión de Charles Darwin, en alguna “pequeña charca caliente” tendrían la oportunidad de organizarse en sistemas vivos.
Sopa primigenia de la que surgió la primera célula replicante precursora de la Vida
Claro que, por mi parte, como dijo aquel famoso Astrofísico inglés del que ahora no recuerdo el nombre: ” milagro no es que aparezca vida fuera de la Tierra, el verdadero milafro sería que no apareciera”.
Y, en cuanto a las condiciones para que haga posible la existencia de vida, conviene ser reservados y no emitir un juicio precipitado, ya que, todos sabemos de la existencia de vida en condiciones que se podrían comparar o denominar de infernales. Así que, estaremos a la espera de que, el Universo nos de una respuesta.
Veamos algunos conceptos: Nova.
Antiguamente, a una estrella que aparecía de golpe donde no había nada, se le llamaba nova o ” estrella nueva “. Pero este nombre no es correcto, …
En realidad es una estrella que durante el periodo de sólo unos pocos días, se vuelve 103-104 veces más brillantes de lo que era. Ocurren 10 ó 15 sucesos de ese tipo cada año en la Vía Láctea. Las novas se cree que son binarias próximas en las que, uno de sus componentes es usualmente una enana blanca y la otra una gigante roja.
La materia se transfiere de la gigante roja a la enana blanca, en cuya superficie se acumula, dando lugar a una explosión termonuclear, y, a veces se convierte en una estrella de neutrones al ver incrementada su masa.
Nucleones.
Protones y neutrones, los constituyentes de los núcleos atómicos que, a su vez, están conformados por tripletes de Quarks. Un protón está hecho por 2 Quarks up y 1 Quark Down, mientras que un Neutrón está conformado por 2 Quarks Down y 1 Quark up. Son retenidos en el núcleo por los Bosones llamados Gluones que son transmisores de la fuerza nuclear fuerte.
Núcleo.
Corazón central de un átomo que contiene la mayor parte de su masa. Está positivamente cargado y constituido por uno o más nucleones (protones y neutrones).
La carga positiva del núcleo está determinada por el número de protones que contiene (número atómico) y en el átomo neutro está compensada por un número igual de electrones, que se mueven alrededor del núcleo y cuya carga eléctrica negativa anula o compensa a la positiva de los (electro) protones.
El núcleo más simple es el núcleo de hidrógeno, consistente en un único protón. Todos los demás núcleos contienen además uno o más neutrones.
Los neutrones contribuyen a la masa atómica, pero no a la carga nuclear.
El núcleo más masivo que se encuentra en la Naturaleza es el Uranio-238, que contiene 92 protones y 146 neutrones.
Nucleosíntesis, nucleogénesis.
Fusión de nucleones para crear los núcleos de nuevos átomos más complejos. La nucleosíntesis tiene lugar en las estrellas y, a un ritmo más acelerado, en las supernovas.
La nucleosíntesis primordial tuvo lugar muy poco después del Big Bang, cuando el Universo era extremadamente caliente y, ese proceso fue el responsable de la abundancia de elementos ligeros, por todo el cosmos, como el Helio y el Hidrógeno que, en realidad es la materia primordial de nuestro Universo, a partir de estos elementos se obtienen todos los demás en los procesos estelares de fusión.
Omega negro
El Omega negro se refiere a la cantidad de materia que hay en el Universo
Índice de densidad de materia del Universo, definida como la razón entre la actual densidad y la “Densidad crítica” requerida para “cerrar” el Universo y, con el tiempo, detener su expansión.
Para la materia oscura se dirá: “Omega Negro”.
Si Omega es mayor que 1, el Universo se detendrá finalmente y las galaxias recorrerán, a la inversa, el camino recorrido para colapsar en una gran Bola de fuego, el Big Crunch, estaríamos en un Universo cerrado.
Se dice que, un Universo con exactamente 1, la Densidad crítica ideal, estará alrededor de 10-29 g/cm3 de materia, lo que esta descrito por el modelo e Universo descrito por Einstein-de Setter.
En cualquier caso, sea cual fuere Omega, no parece muy atractivo el futuro de nuestro Universo que según todos los datos que tenemos acabará en el hielo o en el fuego y, en cualquier de estos casos.
¿Dónde nos meteremos?
Onda, función.
Función, denotada por Y (w,y,z), que es solución de la ecuación de Schrödinger en la mecánica cuántica. La función de ondas es una expresión matemática que depende de las coordenadas de una partícula en el espacio.
Si la función de ondas (ecuación de Schrödinger) puede ser resuelta para una partícula en un sistema dado (por ejemplo, un electrón en un átomo), entonces, dependiendo de las colisiones en la frontera, la solución es un conjunto de soluciones, mejor de funciones de onda permitidas de la partícula (autofunciones), cada una correspondiente a un nivel de energía permitido.
El significado físico de la función de ondas es que el cuadrado de su valor absoluto en un punto, [Y]2, es proporcional a la probabilidad de encontrar la partícula en un pequeño elemento de volumen, dxdydz, en torno a ese punto. Para un electrón de un átomo, esto da lugar a la idea de orbitales atómicos moleculares.
elimino ecuación para no confundir al lector no versado.
donde Y es la función de ondas, Ñ2 es el operador Laplace, h es la constante de Planck, m es la masa de la partícula, E la energía total= y È la energía potencial.
Colaboración de Emilio Silvera.
Ondas.
La velocidad de una estrella puede generar enormes onda
Propagación de la energía mediante una vibración coherente.
Está referido a la perturbación periódica en un medio o en el espacio. En una onda viajera (u onda progresiva) la energía es transferida de un lugar a otro por las vibraciones. En el Espacio puede estar causada por el movimiento de las estrellas.
En una onda que atraviesa la superficie del agua, por ejemplo, el agua sube y baja al pasar la onda, pero las partículas del agua en promedio no se mueven. Este tipo de onda se denomina onda transversal, porque las perturbaciones están en ángulo recto con respecto a la dirección de propagación. La superficie del agua se mueve hacia arriba y abajo mientras que la onda viaja a lo largo de la superficie del agua.
Las ondas electromagnéticas son de este tipo, con los campos eléctricos y, magnéticos variando de forma periódica en ángulo recto entre sí y a la dirección de propagación.
En las ondas de sonido, el aire es alternativamente comprimido y rarificado por desplazamiento en la dirección de propagación. Dichas ondas se llaman longitudinales.
Las principales características de una onda es su velocidad de propagación, su frecuencia, su longitud de onda y su amplitud. La velocidad de propagación y la distancia cubierta por la onda en la unidad de tiempo. La frecuencia es el número de perturbaciones completas (ciclos) en la unidad de tiempo, usualmente expresada en hertzios. La longitud de onda es la distancia en metros entre puntos sucesivos de igual fase de onda es la distancia en metros entre puntos sucesivos de igual fase de onda. La amplitud es la diferencia máxima de la cantidad perturbada medida con referencia a su valor medio.
Recuerdo cuando allá por el año 2009 publiqué: “Pronto oiremos que Kip S. Thorne ha detectado y medido las ondas gravitacionales de los Agujeros Negros.” Y, en el presente es noticias pasada.
Las ondas gravitacionales son aquellas que se propagan a través de un campo gravitacional. Cuando eso suceda, tendremos nuevos conocimientos sobre el Universo, ya que, el que ahora conocemos sólo está dado por las lecturas de las ondas electromagnéticas, no de las gravitatorias.
La predicción de que una masa acelerada radia ondas gravitacionales (y pierde energía) proviene de la teoría general de la relatividad. Por ejemplo cuando dos agujeros negros chocan y se fusionan.
El Experimento LIGO se afanó en localizar y medir estas ondas y, a la cabeza del proyecto, como he dicho, está el experto en agujeros negros, el físico y cosmólogo norteamericano, amigo de Stephen Hawking, kip S.Thorne, que está buscando las pulsaciones de estos monstruos del espacio, cuya energía infinita (según él), algún día podrá ser aprovechada por la humanidad cuando la tecnología lo permita.
Aunque podríamos continuar hablando sobre onda continua, onda cósmica, onda cuadrada, onda de choque, onda de espín (magnón), onda de tierra, onda estacionaria, onda ionosférica, onda portadora, onda sinuosidad, onda viajera, onda sísmica, onda submilimétrica, onda de ecuación, etc., sería salirse del objeto perseguido aquí.
Oort, nube de ; Constante de.
La nube de Oort está referida a un halo aproximadamente esférico de núcleos cometarios que rodea al Sol hasta quizás unas 100.000 UA (más de un tercio de la distancia a la estrella más próxima). Su existencia fue propuesta en 1950 por J.H.Oort (1900-1992) astrónomo holandés, para explicar el hecho de que estén continuamente acercándose al Sol nuevos cometas con órbitas altamente elípticas y con todas las inclinaciones.
La nube Oort sigue siendo una propuesta teórica, ya que no podemos en la actualidad detectar cometas inertes a tan grandes distancias. Se estima que la nube contiene unos 1012 cometas restantes de la formación del Sistema Solar. Los miembros más distantes se hallan bastante poco ligados por la gravedad solar.
Puede exitir una mayor concentración de cometas relativamente cerca de la eclíptica, a 10.000-20.000 ÈA del Sol, extendiéndose hacia adentro para unirse al Cinturón de kuiper. Los comentas de la Nube de Oort se ven afectados por la fuerza gravitatoria de los estrellas cercanas, siendo perturbadas ocasionalmente poniéndoles en órbitas que los llevan hacia el Sistema Solar interior.
La constante de Oort está referida a dos parámetros definidos por J.H.Oort para describir las características más importantes de la rotación diferencial de nuestra Galaxia en la vecindad del Sol. Son usualmente expresadas en unidades de kilómetros por segundo por kiloparsec. Los dos parámetros están dados por los símbolos A y B. Restando B de A se obtiene la velocidad angular del estándar local de repaso alrededor del centro de la Galaxia, que corresponde al periodo de unos 200 millones de años.
Órbita.
En astronomía es el camino a través del espacio de un cuerpo celeste alrededor de otro. Para un cuerpo pequeño que se mueve en el campo gravitacional de otro, la órbita es una cónica. La mayoría de esas órbitas son elípticas y la mayoría de las órbitas planetarias en el sistema solar son casi circulares. La forma y tamaño de una órbita elíptica se determina por su excentricidad, e, y la longitud de su semieje mayor, a.
En física, la órbita esta referida al camino de un electrón al viajar alrededor del núcleo del átomo (ver orbitales).
emilio silvera