Nov
17
¿Cómo se desarrolló la Teoría de la Relatividad?
por Emilio Silvera ~
Clasificado en Física ~
Comments (0)
A ella se pudo llegar gracias al desarrollo de una serie de pensamientos que comienza por Faraday y Maxwell y asentados en el principio de que todo suceso físico debe atribuirse a acciones cercanas, o, dicho en términos más matemáticos, en ecuaciones a derivadas parciales. Maxwell consiguió expresarlo así para el caso de los fenómenos electromagnéticos en cuerpos inmóviles, desarrollando la idea del efecto magnético de la corriente de desplazamiento en el vacío y proponiendo la identidad entre los campos “electromotores” producidos por inducción y los campos electrostáticos.
Con esta reconocida imagen nos podemos hacer una idea del campo magnético
La ampliación de la electrodinámica al caso de los cuerpos en movimiento fue una tarea que quedó para los sucesores de Maxwell. H. Hertz intentó resolver el problema asignado al espacio vacío (éter) unas propiedades físicas totalmente similares a las de la materia ponderable; en particular, el éter, al igual que la materia debería poseer determinada velocidad en cada punto. La inducción electromagnética o magneto-eléctrica debía estar determinada por la velocidad de variación del flujo eléctrico, o magnético, como en los cuerpos en reposo, siempre que estas variaciones de velocidad se produjeran con respecto a elementos de la superficie que se movieran con el cuerpo. Sin embargo, la teoría de Hertz contradecía el experimento fundamental de Fizeau sobre la propagación de la luz a través de fluidos en movimiento. La ampliación más inmediata de la teoría de Maxwell a los cuerpos en movimiento era incompatible con el experimento.
La física oculta del éter
En ese punto la salvación llegó de la mano de H. A. Lorentz. Siendo partidario incondicional de la teoría atomista de la materia, Lorentz no podía concebir esta última como un emplazamiento de campos electromagnéticos continuos. En consecuencia, concibió estos campos como condiciones o estados del éter, que se consideraba continuo. Lorentz se imaginaba el éter como algo que en esencia era independiente de la materia, tanto mecánica como físicamente. El éter no debía participar del movimiento de la materia y sólo debía mantener una interacción con ella en tanto que la materia se concebía como conductora de cargas eléctricas ligadas a ella.
Bien sabido es de todos que el átomo es un conglomerado de cargas eléctricas que, siendo positivas (protones) y negativas (electrones), al ser equivalentes se anulan las unas a las otras y se logra la armonía y estabilidad requerida para que, el universo pueda formar las moléculas y, éstas, se agrupan para conformar la materia.
El gran avance metodológico de la teoría de Lorentz residía en el hecho de que, gracias a ella, toda la electrodinámica de los cuerpos en reposo y en movimiento se podía reducir a las ecuaciones del espacio vacío de Maxwell. Esta teoría no sólo era superior a la de Hertz desde un punto de vista metodológico, sino que, además, gracias a ella, H. A. Lorentz consiguió dar una explicación asombrosamente acertada de los hechos experimentales.
Sólo hay un punto de importancia fundamental en el que la teoría no resulta satisfactoria. Parece ser que daba preferencia a un sistema de coordenadas que se encontrara en un determinado estado de movimiento (un sistema de coordenadas que estaba en reposo con respecto al éter luminífero) frente a todos los demás sistemas de coordenadas que se encontraran en movimiento con relación a éste. En este punto parecía que la teoría estaba en contradicción frontal con la mecánica clásica, en la cual todos los sistemas inerciales (que tienen un movimiento uniforme unos con respecto a otros) son equivalentes como sistemas de coordenadas (principio especial de la relatividad). En este sentido, todos los experimentos realizados en el ámbito de la electrodinámica (en particular el experimento de Michelson) ponía de manifiesto la equivalencia de todos los sistemas inerciales, es decir, apoyaban el principio especial de la relatividad.
Experimento Michelson-Morley Reposo con el éter luminífero Interferómetro de Michelson y Morley en reposo respecto al éter luminífero
El movimiento del éter siempre fue un misterio que muchos quisieron resolver y, para ello, se hicieron experimentos de todo tipo. El de Michelson-Morley vino a dejar claro el tema y sirvió a Einstein para descartar el éter de su teoría. Sin embargo, pasado el tiempo, ahora mismo, se está hablando de nuevo de la existencia de una especie de “éter” que impregna todo el espacio.
Así las cosas, la teoría especial de la relatividad surgió precisamente gracias a esta dificultad inicial, que en sí misma resultaba insoportable. La teoría nació como respuesta a la pregunta: ¿Realmente existe una contradicción entre el principio especial de la relatividad y las ecuaciones de campo de Maxwell para el espacio vacío? Aparentemente la respuesta tenía que ser afirmativa. Las mencionadas ecuaciones son va´lidas para un sistema de coordenadas K y se introduce un nuevo sistema de coordenadas K1 mediante las ecuaciones de transformación, aparentemente fáciles de justificar (aquí las obviaré) y que nos llevan a la transformación de Galileo y, entonces, las ecuaciones de campo de Maxwell ya no se cumplen para esas nuevas coordenadas.
Las coordenadas han sido muy útiles y de fructífero rendimiento
Pero siguiendo con en tema tenemos que decir que, muchas veces, las apariencias engañan. Mediante un análisis más profundo del significado físico del espacio y del tiempo se puede ver que la transformación de Galileo se basa en suposiciones arbitrarias, especialmente en la hipótesis de que la afirmación de la simultaneidad tiene un sentido independiente del estado de movimiento que tenga el sistema de coordenadas utilizado. Queda claro que las ecuaciones de campo en el vacío satisfacían el principio especial de la relatividad cuando se utilizaban las ecuaciones de la Transformación de Lorentz.
Es estas ecuaciones, x, y, z son las coordenadas medidas con una vara de medir que se encuentra en reposo con respecto al sistema de coordenadas (y aunque no las he querido reflejar aquí para no enredar), y en ellas, t representa el tiempo medido con un reloj que se encuentra en reposo y está debidamente ajustado.
Lo grande y lo pequeño: Eso es la Teoría
Ahora bien, para que pueda cumplirse el principio especial de la relatividad, es necesario que todas las ecuaciones de la física conserven invariable su forma al pasar de un sistema inercial a otro, cuando utilizamos para este cambio la Transformación de Lorentz. En lenguaje matemático, diremos que todos los sistemas de ecuaciones que expresan leyes físicas deben ser covariantes con respecto a la Transformación de Lorentz. Por consiguiente, bajo un punto de vista metodológico, el principio especial de la relatividad es comparable al principio de Carnot, que afirma la imposibilidad del perpetuum mobile (movimiento perpetuo o continuo) de segunda especie, ya que, al igual que este último, establece una condición general que deben cumplir todas las leyes naturales.
De manera que la transformación de Einstein, que es la transformación de Lorentz queda como
Podría dejarlo aquí, pero vamos a complicarlo un poco. Introducimos una nueva coordenada espacial a partir de ct, el producto de una velocidad por el tiempo es el espacio y utilizamos la siguiente notación:
Con lo que la transformación de Lorentz queda de la forma más simétrica.
“El origen en el diagrama espacio-tiempo (ct, r) = (0, 0) representa el “ahora”. En la región de color amarillo que representa el “futuro” que le espera al observador predomina el componente temporal sobre el componente espacial, con lo cual s² siempre es mayor que cero (positivo) y por lo tanto es una región de intervalos tipo temporal. En la región de color ciano que representa el “pasado” que recorrió el observador también predomina el componente temporal sobre el componente espacial, con lo cual s² siempre es mayor que cero (positivo) y por lo tanto también es una región de intervalos tipo temporal (timelike). En las líneas que delimitan al cono de luz la componente temporal es igual a la componente espacial con lo cual s² = 0, y es aquí en donde tenemos a los intervalos tipo luminoso que involucran rayos de luz. Y fuera de todo esto tenemos a los intervalos en donde el componente espacial es mayor que el componente temporal con lo cual s² es menor que cero (negativo) siendo por lo tanto la región de intervalos tipo espacial.”
Para esta condición de covariancia encontró H. Minkowski una espresión especialmente bella y sugerente que revela un parentesco formal entre la geometría euclidea tridimensional y el continuo espacio-tiempo de la física.
Seguidamente tendría que exponer aquí un esquema con ecuaciones de la geometría euclidea tridimensional y otro (para comparar) de la teoría especial de la relatividad. Sin embargo, no queriendo complejidades que desvíen al lector de la historia esencial, diré que de ellas se deduce que el tiempo es equivalente a las coordenadas espaciales (dejando a un lado sus relaciones con la realidad), no por lo que respecta a su significado físico, sino por el papel que desempeña en las ecuaciones de la física. desde este punto de vista, la física es en cierto modo una geometría euclidea de cuatro dimensiones o, mejor dicho, un determinado tipo de estática en un continuo euclideo cuatridimensional.
Cono de luz en un espacio-tiempo de Minkowski
El desarrollo de la teoría especial de la relatividad se desarrolló en dos pasos principales: la adaptación de la métrica espacio-temporal a la electrodinámica de Maxwell y una adaptación del resto de la físca a esa métrica espacio-temporal modificada. El primero de estos procesos de adaptación profujo la relativización de la simultaneidad, la influencia del mocimiento en varas de medir y relojes, una modificación de la cinemática y, en particular, un nuevo teorema de adiciín de las velocidades.
El segundo proceso de adaptación dio lugar a una modificación de las leyes newtonianas del movimiento para grandes velocidades, así como una aclaración sobre la naturaleza de la masa inercial cuya importancia es fundamental. Se descubrió que la inercia no es una propiedad fundamental de la materia, ni una magnitud irreducible, sino una propiedad de la energía. Si a un cuerpo se le suministra una energía E, su masa inercial aumenta en una cantidad E/c2, donde c es la velocidad de la luz en el vacío; a la inversa, un cuerpo de masa m debe ser considerado como una reserva de energía de magnitud mc2.
Cuando se intentó establecer el vínculo entre las teorías de la gravitación y la teoría especial de la relatividad, no tardó en verse que esto no era posible de una manera natural. A propósito de ello a Einstein de le ocurrió que la fuerza de la gravedad posee una propiedad fundamental que la distingue de la fuerza electromagnética: todos los cuerpos caen en un campo gravitatorio con la misma aceleración, o -formulando lo mismo de otra manera- la masa inercial y gravitatoria de un cuerpo son numéricamente iguales.
La vinculación gravitatoria de los cuerpos es bien patente y, en la Tierra y la Luna, tenemos la mejor prueba de ello.
Esta igualdad numérica de la masa inercial y gravitatoria nos hace sospechar que ambas sean esencialmente idénticas; pero ¿pueden las masas inerciales y gravitatorias ser realmente iguales? Esta pregunta nos lleva directamente a la teoría general de la relatividad. ¿No sería posible considerar que la Tierra no realiza un movimiento de rotación, si concibo la fuerza centrífuga, que actúa sobre los cuerpos que están en reposo con respecto a la Tierra, como un campo gravitatorio “real” (o como una parte del campo gravitatorio)? Si esta idea es viable, entonces está realmente demostrado que las masas inercial y gravitatoria son idénticas, ya que el mismo efecto que se considera como inercia desde el punto de vista de un sistema que “no toma parte en la rotación”, puede interpretarse como gravedad si se observa desde un sistema que comparte la rotación. Según Newton, esta interpretación es imposible, porque no se puede considerar según la ley de Newton que el campo centrífugo esté generado por masas, y porque un campo “real” del tipo de “campo de Coriolis” no está contemplado en la teoría newtoniana.
Pero, ¿sería posible sustituir la ley de campos de Newton por alguna otra compatible con el campo que puede existir con respecto a un sistema de coordenadas “en rotación”? El convencimiento de que las masas inercial y gravitatoria son idénticas inspiró a Einstein una confianza incondicional en la validez de esta interpretación y, una idea le llenó de esperanza: conocemos los campos “aparentes” que son válidos con respecto a cualquier sistema de coordenadas que se mueve arbitrariamente con relación a un sistema inercial; utilizando los campos (especiales) se podrá estudiar la ley que cunplen en general los campos gravitatorios. para ello habrá que tener en cuanta que, como generadoras de estos campos, serán determinantes las masas ponderables, o bien lo será la densidad de energía (una magnitud que posee el carácter transformador de un tensor), según el resultado fundamental de la teoría especial de la relatividad.
Tensor métrico de Riemann
A partir de aquí, tendríamos que entrar en el Tensor métrico de Riemann pero, ¡el tiempo! como pasa siempre, me lo impide así que, dejaremos para mejor ocasión el continuar con el tema que, como todo lo que concierne a Einstein, termina siendo fascinante porque, dentro de su complejidad, subyace una sencillez de ideas que, finalmente, terminan por conquistarnos.
emilio silvera
Nov
16
¡La Física! Siempre presente
por Emilio Silvera ~
Clasificado en Física ~
Comments (0)

Todo comienza siendo una cosa y con el tiempo, se transforma en otra diferente: Evolución por la energía. En el universo en que vivimos, nada desaparece; con el tiempo se cumplen los ciclos de las cosas y se convierten en otra distinta, es un proceso irreversible. Estudiar en profundidad el simple proceso que siguen los Quarks -siempre con los Gluones pegados al culo- para poder formar el núcleo atómico, y, más tarde, que se forme el átomo, es una maravilla de la Naturaleza a la que no damos la importancia que verdaderamente tiene. Sin átomos… ¡No estaríamos! Todo lo que arriba nos muestrasn esas bellas imágenes son átomos que se juntaron para conformarlas.
El gas y el polvo se transforma en una brillante estrella que vive diez mil millones de años y termina en Nebulosa planeta con una enana blanca en el centro. Entonces la estrella que tenía un diámetro de 1.500 km, se reduce hasta unas pocas decenas, 20 0 30 Km y, su densidad, es inmensa, emitiendo radiación ultravioleta durante mucjho tiempo hasta que se enfría y se convierte en un cadáver estelar.
En lo concerniente a cambios y transformaciones, el que más me ha llamado siempre la atención es el de las estrellas que se forman a partir de gas y polvo cósmico. Nubes enormes de gas y polvo se van juntando. Sus moléculas cada vez más apretadas se rozan, se ionizan y se calientan hasta que en el núcleo central de esa bola de gas caliente, la temperatura alcanza millones de grados. La enorme temperatura posible la fusión de los protones y, en ese instante, nace la estrella que brillará miles de millones de años y dará luz y calor. Su ciclo de vida estará supeditado a su masa. Si la estrella es supermasiva, varias masas solares, su vida será más corta, ya que consumirá el combustible nuclear de fusión (hidrógeno, helio, litio, oxígeno, etc) con más voracidad que una estrella mediana como nuestro Sol, de vida más duradera.
Cuando agotan el combustible nuclear de fusión, se convierten en otros objetos diferentes. Mientras tanto, durante miles de años fusionan materiales sencillos en otros más complejos y, alcanzan la estabilidad debido a las dos fuerzas contrapuestas: La Radiación que tiene a expandir la masa estelar, y, la Gravedad que trata de comprimirla.
Una estrella, como todo en el universo, está sostenida por el equilibrio de dos fuerzas contrapuestas; en caso, la fuerza que tiende a expandir la estrella (la energía termonuclear de la fusión) y la fuerza que tiende a contraerla (la fuerza gravitatoria de su propia masa). Cuando finalmente el proceso de fusión se detiene por agotamiento del combustible de fusión, la estrella pierde la fuerza de expansión y queda a merced de la fuerza de gravedad; se hunde bajo el peso de su propia masa, se contrae más y más, y en el caso de estrellas súper masivas, se convierten en una singularidad, una masa que se ha comprimido a tal extremo que acaba poseyendo una fuerza de gravedad de una magnitud difícil de imaginar el común de los mortales.
La singularidad con su inmensa fuerza gravitatoria atrae a la estrella vecina
La Tierra, un objeto minúsculo en comparación con esos objetos súper masivos estelares, genera una fuerza de gravedad que, para escapar de ella, una nave o cohete espacial tiene que salir disparado la superficie terrestre a una velocidad de 11’18 km/s; el sol exige 617’3 km/s. Es lo que se conoce como velocidad de escape, que es la velocidad mínima requerida escapar de un campo gravitacional que, lógicamente, aumenta en función de la masa del objeto que la produce. El objeto que escapa puede ser una cosa cualquiera, desde una molécula de gas a una nave espacial. La velocidad de escape de un cuerpo está dada por , donde G es la constante gravitacional, M es la masa del cuerpo y R es la distancia del objeto que escapa del centro del cuerpo. Un objeto que se mueva con una velocidad menor que la de escape entra en una órbita elíptica; si se mueve a una velocidad exactamente igual a la de escape, sigue una órbita , y si el objeto supera la velocidad de escape, se mueve en una trayectoria hiperbólica y rompe la atadura en que la mantenía sujeto al planeta, la estrella o el objeto que emite la fuerza gravitatoria.
La mayor velocidad que es posible alcanzar en nuestro universo es la de la luz, c, velocidad que la luz alcanza en el vacío y que es de 299.793’458 km/s.
Sí, se pudo confirmar que los neutrinos respetan la supremacía del fotón, y la luz, sigue siendo la más rápida del Universo. Y sin embargo, no escapar de la atracción de un A.N. Los neutrinos, según todos los indicios, tiene una ínfima masa que les hace diferentes de los fotones que, en reposo, no tienen masa.
Pues bien, es tal la fuerza de gravedad de un agujero negro que ni la luz puede escapar de allí; la singularidad la absorbe, la luz desaparece en su interior, de ahí su , agujero negro, la estrella supermasiva se contrae, llega a un punto que desaparece de nuestra vista. De acuerdo con la relatividadgeneral, cabe la posibilidad de que una masa se comprima y reduzca sin límites su tamaño y se auto confine en un espacio infinitamente pequeño que encierre una densidad y una energía infinitos. Allí, el espacio y el tiempo dejan de existir.
Las singularidades ocurren en el Big Bang, en los agujeros negros y en el Big Crunch (que se podría considerar una reunión de todos los agujeros negros generados por el paso del tiempo en el universo y que nos llevará a un fin que será el comienzo).
Las singularidades de los agujeros negros están rodeados por una circunferencia invisible a su alrededor que marca el límite de su influencia. El objeto que traspasa ese límite es atraído, irremisiblemente, la singularidad que lo engulle, sea una estrella, una nube de gas o cualquier otro objeto cósmico que ose traspasar la línea que se conoce como horizonte de sucesos del agujero negro.
La existencia de los agujeros negros fue deducida por Schwarzschild, en el año 1.916, a partir de las ecuaciones de Einstein de la relatividad general. Este astrónomo alemán predijo su existencia, pero el de agujero negro se debe a Wehleer.
Señalamos la singularidad del Big Bang pero… ¿fue así?
Así, el conocimiento de la singularidad está dado por las matemáticas de Einstein y más tarde por la observación de las señales que la presencia del agujero generan. Es una fuente emisora de rayos X que se producen al engullir materia que traspasa el horizonte de sucesos y es atrapada la singularidad, donde desaparece siempre sumándose a la masa del agujero cada vez mayor.
En el centro de nuestra galaxia, la Vía Láctea, ha sido detectado un enorme agujero negro, ya muy famoso, llamado Cygnus X-1. Después de todo, la velocidad de la luz, la máxima del universo, no vencer la fuerza de gravedad del agujero negro que la tiene confinada para siempre. En nuestra galaxia, con cien mil años luz de diámetro y unos doscientos mil millones de estrellas, ¿cuántos agujeros negros habrá?
Para mí, la cosa está clara: el tiempo es imparable, el reloj cósmico sigue y sigue andando sin que nada lo pare, miles o cientos de miles, millones y millones de estrellas súper masivas explotarán en brillantes supernovas para convertirse en temibles agujeros negros. Llegará un momento que el de agujeros negrosen las galaxias será de tal magnitud que comenzarán a fusionarse unos con otros que todo el universo se convierta en un inmenso agujero negro, una enorme singularidad, lo único que allí estará presente: la gravedad.
Esa fuerza de la naturaleza que está sola, no se puede juntar con las otras fuerzas que, como se ha dicho, tienen sus dominios en la mecánica cuántica, mientras que la gravitación residen en la inmensidad del cosmos; las unas ejercen su dominio en los confines microscópicos del átomo, mientras que la otra sólo aparece de manera significativa en presencia de grandes masas estelares. Allí, a su alrededor, se aposenta curvando el espacio y distorsionando el tiempo.
Esa reunión final de agujeros negros será la causa de que la Densidad Crítica sea superior a la ideal. La gravedad generada por el inmenso agujero negro que se irá formando en cada galaxia tendrá la consecuencia de parar la expansión actual del universo. Todas las galaxias que ahora están separándose las unas de las otras se irán frenando parar y, despacio al principio pero más rápido después, comenzarán a recorrer el camino hacia atrás. Finalmente, toda la materia será encontrada en un punto común donde chocará violentamente formando una enorme bola de fuego, el Big Crunch.
de que eso llegue, tendremos que resolver el primer problema: la muerte del Sol.
Aquí se refleja el ciclo que seguirá el Sol hasta convertirse en enana blanca
Los científicos se han preguntado a veces qué sucederá eventualmente a los átomos de nuestros cuerpos mucho tiempo después de que hayamos muerto. La posibilidad más probable es que nuestras moléculas vuelvan al Sol. En páginas anteriores he explicado el destino del Sol: se agotará su combustible de hidrógeno y fusionará helio; se hinchará en gigante roja y su órbita es probable que sobrepase la Tierra y la calcine; las moléculas que hoy constituyen nuestros cuerpos serán consumidas por la atmósfera solar.
Carl Sagan pinta el cuadro siguiente:
“Dentro de miles de millones de años a partir de , habrá un último día perfecto en la Tierra… Las capas de hielo Ártica y Antártica se fundirán, inundando las costas del mundo. Las altas temperaturas oceánicas liberarán más vapor de agua al aire, incrementando la nubosidad y escondiendo a la Tierra de la luz solar retrasando el final. Pero la evolución solar es inexorable. Finalmente los océanos hervirán, la atmósfera se evaporará en el espacio y nuestro planeta será destruido por una catástrofe de proporciones que ni podemos imaginar.”
En una escala de tiempo de varios miles de millones de años, debemos enfrentarnos al hecho de que la Vía Láctea, en la que vivimos, morirá. Más exactamente, vivimos en el brazo espiral Orión de la Vía Láctea. miramos al cielo nocturno y nos sentimos reducidos, empequeñecidos por la inmensidad de las luces celestes que puntúan en el cielo, estamos mirando realmente una minúscula porción de las estrellas localizadas en el brazo de Orión. El resto de los 200 mil millones de estrellas de la Vía Láctea están tan lejanas que apenas pueden ser vistas como una cinta lechosa que cruza el cielo nocturno.
Aproximadamente a dos millones de años luz de la Vía Láctea está nuestra galaxia vecina más cercana, la gran galaxia Andrómeda, dos o tres veces mayor que nuestra galaxia. Las dos galaxias se están aproximando a unos 500 km/s, y chocarán en un periodo de entre 3 y 4 mil millones de años. Como ha dicho el astrónomo Lars Hernquist de la California en Santa Cruz, esta colisión será “parecida a un asalto. Nuestra galaxia será literalmente consumida y destruida“. Aunque, lo cierto es que aunque en el choque algo se detruya, lo cierto es que todo quedará en forma de una galaxia mucho mayor.
Así las cosas, no parece que la Humanidad del futuro lo tenga nada fácil. Primero tendrá que escapar, dentro de unos 4.000 millones de años del gigante rojo en que se convertirá el Sol que calcinará al planeta Tierra. Segundo, en unos 10.000 millones de años, la escapada tendrá que ser aún más lejana; la destrucción será de la propia galaxia que se fusionará con otra mayor sembrando el caos cósmico del que difícilmente se podría escapar quedándonos aquí. Por último, el final anunciado, aunque más largo tiempo, es el del propio universo que, por congelación o fuego, tiene los eones contados.
Por todas estas catástrofes anunciadas por la ciencia, científicos como Kip S. Thorne y Stephen Hawking sugieren a otros universos paralelos a través de agujeros de gusano en el hiperespacio. Sería la única puerta de salida para que la Humanidad no se destruyera.
Si lo alcanzaremos o no, es imposible de contestar, no tenemos los necesarios para ello. Incluso se podría decir que aparte de estas catástrofes futuras que sabemos a ciencia cierta que ocurrirán, seguramente existan otras que están ahí latentes en la incertidumbre de si finalmente ocurren o no, sólo pendiente de decidir lo uno o lo otro por parámetros ocultos que no sabemos ni que puedan existir.
En esta situación de impotencia, de incapacidad física e intelectual, nos tenemos que dar y admitir que, verdaderamente, comparados con el universo y las fuerzas que lo rigen, somos insignificantes, menos que una mota de polvo flotando en el haz de luz que entra, imparable, por la ventana entre-abierta de la habitación.
Sin embargo, tampoco es así. Que se sepa, no existe ningún otro grupo inteligente que esté capacitado tratar de todas estas cuestiones. Que la especie humana sea consciente de dónde vino y hacia dónde va, en verdad tiene bastante mérito, y más, si consideramos que nuestro origen está a partir de materia inerte evolucionada y compleja que, un día, hace probablemente miles de millones de años, se fraguó en estrellas muy lejanas.
A finales de los 60, un joven físico italiano, Gabriele Veneziano, buscaba un grupo de ecuaciones que explicara la fuerza nuclear fuerte. Este pegamento tan fuerte que mantenía unidos los protones y neutrones del núcleo de cada átomo. Parece ser que por casualidad se encontró con un libro antiguo de matemáticas y en su interior encontró una ecuación de más de 200 años de antigüedad creada por un matemático suizo llamado Leonhard Euler. Veneziano descubrió con asombro que las ecuaciones de Euler, consideradas desde siempre una simple curiosidad matemática, parecían describir la fuerza nuclear fuerte. Después de un año de , se podría decir, que elaboraron la Teoría de Cuerdas de manera fortuita. Tras circular entre compañeros, la ecuación de Euler acabó escrita frente a Leonard Susskind, quien se retiro a su ático para investigar. Creía que aquella antigua fórmula describía matemáticamente la fuerza nuclear fuerte, pero descubrió algo nuevo. Lo primero que descubrió fue que describía una especie de partícula con una estructura interna que vibraba y que mostraba un comportamiento que no se limitaba al de una partícula puntual. Dedujo que se trataba de una cuerda, un hilo elástico, como una goma cortada por la mitad. Esta cuerda se estiraba y contraía además de ondear y coincidía exactamente con la fórmula. Susskind redactó un artículo donde explicaba el descubrimiento de las cuerdas, pero nunca llegó a publicarse.
Muchos buscaron la 5ª dimensión… ¡sin fortuna! Aquí sólo hay tres y el espacio.
Claro que, ya he comentado otras veces que la teoría de cuerdas tiene un origen real en las ecuaciones de Einstein en las que se inspiro Kaluza para añadir la quinta dimensión y perfeccionó Klein (teoría Kaluza-Klein). La teoría de cuerdas surgió a partir de su descubrimiento accidental por Veneziano y , y a partir de ahí, la versión de más éxito es la creada por los físicos de Princeton David Gross, Emil Martinec, Jeffrey Harvey y Ryan Rohm; ellos son conocidos en ese mundillo de la física teórica como “el cuarteto de cuerdas”. Ellos han propuesto la cuerda heterótica (híbrida) y están seguros de que la teoría de cuerdas resuelve el problema de “construir la propia materia a partir de la pura geometría: eso es lo que en cierto sentido hace la teoría de cuerdas, especialmente en su versión de cuerda heterótica, que es inherentemente una teoría de la gravedad en la que las partículas de materia, tanto las otras fuerzas de la naturaleza, emergen del mismo modo que la gravedad emerge de la geometría“.
La Gravedad cuántica está en algunas mentes , ¿Estará en la Naturaleza?
La característica más notable de la teoría de cuerdas ( ya he señalado), es que la teoría de la gravedad de Einstein está contenida automáticamente en ella. De hecho, el gravitón (el cuanto de gravedad) emerge como la vibración más pequeña de la cuerda cerrada, es más, si simplemente abandonamos la teoría de la gravedad de Einstein como una vibración de la cuerda, entonces la teoría se vuelve inconsistente e inútil. , de hecho, es la razón por la que Witten se sintió inicialmente atraído hacia la teoría de cuerdas.
Witten está plenamente convencido de que “todas las ideas realmente grandes en la física, están incluidas en la teoría de cuerdas“.
No entro aquí a describir el modelo de la teoría de cuerdas que está referido a la “cuerda heterótica”, ya que su complejidad y profundidad de detalles podría confundir al lector no iniciado. Sin embargo, parece justo que deje constancia de que consiste en una cuerda cerrada que tiene dos tipos de vibraciones, en el sentido de las agujas del reloj y en el sentido contrario, que son tratadas de diferente.
Las vibraciones en el sentido de las agujas de reloj viven en un espacio de diez dimensiones. Las vibraciones de sentido contrario viven en un espacio de veintiséis dimensiones, de las que dieciséis han sido compactificadas (recordemos que en la teoría pentadimensional Kaluza-Klein, la quinta dimensión se compactificaba curvándose en un circulo). La cuerda heterótica debe su al hecho de que las vibraciones en el sentido de las agujas de reloj y en el sentido contrario viven en dos dimensiones diferentes pero se combinan para producir una sola teoría de supercuerdas. Esta es la razón de que se denomine según la palabra griega heterosis, que significa “vigor híbrido”.
En conclusión, las simetrías que vemos a nuestro alrededor, el arcoíris a las flores y a los cristales, pueden considerarse en última instancia como manifestaciones de fragmentos de la teoría deca-dimensional original. Riemann y Einstein habían confiado en llegar a una comprensión geométrica de por qué las fuerzas pueden determinar el movimiento y la naturaleza de la materia.
La teoría de cuerdas, a partir del descubrimiento Veneziano-Suzuki, estaba evolucionando atrás buscando las huellas de Faraday, Riemann, Maxwell y Einstein poder construir una teoría de campos de cuerdas. De hecho, toda la física de partículas estaba basada en teoría de campos. La única teoría no basada en teoría de campos era la teoría de cuerdas.
De la teoría de cuerdas combinada con la supersimetría dio lugar a la teoría de supercuerdas. La cuerda es un objeto unidimensional que en nueva teoría se utiliza remplazando la idea de la partícula puntual de la teoría cuántica de campos. La cuerda se utiliza en la teoría de partículas elementales y en cosmología y se representa por una línea o lazo (una cuerda cerrada). Los estados de una partícula pueden ser producidos por ondas estacionarias a lo largo de esta cuerda.
En teoría se trata de unificar a todas las fuerzas fundamentales incorporando simetría y en la que los objetos básicos son objetos unidimensionales que tienen una escala de 10-35 metros y, como distancias muy cortas están asociadas a energías muy altas, este caso la escala de energía requerida es del orden de 1019 GeV, que está muy por encima de la que hoy en día pueda alcanzar cualquier acelerador de partículas.
Antes expliqué, las cuerdas asociadas con los bosones sólo son consistentes como teorías cuánticas en un espacio-tiempo de 26 dimensiones; aquella asociadas con los fermiones sólo lo son en un espacio tiempo de 10 dimensiones. Ya se ha explicado que las dimensiones extras, además de las normales que podemos constatar, tres de espacio y una de tiempo, como la teoría de Kaluza-Klein, están enrolladas en una distancia de Planck. De , inalcanzables.
Una de las características más atractivas de la teoría de supercuerdas es que dan lugar a partículas de espín 2, que son identificadas con los gravitones (las partículas que transportan la gravedad y que aún no se han podido localizar). Por tanto, una teoría de supercuerdas automáticamente contiene una teoría cuántica de la interacción gravitacional. Se piensa que las supercuerdas, al contrario que ocurre con otras teorías ( ellas el Modelo Estándar), están libres de infinitos que no pueden ser eliminados por renormalización, que plagan todos los intentos de construir una teoría cuántica de campos que incorpore la gravedad. Hay algunas evidencias de que la teoría de supercuerdas está libre de infinitos, pero se está a la búsqueda de la prueba definitiva.
Aunque no hay evidencia directa de las supercuerdas, algunas características de las supercuerdas son compatibles con los hechos experimentales observados en las partículas elementales, como la posibilidad de que las partículas no respeten paridad, lo que en efecto ocurre en las interacciones débiles.
Extrañas configuraciones a las que, algunos físicos le quieren sacar lo que seguramente no se encuentra en ellas
Estoy convencido de que la teoría de supercuerdas será finalmente corroborada por los hechos y, ello, se necesitará algún tiempo; no se puede aún comprobar ciertos parámetros teóricos que esas complejas matemáticas a las que llaman topología nos dicen que son así.
Habrá que tener siempre a mano las ecuaciones de Einstein, las funciones modulares de Ramanujan y el Supertensor métrico de ese genio matemático que, al igual que Ramanujan, fue un visionario llamado Riemann.
Las historias de estos dos personajes, en cierto modo, son muy parecidas. Tanto Riemann como Ramanujan murieron antes de cumplir los 40 años y, también en ambos casos, en difíciles. Estos personajes desarrollaron una actividad matemática sólo comparable al trabajo de toda la vida de muchos buenos matemáticos.
¿Cómo es posible que, para proteger la simetría conforme original por su destrucción por la teoría cuántica, deben ser milagrosamente satisfechas cierto número de identidades matemáticas, que precisamente son las identidades de la función modular de Ramanujan?
En este trabajo he expresado que las leyes de la naturaleza se simplifican cuando se expresan en dimensiones más altas. Sin embargo, a la luz de la teoría cuántica, debo corregir algo esta afirmación, y para decirlo correctamente debería decir: las leyes de la naturaleza se simplifican cuando se expresan coherentemente en dimensiones más altas. Al añadir la palabra coherentemente hemos señalado un punto crucial, la ligadura nos obliga a utilizar las funciones modulares de Ramanujan, que fijan en diez de dimensiones del espacio-tiempo. Esto a su vez, puede facilitarnos la clave decisiva para explicar el origen del universo.
emilio silvera
Nov
16
Partículas, antipartículas, fuerzas…
por Emilio Silvera ~
Clasificado en Física ~
Comments (0)
Bajo la “definición basada en quarks y leptones”, las partículas elementales y compuestas formadas de quarks (en púrpura) y leptones (en verde) serían la “materia”; mientras los bosones “izquierda” (en rojo) no serían materia. Sin embargo, la energía de interacción inherente a partículas compuestas (por ejemplo, gluones, que implica a los neutrones y los protones) contribuye a la masa de la materia ordinaria.
Esquema de una aniquilación electrón-positrón.
Ya hemos descrito en trabajos anteriores las dos familias de partículas elementales: Quarks y Leptones. Pero hasta ahí, no se limita la sociedad del “universo” infinitesimal. Existen además las antifamilias. A quarks y electrones se asocian, por ejemplo, antiquarks y antielectrones. A cada partícula, una antipartícula.
Uno de los primeros éxitos de la teoría relativista del campo cuántico fue la predicción de las antipartículas: nuevos cuantos que eran la imagen especular de las partículas ordinarias. Las antipartículas tienen la misma masa y el mismo spin que sus compañeras las partículas ordinarias, pero cargas inversas. La antipartícula del electrón es el positrón, y tiene, por tanto, carga eléctrica opuesta a la del electrón. Si electrones y positrones se colocan juntos, se aniquilan, liberando la energía de sus masas según la equivalencia masa-energía einsteniana.
¿Cómo predijeron los físicos la existencia de anti-partículas? Bueno, por la «interpretación estadística» implicaba que la intensidad de un campo determinaba la probabilidad de hallar sus partículas correspondientes. Así pues, podemos imaginar un campo en un punto del espacio describiendo la creación o aniquilación de sus partículas cuánticas con una probabilidad concreta. Si esta descripción matemática de la creación y aniquilación de partículas cuánticas se inserta en el marco de la teoría relativista del campo cuántico, no podemos contar con la posibilidad de crear una partícula cuántica sin tener también la de crear un nuevo género de partícula: su anti-partícula. La existencia de antimateria es imprescindible para una descripción matemáticamente coherente del proceso de creación y aniquilación según la teoría de la relatividad y la teoría cuántica.
La misteriosa sustancia conocida como “materia oscura” puede ser en realidad una ilusión, creada por la interacción gravitacional entre partículas de corta vida de materia y antimateria. Un mar hirviente de partículas en el espacio puede crear la gravedad repulsiva.
Puede ser posible que las cargas gravitacionales en el vacío cuántico podrían proporcionar una alternativa a la “materia oscura”. La idea se basa en la hipótesis de que las partículas y antipartículas tienen cargas gravitacionales de signo opuesto. Como consecuencia, los pares de partícula-antipartícula virtuales en el vacío cuántico y sus dipolos de forma gravitacional (una carga gravitacional positivos y negativos) pueden interactuar con la materia bariónica para producir fenómenos que se suele atribuir a la materia oscura. Fue el físico del CERN, Dragan Slavkov Hajdukovic, quien propuso la idea, y demostró matemáticamente que estos dipolos gravitacionales podrían explicar las curvas de rotación de las galaxias observadas sin la materia oscura en su estudio inicial. Sin embargo, señaló que quedaba mucho por hacer.
Pero sigamos con la cuántica…
El pionero en comprender que era necesario que existiesen anti-partículas fue el físico teórico Paul Dirac, que hizo varías aportaciones importantes a la nueva teoría cuántica. Fue él quien formuló la ecuación relativista que lleva hoy su nombre, y a la que obedece el campo electrónico; constituye un descubrimiento comparable al de las ecuaciones del campo electromagnético de Maxwell. Cuando resolvió su ecuación, Dirac se encontró con que además de describir el electrón tenía soluciones adicionales que describían otra partícula con una carga eléctrica opuesta a la del electrón. ¿Qué significaría aquello? En la época en que Dirac hizo esta observación, no se conocían más partículas con esta propiedad que el protón. Dirac, que no deseaba que las partículas conocidas proliferasen, decidió que las soluciones adicionales de su ecuación describían el protón.
Pero, tras un análisis más meticuloso, se hizo evidente que las partículas que describían las soluciones adicionales tenían que tener exactamente la misma masa que el electrón. Quedaba así descartado el protón, cuya masa es por lo menos, 1.800 veces mayor que la del electrón. Por tanto, las soluciones adicionales tenían que corresponder a una partícula completamente nueva de la misma masa que el electrón, pero de carga opuesta: ¡El antielectrón! Esto quedó confirmado a nivel experimental en 1932 cuando Carl Anderson, físico del Instituto de Tecnología de Calífornia, detectó realmente el antielectrón, que hoy se llama positrón.
Antes de empezar, debemos recordar que el Premio Nobel de Física de 1936 se repartió a partes iguales entre Victor Franz Hess y Carl David Anderson. Merece la pena leer la Nobel Lecture de Carl D. Anderson, “The production and properties of positrons,” December 12, 1936, quien nos explica que en esta imagen un “electrón” de 63 MeV atraviesa un placa de plomo de 6 mm y emerge con una energía de 23 MeV, pero lo hace con la curvatura “equivocada” como si fuera una partícula de carga positiva, como si fuera un protón pero con la masa de un electrón. La Nobel Lecture muestra muchas otras fotografías de positrones y electrones. Anderson afirma: “The present electron theory of Dirac provides a means of describing many of the phenomena governing the production and annihilation of positrons.”
Por otro lado, el Premio Nobel de Física de 1933 se repartió a partes iguales entre Erwin Schrödinger y Paul Adrien Maurice Dirac. También vale la pena leer la Nobel Lecture de Paul A. M. Dirac, “Theory of electrons and positrons,” December 12, 1933, aunque no cuente la historia de su descubrimiento, afirma que su ecuación predice el “antielectrón” de soslayo: ”There is one other feature of these equations which I should now like to discuss, a feature which led to the prediction of the positron.” (fuente: Francis (th)E mule Science’s News).
La aparición de las anti-partículas cambió definitivamente el modo de pensar de los físicos respecto a la materia. Hasta entonces, se consideraba la materia permanente e inmutable. Podían alterarse las moléculas, podían desintegrarse los átomos en procesos radiactivos, pero los cuántos fundamentales se consideraban invariables. Sin embargo, tras el descubrimiento de la anti-materia realizado por Paul Dirac hubo que abandonar tal criterio. Heisenberg lo expresaba así:
“Creo que el hecho de que Dirac haya descubierto partículas y antipartículas, ha cambiado toda nuestra visión de la física atómica… creo que, hasta entonces, todos los físicos habían concebido las partículas elementales siguiendo los criterios de la filosofía de Demócrito, es decir, considerando esas partículas elementales como unidades inalterables que se hallan en la naturaleza como algo dado y son siempre lo mismo, jamás cambian, jamás pueden transmutarse en otra cosa. No son sistemas dinámicos, simplemente existen en sí mismas. Tras el descubrimiento de Dirac, todo parecía distinto, porque uno podía preguntar: ¿por qué un protón no podría ser a veces un protón más un par electrón-positrón, etc.?… En consecuencia, el problema de la división de la materia había adquirido una dimensión distinta.”
Dado que la anti-materia tiene la misma masa que la materia, es decir son de la misma magnitud y signo (la definición de masa es positiva siempre), el efecto gravitacional de la anti-materia no debe ser distinto de la materia, es decir, siempre sera un efecto atractivo. Pero, ¿acaso no importa la equivalencia establecida de anti-partícula viajando al futuro = partícula viajando al pasado?
Existe un “universo” que se nos escapa de la comprensión
La respuesta es sí. Dicha equivalencia proviene de algo llamado simetría CPT (Charge-Parity-Time), y nos dice que la equivalencia entre las partículas y anti-partículas no solo corresponde a realizar una transformación sobre la carga, sino también sobre la paridad y el tiempo. La carga no afecta la gravedad, pero la paridad y el tiempo si la afectan. En otras palabras, al modificarse el tiempo (poner el tiempo al revés) y el espacio (la paridad es “girar” el espacio), estamos alterando el espacio-tiempo, y como la teoría general de la relatividad lo afirma, es la geometría de este el que determina la gravedad.
El carácter mutable de la materia se convirtió en piedra angular de la nueva física de partículas. El hecho de que partículas y antipartículas puedan crearse juntas a partir del vacío si se aporta energía suficiente, no sólo es importante para entender cómo se crean las partículas en aceleradores de alta energía, sino también para entender los procesos cuánticos que se produjeron en el Big Bang.
Como ya lo hemos expresado, el conocimiento que se obtuvo sobre la existencia de anti-familias de partículas o familias de anti-partículas es una consecuencia de la aplicación de la teoría relativista del campo cuántico, para cada partícula existe una partícula que tiene la misma masa pero cuya carga eléctrica (y otras llamadas cargas internas) son de signo opuesto. Estas son las anti-partículas. Así, al conocido electrón, con carga negativa, le corresponde un «electrón positivo» como anti-partícula, llamado positrón, descubierto en 1932. El anti-protón, descubierto en 1956, tiene la misma masa que el protón, pero carga eléctrica negativa de igual valor. El fotón, que no tiene masa ni carga eléctrica, puede ser considerada su propia anti-partícula.
Un agujero negro es un objeto que tiene tres propiedades: masa, espín y carga eléctrica. La forma del material en un agujero negro no se conoce, en parte porque está oculta para el universo externo, y en parte porque, en teoría, el material continuaría colapsando hasta tener radio cero, punto conocido como Singularidad, de densidad infinita.
Un agujero negro tiene tres propiedades: masa, espín y carga eléctrica. La forma del material de un agujero negro no se conoce, en parte porque está oculta para el universo externo, y en parte porque, en teoría, el material continuaría colapsando hasta tener radio cero, punto conocido como singularidad, de densidad infinita.
La luz (fotones), no son una onda distinta que un electrón o protón, etc.
1°- “No se dispersan”, no son más pequeñas, como las ondas del agua (olitas) cuando tiramos una piedra, a medida que se alejan de su centro; sino que en el caso de la luz son menos partículas, pero son siempre el mismo tipo de onda (determinada frecuencia), igual tamaño.
2°- Las ondas con más energía son más grandes, los fotones al igual que las partículas son más pequeñas, contra toda lógica (contracción de Lorentz).
3°- No necesitan de un medio material para desplazarse. Viajan en el vacío. El medio que usan para viajar, es el mismísimo espacio.
4°- Su cualidad de onda no es diferente de las partículas. Lo podemos ver en la creación de pares y la cualidad de onda de las partículas, etc. En ningún momento la partícula, es una cosa compacta (ni una pelotita), siempre es una onda, que no se expande. En la comparación con la ola, sería como un “montón” o un “pozo” de agua, con una dirección, lo que conocemos como ecuación de Schrödinger. En ningún momento la partícula, es una pelotita; la ola sobre el agua, no es un cuerpo que se mueve sobre el agua, no es un montón de agua que viene (aunque parece), sino una deformación del agua. Así la partícula, no es un montón de algo, sino una deformación del espacio.
La curvatura está relacionadas con la probabilidad de presencia, no es una bolita que está en uno de esos puntos, sino que es una onda en esa posición. El fotón es una onda que no necesita de un medio material para propagarse, se propaga por el espacio vacío. Así como una onda de sonido es una contracción-expansión del medio en que se propaga, el fotón es una contracción-expansión del espacio (del mismísimo espacio), razón por la cual entendemos que el espacio se curva, se contrae y expande. La rigidez del medio, da la velocidad de la deformación (velocidad de la onda), en el caso de la rigidez del espacio da una velocidad “c”.Esta onda por causa de la contracción del tiempo (velocidad “c”), no se expande, sino que se mantiene como en su origen (para el observador ), como si fuese una “burbuja”, expandida o contraída, en cada parte, positiva-negativa.
Cada partícula está caracterizada por un cierto número de parámetros que tienen valores bien definidos: su masa, carga eléctrica, spin o rotación interna y otros números, conocidos como cuánticos. Estos parámetros son tales que, en una reacción, su suma se mantiene y sirve para predecir el resultado. Se dice que hay conservación de los números cuánticos de las partículas. Así, son importantes el número bariónico, los diversos números leptónicos y ciertos números definidos para los quarks, como la extrañeza, color, etc. Estos últimos y sus antipartículas tienen cargas eléctricas (± 1/3 o ± 2/3) y números bariónicos (±1/3) fraccionarios. No todos los números asociados a cada partícula han sido medidos con suficiente precisión y no todas las partículas han sido detectadas en forma aislada, por lo menos de su ligamento, como el caso de
loquarksy de los gluones.
Los gluones son una especie de «partículas mensajeras» que mantienen unidos a los quarks. Su nombre proviene del término inglés “glue”, que significa pegamento, en español quizás podría ser gomón. Ahora, en cuanto a los quarks, ya hicimos referencia de ellos anteriormente. Pero recordemos aquí, que fueron descubiertos en 1964 por Murray Gell-Mann, como los componentes más reducidos de la materia. Hasta entonces se pensaba que los átomos consistían simplemente en electrones rodeando un núcleo formado por protones y electrones.
En estado natural, quarks y gluones no tienen libertad. Pero si se eleva la temperatura a niveles 100.000 veces superiores, como se ha hecho en aceleradores de partículas, a la del centro del Sol, se produce el fenómeno del desconfinamiento y por un brevísimo tiempo quedan libres. En ese preciso momento aparece lo que se suele llamar plasma, «una sopa de quarks y gluones» que equivale al estado en que se podría haber encontrado la naturaleza apenas una milésima de segundo luego del Big Bang.
Recientemente se ha descubierto un nuevo estado de la materia, esta vez a niveles muy altos de energía, que los científicos han denominado Plasma Gluón-Quark. La transición ocurre a temperaturas alrededor de cien mil millones de grados y consiste en que se rompen las fuertes ligaduras que mantienen unidos los quarks dentro de los núcleos atómicos. Los protones y neutrones están formados, cada uno, por 3 quarks que se mantienen unidos gracias a los gluones (El gluón es la partícula portadora de interacción nuclear fuerte, fuerza que mantiene unida los núcleos atómicos). A temperaturas superiores se vence la fuerza nuclear fuerte y los protones y neutrones se dividen, formando esta sopa denominada plasma Gluón-Quark.
Pero por ahora aquí, nos vamos a quedar con los quarks al natural. Normalmente, los quarks no se encuentra en un estado separados, sino que en grupos de dos o tres. Asimismo, la duración de las vidas medias de las partículas, antes de decaer en otras, es muy variable (ver tablas).
Por otra parte, las partículas presentan una o más de las siguientes interacciones o fuerzas fundamentales entre ellas. Por un lado se tiene la gravitación y el electromagnetismo, conocidas de la vida cotidiana. Hay otras dos fuerzas, menos familiares, que son de tipo nuclear y se conocen como interacciones fuertes y débiles.
La gravitación afecta a todas las partículas, es una interacción universal. Todo cuerpo que tiene masa o energía está sometido a esta fuerza. Aunque es la más débil de las interacciones, como las masas son siempre positivas y su alcance es infinito, su efecto es acumulativo. Por ello, la gravitación es la fuerza más importante en cosmología.
Los campos magnéticos están presentes por todo el Universo
La fuerza electromagnética se manifiesta entre partículas con cargas eléctricas. A diferencia de las demás, puede ser de atracción (entre cargas de signos opuestos) o de repulsión (cargas iguales). Esta fuerza es responsable de la cohesión del átomo y las moléculas. Mantiene los objetos cotidianos como entidades con forma propia. Un vaso, una piedra, un auto, el cuerpo humano. Es mucho más fuerte que la gravitación y aunque es de alcance infinito, las cargas de distinto signo se compensan y sus efectos no operan a grandes distancias. Dependiendo de las circunstancias en que actúen, estas interacciones pueden manifestarse como fuerzas eléctricas o magnéticas solamente, o como una mezcla de ambos tipos.
La Fuerza Nuclear Débil: otra fuerza nuclear, considerada mucho más débil que la Fuerza Nuclear Fuerte. El fenómeno de decaimiento aleatorio de la población de las partículas subatómicas (la radioactividad) era difícil de explicar hasta que el concepto de esta fuerza nuclear adicional fue introducido.
La interacción nuclear débil es causa de la radioactividad natural y la desintegración del neutrón. Tiene un rol capital en las reacciones de fusión del hidrógeno y otros elementos en el centro de las estrellas y del Sol. La intensidad es débil comparada con las fuerzas eléctricas y las interacciones fuertes. Su alcance es muy pequeño, sólo del orden de 10-15 cm.
La interacción fuerte es responsable de la cohesión de los núcleos atómicos. Tiene la intensidad más elevada de todas ellas, pero es también de corto alcance: del orden de 10-13 cm. Es posible caracterizar las intensidades de las interacciones por un número de acoplamiento a, sin dimensión, lo que permite compararlas directamente:
Fuerte as = 15
Electromagnéticas a = 7,3 x 10-3
Débil aw 3,1 x 10-12
Gravitacional aG = 5,9 x 10-39
Por otro lado, la mecánica cuántica considera que la interacción de dos partículas se realiza por el intercambio de otras llamadas «virtuales». Tienen ese nombre porque no son observables: existen por un tiempo brevísimo, tanto más corto cuanto mayor sea su masa, siempre que no se viole el principio de incertidumbre de Heisenberg de la teoría cuántica (que en este contexto dice que el producto de la incertidumbre de la energía por el tiempo de vida debe ser igual o mayor que una constante muy pequeña). Desaparecen antes de que haya tiempo para que su interacción con otras partículas delate su existencia.
El fotón virtual común se desplaza hacia la partícula menos energética.
Dos partículas interactúan al emitir una de ellas una partícula virtual que es absorbida por la otra. Su emisión y absorción cambia el estado de movimiento de las originales: están en interacción. Mientras menos masa tiene la partícula virtual, más lejos llega, mayor es el rango de la interacción. El alcance de la interacción es inversamente proporcional a la masa de la partícula portadora o intermedia. Por ejemplo, la partícula portadora de la fuerza electromagnética es el fotón, de masa nula y, por lo tanto, alcance infinito. La interacción gravitacional también tiene alcance infinito y debe corresponder a una partícula de masa nula: se le denomina gravitón. Naturalmente tiene que ser neutro. (Aún no ha sido vistos ni en pelea de perros).
Como ya hicimos mención de ello, a las fuerzas nucleares se les asocian también partículas portadoras. Para la interacción débil estas partículas se llaman bosones intermedios, expresados como W+, W- y Zº (neutro). El W- es anti-partícula del W+. Los W tienen masas elevadas comparadas con las otras partículas elementales. Lo de bosones les viene porque tienen spin entero, como el fotón y el gravitón, que también los son, pero que tienen masas nulas. Las fuerzas fuertes son mediadas por unas partículas conocidas como gluones, de los cuales habría ocho. Sin embargo, ellos no tienen masa, pero tienen algunas de las propiedades de los quarks, que les permiten interactuar entre ellos mismos. Hasta ahora no se han observado gluones propiamente tal, ya que lo que mencionamos en párrafos anteriores corresponde a un estado de la materia a la que llamamos plasma. Claro está, que es posible que un tiempo más se puedan detectar gluones libres cuando se logre aumentar, aún más, la temperatura, como está previsto hacerlo en el acelerador bautizado como “Relativistic Heavy Ion Collider”, empotrado en Estados Unidos de Norteamérica.
TABLA DE LAS PRINCIPALES PROPIEDADES DE LAS PARTÍCULAS PORTADORAS DE LAS INTERACCIONES FUNDAMENTALES
Una partícula y su antipartícula no pueden coexistir si están suficientemente cerca como para interactuar. Si ello ocurre, ellas se destruyen mutuamente: hay aniquilación de las partículas. El resultado es radiación electromagnética de alta energía, formada por fotones gamma. Así, si un electrón está cercano a un positrón se aniquilan en rayos gamma. Igual con un par protón-antiprotón muy próximos.
La reacción inversa también se presenta. Se llama «materialización o creación de partículas» de un par partícula-antipartícula a partir de fotones, pero se requieren condiciones físicas rigurosas. Es necesario que se creen pares partícula-antipartícula y que los fotones tengan una energía mayor que las masas en reposo de la partículas creadas. Por esta razón, se requieren fotones de muy alta energía, de acuerdo a la relación de Einstein E=mc2 . Para dar nacimiento a electrones/positrones es necesario un campo de radiación de temperaturas mayores a 7×109 °K. Para hacer lo mismo con pares protón/antiprotón es necesario que ellas sean superiores a 2×1012 °K. Temperaturas de este tipo se producen en los primeros instantes del universo.
Imagen: El pasado 12 de abril, uno de los instrumentos del observatorio espacial, el Telescopio de Área Grande (LAT), concebido y ensamblado en el National Accelerator Laboratory SLAC del Departamento de Energía, operado en la Universidad de Stanford, California, obtuvo el hito histórico con su detección 1.000.000.000 (mil millones) de rayos gamma extraterrestres.
“Luego de tres años de observación y análisis de los datos recabados a partir de observar día y noche tres cuartas partes de la bóveda celeste, identificamos una fuente de rayos gamma de TeVs muy particular. Se trata de un sistema binario conformado por una estrella de neutrones de unas 16 masas solares y una estrella supergigante de tipo A de 40 masas solares, las cuales orbitan una alrededor de otra a una distancia equivalente a un tercio de la distancia entre el Sol y Mercurio.”
Los rayos gamma están presentes en explosiones de supernovas, colisión de estrellas de neutrones… Todos los sucesos de altas energías los hace presente para que nuestros ingenios los detecten y podamos conocer lo que la materia esconde en lo más profundo de sus “entrañas”. Aún no hemos podido conocer en profundidad la materia ni sabemos, tampoco, lo que realmente es la luz.
emilio silvera
Nov
15
La importancia del Carbono para la Vida y otros
por Emilio Silvera ~
Clasificado en Bioquímica ~
Comments (0)
El concepto de Gaia, considera a la Tierra como un Ente Vivo que evoluciona y se recicla
Nuestro planeta, la Tierra, forma parte del Universo, y, es una prueba indiscutible de que sus componentes biológicos y físicos forman parte de una única red que funciona de un modo autorregulado, y, de esa forma, mantiene las condiciones que son ampliamente adecuadas para la existencia de vida, pero que sufren fluctuaciones a todas las escalas (incluidos los ritmos de alternancia de glaciaciones y periodos interglaciales, así como las extinciones masivas). En un sentido real, la Tierra es el lugar que alberga una red de vida como seguramente estará presente en muchos otros mundos en el que se den las circunstancias adecuadas, y la existencia de esta red (Gaia) sería visible para cualquier forma de vida inteligente que hubiera en Marte o en cualquier otro planeta y que fuera capaz de aplicar la prueba conocida de Lovelock y buscar señales de reducción de la entropía.
Cuando Lovelock publicó la hipótesis de Gaia, provoco una sacudida en muchos científicos, sobre todo en aquellos con una mente más lógica que odiaban un concepto que sonaba tan místico. Les producía perplejidad, y lo más desconcertante de todo era que Lovelock era uno de ellos. Tenía fama de ser algo inconformista, pero sus credenciales científicas eran muy sólidas. Entre otros logros a Lovelock se le conocía por ser el científico que había diseñado los instrumentos de algunos de los experimentos para buscar vida que la nave estadounidense Viking había llevado a cabo en la superficie de Marte.
Ni la NASA, tomó nunca la prueba de Lovelock lo suficientemente en serio como para aplicarla a la búsqueda de vida en el Sistema Solar; pero si se lo tomó en serio para buscar vida más allá del Sistema Solar. Pero recapacitaron y comenzaron a enviar al planeta Marte, una serie de ingenios en forma de pequeñas navez robotizadas como la Mars Phoenix que comenzó encontrando hielo de agua diluyendo porciones de la tierra marciana en agua y debidamente tratada, hallaron la presencia de magnesio, sodio, potasio y cloruros. Uno de los científicos responsables llegó a decir:
“Hay más que evidencia de agua porque las sales están ahí. Además hemos encontrado los compuestos químicos necesarios para la vida como la conocemos. y, lo sorprendente de Marte es que no es un mundo extraño, sino que, en muchos aspectos es igual que la Tierra.”
Se están analizando los gases y los compuestos químicos del suelo y del hielo allí encontrados, y, todo ello, debidamente procesado nos dará una respuesta de lo que allí existe.
Lo que para mí está muy claro es que, los mecanismos del Universo son los mismos en cualquier región del cielo, y, las estrellas y los planetas surgen en todas partes de la misma manera. Y, si eso es así, sería lógico pensar que la vida podría estar en cualquier parte, y, además, con muchas probabilidades de que sea más o menos tal como la conocemos, ya que, la nuestra, basada en el Carbono y el Nitrógeno (siempre en presencia de agua), es la más natural dadas las características de estos elementos para unirse.
La historia de la vida en el Universo es otro ejemplo de complejidad superficial construida sobre cimientos de una profunda sencillez. Actualmente la prueba de que el universo tal como lo conocemos surgió a partir de un estado denso y caliente (Big Bang) hace unos 14.000 millones de años, es poco discutida.
Con los elementos primordiales creados en las estrellas, miles de años más tarde, en los mundos situados en las zonas habitables de sus estrellas, se habrán podido conformar células replicantes que habrían dado comienzo a la aventura de la vida. En la Tierra, el único planeta con vida que conocemos (por el momento), las formas de vida y especies que han estado aquí y siguen estando ha sido de una rica variedad y de asombrosos metabolismos.
Los bloques de construcción básicos que emergieron del big bang fueron el hidrógeno y el helio, casi exactamente en una proporción de 3:1. Todos los demás elementos químicos (excepto unos leves vestigios de unos pocos elementos muy ligeros, como el litio) han sido fabricados en el interior de las estrellas y dispersados por el espacio cuando estas se dilataron y expulsaron materiales, o, al final de sus vidas, agotado el combustible nuclear de fusión, explotaron como Supernovas regando grandes regiones con Nebulosas creadoras de nuevas estrellas y nuevos mundos.
Una estrella como el Sol genera calor convirtiendo hidrógeno en helio dentro de su núcleo; en otras estrellas los procesos cruciales incluyen fusiones sucesivas de núcleos de helio. Dado que cada núcleo de helio es una unidad que contiene cuatro “nucleones” (dos protones y dos neutrones), y este elemento se denomina abreviadamente helio-4, esto significa que los elementos cuyos núcleos contienen un número de nucleones que es múltiplo de cuatro son relativamente comunes en el universo, excepto el berilio-8, que es inestable.
El carbono-12 es el más abundante de los dos isótopos estables del elemento Carbono, representando el 98,89% de todo el carbono terrestre. Está conformado por 6 protones, 6 neutrones y 6 electrones.
Adquiere particular importancia al usarse como patrón para el cálculo de la masa atómica de los distintos nucleidos existentes en la naturaleza; dado que la masa atómica del 12C es, por definición, 12 umas.
Concretamente, en las primeras etapas de este proceso se produce carbono-12 y oxígeno-16, y resulta que el nitrógeno-14, aunque no contiene un número entero de núcleos de helio-4, se obtiene como subproducto de una serie de interacciones en las que participan núcleos de oxígeno y de carbono que operan en estrellas de masa un poco mayor que la de nuestro Sol.
Como consecuencia, estos son, con gran diferencia, los elementos más comunes, aparte del hidrógeno y del helio. Dado que éste último es un gas inerte (noble) que no reacciona químicamente, se deduce que los cuatro elemenbtos reactivos más comunes en el universo son el Carbono, el Hidrógeno, el Oxígeno y el Nitrógeno, conocidos en el conjunto por el acrónimo CHON.
No es casualidad que los cuatro elementos químicos que participan con una aplastante mayoría en la composición de los seres vivos de la Tierra sean el carbono, el hidrógeno, el oxígeno y el nitrógeno.
En estado puro y dependiendo de cómo estén dispuestos sus átomos, este elemento puede formar tanto el mineral más duro que ocurre en la naturaleza, el diamante, como uno de los más blandos, el grafito. Organizados en hexágonos y formando láminas, los átomos de carbono dan lugar al grafeno, un material del que habréis oído hablar estos últimos años por sus “increíbles” propiedades
Estructuras basadas en el Carbono
El Carbono desarrolla el papel clave en el desarrollo de la vida, porque un solo átomo de este elemento es capaz de combinarse químicamente nada menos que con otros cuatro átomos al mismo tiempo (incluídos otros átomos de carbono, que pueden estar unidos a su vez a más átomos de carbono, formando anillos y cadenas), de tal modo que este elemento tiene una química excepcionalmente rica. Así decimos con frecuencia que la vida en la Tierra está basada en el Carbono, el elemento más ductil y crucial en nuestra formación.
Claro que, tal comentario, no implica la negación de que pudieran existir otras clases de vida basadas en el Silicio o en cualquier otra combinación química, pero todas las pruebas que aporta la Astronomía sugieren que es mucho mayor la probabilidad de que la vida más allá de nuestras fronteras esté basada también en el CHON.
Es inadmisible lo poco que la gente común sabe del Universo al que pertenecen y también lo poco que se valora el trabajo de Astrónomos, Astrofísicos y Cosmólogos, ellos son los que realizan las pruebas y las comprobaciones que finalmente nos llevan al conocimiento que hoy tenemos del cielo y de los objetos que lo pueblan y de las fuerzas que allí actúan.
La Nebulosa de la Quilla, una de las regiones de nacimiento de estrellas más grandes del universo: pilares de 3 años luz de altura que parecen abultados como las velas de un barco por la fuerza tirante de los astros que, literalmente, da a luz en su interior.
Gran parte de estas pruebas proceden del análisis espectroscópico del material que está presente en las Nebulosas, esas inmensas nubes de gas y polvo que se encuentran en el espacio como resultado de explosiones de supernovas o de otros fenómenos que en el Universo son de lo más frecuente. A partir de esas nubes se forman los sistemas planetarios como nuestro sistema solar, allí, nacen nuevas estrellas que contienen los mismos materiales expulsados por estrellas de generaciones anteriores.
En estas nubes hay muchos compuestos construidos en torno a átomos de carbono, y este elemento es tan importante para la vida que sus compuestos reciben en general el nombre de compuestos “orgánicos”. Entre los compuestos detectados en nubes interestelares hay sustancias muy sencillas, como metano y dióxido de carbono, pero también materiales orgánicos mucho más complejos, entre los que cabe citar el formaldehído, el alcohol etílico, e incluso al menos un aminoácido, la glicina. Lo que constituye un descubrimiento muy esclarecedor, porque es muy probable que toso los materiales existentes en las nubes interestelares hayan estado presentes en la nube a partir de la cual se formó nuestro Sistema Solar, hace unos cinco milo millones de años.
En este cúmulo estelar llamado NGC 602, cerca de la Pequeña Nube de Magallanes, millones de estrellas jóvenes emiten radiación y energía en forma de ondas que erosionan el material que las rodea creando formaciones visualmente interesantes. El tamaño de lo que se ve en la foto abarca 200 años luz de lado a lado
A partir de estos datos, equipos científicos han llevado a cabo en la Tierra experimentos en los que unas materias primas, debidamente tratadas simulando las condiciones de densidad y energías de aquellas nubes interestelares (ahora en laboratorio), dieron como resultado el surgir expontáneo de tres aminoácidos (glicina, serina y alanina). Todos conocemos el experimento de Miller.
En otro experimento utilizando otra mezcla de ingredientes ligeramente distinta, se producian no menos de dieciseis aminoácidos y otros compuestos orgánicos diversos en unas condiciones que eran las existentes en el espacio interestelar.
Para hacernos una idea, las proteínas de todos los seres vivos de la Tierra están compuestas por diversas combinaciones de tan sólo veinte aminoácidos. Todas las evidencias sugieren que este tipo de materia habría caído sobre los jóvenes planetas durante las primeras etapas de formación del sistema planetario, deposita por cometas que habría sido barridos por la influencia gravitatoria de unos palnetas que estaban aumentando de tamaño.
En idénticas condiciones de temperatura y presión que el universo de hace 4.600 millones de años, Experimentos llevados a cabo en el laboratorio, han logrado originar ribosa, la molécula que luego acabó convirtiéndose en ADN.
Como hemos podido deducir, una sopa de aminoácidos posee la capacidad de organizarse por sí sóla, formando una red con todas las propiedades que ha de tener la vida. De esto se deduce que los aminoácidos que estuvieron formando durante largos períodos de tiempo en las profundidades del espacio (utilizando energias proporciona por la luz de las estrellas), serían transportados a la superficie de cualquier planeta joven, como la Tierra.
Algunos planetas pueden resultar demasiado calientes para que se desarrolle la vida, y otros demasiado fríos. Pero ciertos planetas como la propia Tierra (existentes a miles de millones), estarían justo a la temperatura adecuada. Allí, utilizando la expresión de Charles Darwin, en alguna “pequeña charca caliente” tendrían la oportunidad de organizarse en sistemas vivos.
Sopa primigenia de la que surgió la primera célula replicante precursora de la Vida
Claro que, por mi parte, como dijo aquel famoso Astrofísico inglés del que ahora no recuerdo el nombre: ” milagro no es que aparezca vida fuera de la Tierra, el verdadero milafro sería que no apareciera”.
Y, en cuanto a las condiciones para que haga posible la existencia de vida, conviene ser reservados y no emitir un juicio precipitado, ya que, todos sabemos de la existencia de vida en condiciones que se podrían comparar o denominar de infernales. Así que, estaremos a la espera de que, el Universo nos de una respuesta.
Veamos algunos conceptos: Nova.
Antiguamente, a una estrella que aparecía de golpe donde no había nada, se le llamaba nova o ” estrella nueva “. Pero este nombre no es correcto, …
En realidad es una estrella que durante el periodo de sólo unos pocos días, se vuelve 103-104 veces más brillantes de lo que era. Ocurren 10 ó 15 sucesos de ese tipo cada año en la Vía Láctea. Las novas se cree que son binarias próximas en las que, uno de sus componentes es usualmente una enana blanca y la otra una gigante roja.
La materia se transfiere de la gigante roja a la enana blanca, en cuya superficie se acumula, dando lugar a una explosión termonuclear, y, a veces se convierte en una estrella de neutrones al ver incrementada su masa.
Nucleones.
Protones y neutrones, los constituyentes de los núcleos atómicos que, a su vez, están conformados por tripletes de Quarks. Un protón está hecho por 2 Quarks up y 1 Quark Down, mientras que un Neutrón está conformado por 2 Quarks Down y 1 Quark up. Son retenidos en el núcleo por los Bosones llamados Gluones que son transmisores de la fuerza nuclear fuerte.
Núcleo.
Corazón central de un átomo que contiene la mayor parte de su masa. Está positivamente cargado y constituido por uno o más nucleones (protones y neutrones).
La carga positiva del núcleo está determinada por el número de protones que contiene (número atómico) y en el átomo neutro está compensada por un número igual de electrones, que se mueven alrededor del núcleo y cuya carga eléctrica negativa anula o compensa a la positiva de los (electro) protones.
El núcleo más simple es el núcleo de hidrógeno, consistente en un único protón. Todos los demás núcleos contienen además uno o más neutrones.
Los neutrones contribuyen a la masa atómica, pero no a la carga nuclear.
El núcleo más masivo que se encuentra en la Naturaleza es el Uranio-238, que contiene 92 protones y 146 neutrones.
Nucleosíntesis, nucleogénesis.
Fusión de nucleones para crear los núcleos de nuevos átomos más complejos. La nucleosíntesis tiene lugar en las estrellas y, a un ritmo más acelerado, en las supernovas.
La nucleosíntesis primordial tuvo lugar muy poco después del Big Bang, cuando el Universo era extremadamente caliente y, ese proceso fue el responsable de la abundancia de elementos ligeros, por todo el cosmos, como el Helio y el Hidrógeno que, en realidad es la materia primordial de nuestro Universo, a partir de estos elementos se obtienen todos los demás en los procesos estelares de fusión.
Omega negro
El Omega negro se refiere a la cantidad de materia que hay en el Universo
Índice de densidad de materia del Universo, definida como la razón entre la actual densidad y la “Densidad crítica” requerida para “cerrar” el Universo y, con el tiempo, detener su expansión.
Para la materia oscura se dirá: “Omega Negro”.
Si Omega es mayor que 1, el Universo se detendrá finalmente y las galaxias recorrerán, a la inversa, el camino recorrido para colapsar en una gran Bola de fuego, el Big Crunch, estaríamos en un Universo cerrado.
Se dice que, un Universo con exactamente 1, la Densidad crítica ideal, estará alrededor de 10-29 g/cm3 de materia, lo que esta descrito por el modelo e Universo descrito por Einstein-de Setter.
En cualquier caso, sea cual fuere Omega, no parece muy atractivo el futuro de nuestro Universo que según todos los datos que tenemos acabará en el hielo o en el fuego y, en cualquier de estos casos.
¿Dónde nos meteremos?
Onda, función.
Función, denotada por Y (w,y,z), que es solución de la ecuación de Schrödinger en la mecánica cuántica. La función de ondas es una expresión matemática que depende de las coordenadas de una partícula en el espacio.
Si la función de ondas (ecuación de Schrödinger) puede ser resuelta para una partícula en un sistema dado (por ejemplo, un electrón en un átomo), entonces, dependiendo de las colisiones en la frontera, la solución es un conjunto de soluciones, mejor de funciones de onda permitidas de la partícula (autofunciones), cada una correspondiente a un nivel de energía permitido.
El significado físico de la función de ondas es que el cuadrado de su valor absoluto en un punto, [Y]2, es proporcional a la probabilidad de encontrar la partícula en un pequeño elemento de volumen, dxdydz, en torno a ese punto. Para un electrón de un átomo, esto da lugar a la idea de orbitales atómicos moleculares.
elimino ecuación para no confundir al lector no versado.
donde Y es la función de ondas, Ñ2 es el operador Laplace, h es la constante de Planck, m es la masa de la partícula, E la energía total= y È la energía potencial.
Colaboración de Emilio Silvera.
Ondas.
La velocidad de una estrella puede generar enormes onda
Propagación de la energía mediante una vibración coherente.
Está referido a la perturbación periódica en un medio o en el espacio. En una onda viajera (u onda progresiva) la energía es transferida de un lugar a otro por las vibraciones. En el Espacio puede estar causada por el movimiento de las estrellas.
En una onda que atraviesa la superficie del agua, por ejemplo, el agua sube y baja al pasar la onda, pero las partículas del agua en promedio no se mueven. Este tipo de onda se denomina onda transversal, porque las perturbaciones están en ángulo recto con respecto a la dirección de propagación. La superficie del agua se mueve hacia arriba y abajo mientras que la onda viaja a lo largo de la superficie del agua.
Las ondas electromagnéticas son de este tipo, con los campos eléctricos y, magnéticos variando de forma periódica en ángulo recto entre sí y a la dirección de propagación.
En las ondas de sonido, el aire es alternativamente comprimido y rarificado por desplazamiento en la dirección de propagación. Dichas ondas se llaman longitudinales.
Las principales características de una onda es su velocidad de propagación, su frecuencia, su longitud de onda y su amplitud. La velocidad de propagación y la distancia cubierta por la onda en la unidad de tiempo. La frecuencia es el número de perturbaciones completas (ciclos) en la unidad de tiempo, usualmente expresada en hertzios. La longitud de onda es la distancia en metros entre puntos sucesivos de igual fase de onda es la distancia en metros entre puntos sucesivos de igual fase de onda. La amplitud es la diferencia máxima de la cantidad perturbada medida con referencia a su valor medio.
Recuerdo cuando allá por el año 2009 publiqué: “Pronto oiremos que Kip S. Thorne ha detectado y medido las ondas gravitacionales de los Agujeros Negros.” Y, en el presente es noticias pasada.
Las ondas gravitacionales son aquellas que se propagan a través de un campo gravitacional. Cuando eso suceda, tendremos nuevos conocimientos sobre el Universo, ya que, el que ahora conocemos sólo está dado por las lecturas de las ondas electromagnéticas, no de las gravitatorias.
La predicción de que una masa acelerada radia ondas gravitacionales (y pierde energía) proviene de la teoría general de la relatividad. Por ejemplo cuando dos agujeros negros chocan y se fusionan.
El Experimento LIGO se afanó en localizar y medir estas ondas y, a la cabeza del proyecto, como he dicho, está el experto en agujeros negros, el físico y cosmólogo norteamericano, amigo de Stephen Hawking, kip S.Thorne, que está buscando las pulsaciones de estos monstruos del espacio, cuya energía infinita (según él), algún día podrá ser aprovechada por la humanidad cuando la tecnología lo permita.
Aunque podríamos continuar hablando sobre onda continua, onda cósmica, onda cuadrada, onda de choque, onda de espín (magnón), onda de tierra, onda estacionaria, onda ionosférica, onda portadora, onda sinuosidad, onda viajera, onda sísmica, onda submilimétrica, onda de ecuación, etc., sería salirse del objeto perseguido aquí.
Oort, nube de ; Constante de.
La nube de Oort está referida a un halo aproximadamente esférico de núcleos cometarios que rodea al Sol hasta quizás unas 100.000 UA (más de un tercio de la distancia a la estrella más próxima). Su existencia fue propuesta en 1950 por J.H.Oort (1900-1992) astrónomo holandés, para explicar el hecho de que estén continuamente acercándose al Sol nuevos cometas con órbitas altamente elípticas y con todas las inclinaciones.
La nube Oort sigue siendo una propuesta teórica, ya que no podemos en la actualidad detectar cometas inertes a tan grandes distancias. Se estima que la nube contiene unos 1012 cometas restantes de la formación del Sistema Solar. Los miembros más distantes se hallan bastante poco ligados por la gravedad solar.
Puede exitir una mayor concentración de cometas relativamente cerca de la eclíptica, a 10.000-20.000 ÈA del Sol, extendiéndose hacia adentro para unirse al Cinturón de kuiper. Los comentas de la Nube de Oort se ven afectados por la fuerza gravitatoria de los estrellas cercanas, siendo perturbadas ocasionalmente poniéndoles en órbitas que los llevan hacia el Sistema Solar interior.
La constante de Oort está referida a dos parámetros definidos por J.H.Oort para describir las características más importantes de la rotación diferencial de nuestra Galaxia en la vecindad del Sol. Son usualmente expresadas en unidades de kilómetros por segundo por kiloparsec. Los dos parámetros están dados por los símbolos A y B. Restando B de A se obtiene la velocidad angular del estándar local de repaso alrededor del centro de la Galaxia, que corresponde al periodo de unos 200 millones de años.
Órbita.
En astronomía es el camino a través del espacio de un cuerpo celeste alrededor de otro. Para un cuerpo pequeño que se mueve en el campo gravitacional de otro, la órbita es una cónica. La mayoría de esas órbitas son elípticas y la mayoría de las órbitas planetarias en el sistema solar son casi circulares. La forma y tamaño de una órbita elíptica se determina por su excentricidad, e, y la longitud de su semieje mayor, a.
En física, la órbita esta referida al camino de un electrón al viajar alrededor del núcleo del átomo (ver orbitales).
emilio silvera
Nov
15
Moléculas, sustancias, cuerpos…
por Emilio Silvera ~
Clasificado en Moléculas precursoras de la vida ~
Comments (0)
Es allí, en las estrellas, en sus hornos nucleares y en las explosiones de supernovas, donde a miles de millones de grados de temperatura, se crean los elementos más complejos que el hidrógeno y el helio. Aparece el litio, el carbono, el silicio o el nitrógeno y el hierro.
De estos materiales estamos nosotros hechos, y, lógicamente, se fabricaron en las estrellas.
En una supernova, en orden decreciente tenemos la secuencia de núcleos H, He, O, C, N, Fe, que coincide bastante bien con una ordenación en la tabla periódica que es:
H, He, (Li, Be, B) C, O, N…… Fe
¿Apreciáis la maravilla? Las estrellas brillan en el cielo para hacer posible que nosotros estemos aquí descubriendo los enigmas del Universo y…. de la vida inteligente.
El telescopio VLT (Very Large Telescope) de ESO ha obtenido imágenes de una fascinante región de formación de estrellas en la Gran Nube de Magallanes — una de las galaxias satélite de la Vía Láctea. Esta precisa imagen revela dos peculiares y brillantes nubes de gas: la rojiza NGC 2014 y su vecina azulada NGC 2020. Pese a que son muy diferentes, ambas fueron esculpidas por potentes vientos estelares procedentes de estrellas recién nacidas extremadamente calientes que también irradian el gas, provocando que brille de forma intensa. (para verla entera hay que pasar la rgla hacia la derecha).
Pero está claro que, todo el proceso estelar evolutivo inorgánico nos condujo desde el simple gas y polvo cósmico a la formación de estrellas y nebulosas solares hasta los planetas, la Tierra en particular, en cuyo medio ígneo describimos la formación de las estructuras de los silicatos, desplegándose con ello una enorme diversidad de composiciones, formas y colores, asistiéndose, por primera vez en la historia de la materia, a unas manifestaciones que contrastan con las que hemos mencionado en relación al proceso de las estrellas.
Desde el punto de vista del orden es la primera vez que nos encontramos con objetos de tamaño comparables al nuestro, en los que la ordenación de sus constituyentes es el rasgo más característico.
Al mismo tiempo nos ha parecido reconocer que esos objetos, es decir, sus redes cristalinas “reales”, almacenan información (memoria) que se nos muestra muy diversa y que puede cobrar interés en ciertos casos, como el de los microcristales de arcilla, en los que, según Cairos-Swith, puede incluso llegar a transmitirse.
Porque ¿qué sabemos en realidad de lo que llamamos materia inerte? Lo único que sabemos de ella son los datos referidos a sus condiciones físicas de dureza, composición, etc., en otros aspectos, ni sabemos si pueden existir otras propiedades distintas a las meramente-físicas.
¿No os hace pensar que nosotros estemos hechos, precisamente, de lo que llamamos materia inerte?
Pero el mundo inorgánico es sólo una parte del inmenso mundo molecular. El resto lo constituye el mundo orgánico, que es el de las moléculas que contienen carbono y otros átomos y del que quedan excluidos, por convenio y características especiales, los carbonatos, bicarbonatos y carburos metálicos, los cuales se incluyen en el mundo inorgánico.
Los Quarks u y d se hallan en el seno de los nucleones (protones y neutrones) y, por tanto, en los núcleos atómicos. Hoy día, estos se consideran como una subclase de los hadrones.
La composición de los núcleos (lo que en Química se llama análisis cualitativo) es extraordinariamente sencilla ya que, como es sabido, constan de neutrones y protones que se pueden considerar como unidades que, dentro del núcleo, mantienen su identidad. Tal simplicidad cualitativa recuerda, por ejemplo, el caso de las series orgánicas, siendo la de los hidrocarburos saturados la más conocida. Recordad que su fórmula general es , lo que significa que una molécula de hidrocarburo contiene n átomos de carbono (símbolo C) y (2n+2) átomos de hidrógeno (símbolo H).
Protones y neutrones determinan el elemento
El número de protones y neutrones determina al elemento, desde el hidrógeno (el más simple), al Uranio (el más complejo), siempre referido a elementos naturales que son 92, el resto, son artificiales, los conocidos transuránicos en cuyo grupo están el Einstenio o el Plutonio, artificiales todos ellos.
Los núcleos, como sistemas dinámicos de nucleones, pertenecen obviamente a la microfísica y, por consiguiente, para su descripción es necesario acudir a la mecánica cuántica. La materia, en general, aunque presumimos de conocerla, en realidad, nos queda mucho por aprender de ella.
Hablemos un poco de moléculas.
El papel primordial del agua en el metabolismo de los seres vivos se debe sus propiedades físicas y químicas, derivadas de la estructura molecular.
El número de especímenes atómicos es finito, existiendo ciertas razones para suponer que hacia el número atómico 173 los correspondientes núcleos serían inestables, no por razones intrínsecas de inestabilidad “radiactiva” nuclear, sino por razones relativistas. Ya antes me referiría a las especies atómicas, naturales y artificiales que son de unos pocos millares; en cambio; el número de moléculas conocidas hasta ahora comprende varios millones de especímenes, aumentando continuamente el número de ellas gracias a las síntesis que se llevan a cabo en numerosos laboratorios repartidos por todo el mundo.
Una molécula es una estructura, con individualidad propia, constituida por núcleos y electrones. Obviamente, en una molécula las interacciones deben tener lugar entre núcleos y electrones, núcleos y núcleos y electrones y electrones, siendo del tipo electromagnético.
Proteína supresora de tumores p53 encajada a una secuencia de ADN
Debido al confinamiento de los núcleos, el papel que desempeñan, aparte del de proporcionar la casi totalidad de la masa de la molécula, es poco relevante, a no ser que se trate de moléculas livianas, como la del hidrógeno. De una manera gráfica podríamos decir que los núcleos en una molécula constituyen el armazón de la misma, el esqueleto, cuya misión sería proporcionar el soporte del edificio. El papel más relevante lo proporcionan los electrones y en particular los llamados de valencia, que son los que de modo mayoritario intervienen en los enlaces, debido a que su energía es comparativamente inferior a la de los demás, lo que desempeña muy importante papel en la evolución.
Desde las moléculas más sencilla, como la del hidrógeno, con un total de 2 electrones, hasta las más complejas, como las de las proteínas, con muchos miles de ellos, existe toda una gama, según decía, de varios millones. Esta extraordinaria variedad de especies moleculares contrasta con la de las especies nucleares e incluso atómicas.
Sin entrar en las posibles diferencias interpretativas de estas notables divergencias, señalaré que, desde el punto de vista de la información, las especies moleculares la poseen en mucho mayor grado que los nucleares y atómicas.
Dejando aparte los núcleos, la información que soportan los átomos se podría atribuir a la distribución de su carga eléctrica, y en particular a la de los electrones más débilmente ligados. Concretando un poco se podría admitir que la citada información la soportan los orbitales atómicos, pues son precisamente estos orbitales las que introducen diferencias “geométricas” entre los diferentes electrones corticales.
Justamente esa información es la que va a determinar las capacidades de unión de unos átomos con otros, previo el “reconocimiento” entre los orbitales correspondientes. De acuerdo con la mecánica cuántica el número de orbitales se reduce a unos pocos. Se individualizan por unas letras hablándose de orbitales, s, p, d, f, g, h. Este pequeño número nos proporciona una gran diversidad.
La llamada hibridación (una especie de mezcla) de orbitales es un modo de aumentar el número de mensajes, esto es, la información, bien entendido que esta hibridación ocurre en tanto y en cuanto dos átomos se preparan para enlazarse y formar una molécula. En las moléculas, la información, obviamente, debe de abarcar a todo el edificio, por lo que en principio parece que debería ser más rica que en los átomos. La ganancia de información equivale a una disminución de entropía; por esta razón, a la información se la llama también negantropía.
En términos electrónicos, la información se podría considerar proporcionada por un campo de densidad eléctrica, con valles, cimas, collados, etc., es decir, curvas isoelectrónicas, equivalentes formalmente a las de nivel en topografía. Parece razonable suponer que cuanto más diverso sean los átomos de una molécula, más rica y variada podrá ser su información, la información que pueda soportar.
La enorme variedad de formas, colores, comportamientos, etc., que acompaña a los objetos, incluidos los vivientes, sería una consecuencia de la riqueza en la información que soportan las moléculas (y sus agregados) que forman parte de dichos objetos. Ello explicaría que las moléculas de la vida sean en general de grandes dimensiones (macromoléculas). La inmensa mayoría de ellas contiene carbono. Debido a su tetravalencia y a la gran capacidad que posee dicho átomo para unirse consigo mismo, dichas moléculas pueden considerarse como un esqueleto formado por cadenas de esos átomos.
Estas moléculas se agrupan y forman biomoléculas; Monómeros, que enlazados unos a otros, forman largas cadenas y originan la enorme diversidad de macromoléculas existentes CO2 H2O N2 Hidratos de carbono Glucosa Peroxidasa.
El carbono no es el único átomo con capacidad para formar los citados esqueletos. Próximos al carbono en la tabla periódica, el silicio, fósforo y boro comparten con dicho átomo esa característica, si bien en un grado mucho menor.
Refiriéndonos al silicio, que para nosotros es el más importante, señalaremos que las “moléculas” que dicho átomo forma con el oxígeno y otros átomos, generalmente metálicos, poseyendo gran nivel de información, difieren, en varios aspectos, de las moléculas orgánicas, es decir, de las que poseen un esqueleto de átomos de carbono.
Las cadenas resultantes, polidimetildioxano, pueden ser lineales o ramificadas. La longitud de las cadenas puede varias desde unas pocas unidades hasta …
Los compuestos formados solo por carbono e hidrógeno se conocen como hidrocarburos, y estructuralmente son el tipo más simple de moléculas orgánicas.
El mundo de los silicatos es de una gran diversidad, existiendo centenares de especies minerológicas. Esas diferencias se refieren, fundamentalmente, a que el enlace químico en el caso de las moléculas orgánicas es covalente, y cuando se forma la sustancia correspondiente (cuatrillones de moléculas) o es un líquido, como es el caso de los aceites, o bien un sólido que funde fácilmente. Entre las moléculas que lo forman se ejercen unas fuerzas, llamadas de van der Waals, que, pueden considerarse como residuales de las fuerzas electromagnéticas, algo más débiles que éstas. En cambio, en los silicatos sólidos (como en el caso del topacio) el enlace covalente o iónico no se limita a una molécula, sino que se extiende en el espacio ocupado por el sólido, resultando un entramado particularmente fuerte.
Al igual que para los cristales de hielo, en la mayoría de los silicatos la información que soportan es pequeña, aunque conviene matizar este punto. Para un cristal ideal así sería en efecto, pero ocurre que en la realidad el cristal ideal es una abstracción, ya que en el cristal real existen aquí y allá los llamados defectos puntuales que trastocan la periodicidad espacial propia de las redes ideales. Precisamente esos defectos puntuales podían proporcionar una mayor información.
Las moléculas orgánicas con enlaces dobles ó triples tienen también formas características.
Si prescindimos de las orgánicas, el resto de las moléculas que resultan de la combinación entre los diferentes átomos no llega a 100.000, frente a los varios millones de las primeras. Resulta ranozable suponer que toda la enorme variedad de moléculas existentes, principalmente en los planetas rocosos, se haya formado por evolución de los átomos, como corresponde a un proceso evolutivo. La molécula poseería mayor orden que los átomos de donde procede, esto es, menor entropía. En su formación, el ambiente se habría desordenado al ganar entropía en una cierta cantidad tal, que arrojarse un balance total positivo.
No puedo, dejar pasar la oportunidad, aunque sea de pasada, de mencionar las sustancias.
Tipos de energía que se almacena en moléculas orgánicas
Las así llamadas, son cuerpos formados por moléculas idénticas, entra las cuales pueden o no existir enlaces químicos. Veremos varios ejemplos. Las sustancias como el oxígeno, cloro, metano, amoníaco, etc., se presentan en estado gaseoso en condiciones ordinarias de presión y temperatura. Para su confinamiento se embotellan, aunque existen casos en que se encuentran mezcladas en el aire (os podéis dar una vueltecita por el Polo químico de Huelva).
En cualquier caso, un gas como los citados consiste en un enjambre de las moléculas correspondientes. Entre ellas no se ejercen fuerzas, salvo cuando colisionan, lo que hacen con una frecuencia que depende de la concentración, es decir, del número de ellas que están concentradas en la unidad de volumen; número que podemos calcular conociendo la presión y temperatura de la masa de gas confinada en un volumen conocido.
Decía que no existen fuerzas entre las moléculas de un gas. En realidad, es más exacto que el valor de esas fuerzas es insignificante porque las fuerzas residuales de las electromagnéticas, a las que antes me referí, disminuyen más rápidamente con la distancia que las fuerzas de Coulomb; y esta distancia es ordinariamente de varios diámetros moleculares.
Podemos conseguir que la intensidad de esas fuerzas aumente tratando de disminuir la distancia media entre las moléculas. Esto se puede lograr haciendo descender la temperatura, aumentando la presión o ambas cosas. Alcanzada una determinada temperatura, las moléculas comienzan a sentir las fuerzas de Van der Waals y aparece el estado líquido; si se sigue enfriando aparece el sólido. El orden crece desde el gas al líquido, siendo el sólido el más ordenado. Se trata de una red tridimensional en la que los nudos o vértices del entramado están ocupados por moléculas.
Todas las sustancias conocidas pueden presentarse en cualquiera de los tres estados de la materia (estados ordinarios y cotidianos en nuestras vidas del día a día).
Si las temperaturas reinantes, como decíamos en páginas anteriores, es de miles de millones de grados, el estado de la materia es el plasma, el material más común del Universo, el de las estrellas (aparte de la materia oscura, que no sabemos ni lo que es, ni donde está, ni que “estado” es el suyo).
En condiciones ordinarias de presión, la temperatura por debajo de la cual existe el líquido y/o sólido depende del tipo de sustancia. Se denomina temperatura de ebullición o fusión la que corresponde a los sucesivos equilibrios(a presión dada) de fases: vapor <-> líquido <-> sólido. Estas temperaturas son muy variadas. Por ejemplo, para los gases nobles son muy bajas; también para el oxígeno (O2) e hidrógeno (H2). En cambio, la mayoría de las sustancias son sólidos en condiciones ordinarias (grasas, ceras, etc.)
Las sustancias pueden ser simples y compuestas, según que la molécula correspondiente tenga átomos iguales o diferentes. El número de las primeras es enormemente inferior al de las segundas.
El concepto de molécula, como individuo-físico y químico, pierde su significado en ciertas sustancias que no hemos considerado aun. Entre ellas figuran las llamadas sales, el paradigma de las cuales es la sal de cocina. Se trata de cloruro de sodio, por lo que cualquier estudiante de E.G.B. escribiría sin titubear, su fórmula: Cl Na. Sin embargo, le podríamos poner en un aprieto si le preguntásemos donde se puede encontrar aisladamente individuos moleculares que respondan a esa composición. Le podemos orientar diciéndole que en el gas Cl H o en el vapor de agua existen moléculas como individualidades. En realidad y salvo casos especiales, por ejemplo, a temperaturas elevadas, no existen moléculas aisladas de sal, sino una especie de molécula gigante que se extiende por todo el cristal. Este edificio de cristal de sal consiste en una red o entramado, como un tablero de ajedrez de tres dimensiones, en cuyos nudos o vértices se encuentran, alternativamente, las constituyentes, que no son los átomos de Cl y Na sino los iones Cl– y Na+. El primero es un átomo de Cl que ha ganado un electrón, completándose todos los orbitales de valencia; el segundo, un átomo de Na que ha perdido el electrón del orbital s.
Cuando los átomos de Cl y Na interaccionan por aproximarse suficientemente sus nubes electrónicas, existe un reajuste de cargas, porque el núcleo de Cl atrae con más fuerza los electrones que el de Na, así uno pierde un electrón que gana el otro. El resultado es que, la colectividad de átomos se transforma en colectividad de iones, positivos los de Na y negativos los de Cl. Las fuerzas electromagnéticas entre esos iones determinan su ordenación en un cristal, el ClNa. Por consiguiente, en los nudos de la red existen, de manera alternativa, iones de Na e iones de Cl, resultando una red mucho más fuerte que en el caso de que las fuerzas actuantes fueran de Van der Waals. Por ello, las sales poseen puntos de fusión elevados en relación con los de las redes moleculares.
Hablemos de cuerpos.
Me referiré en primer lugar a los que constituyen nuestro entorno ordinario, que sería todo el entorno que abarca nuestro planeta. En segundo lugar considerare los demás cuerpos y objetos del Universo. El análisis de muestras de esos diversos cuerpos ha puesto de manifiesto que, en función de la composición, los cuerpos pueden ser simples y compuestos. Los primeros son, precisamente, los llamados elementos químicos, a las que el insigne Lavoisier (conocido como padre de la Química), consideró como el último término a que se llega mediante la aplicación del análisis químico.
Hoy sabemos que son colectividades de átomos isotópicos.
La mayoría de ellos son sólidos y se encuentran en la Naturaleza (nuestro entorno terráqueo) en estado libre o en combinación química con otros elementos, formando los diversos minerales.
La ordenación de los iones en las redes se manifiesta externamente en multitud de formas y colores. No obstante, debo señalar que, aun siendo abundante esta variedad, no es tan rica como la que corresponde a los cuerpos vivos, tanto animales como vegetales. La explicación se basa en que el número de especímenes moleculares y su complejidad son mucho mayores que en el reino inorgánico
Químico inorgánico a todos aquellos compuesto que están formados por distintos elementos, pero en los que su componente principal no siempre es el carbono, siendo el agua el más abundante. En los compuestos inorgánicos se podría decir que participan casi la totalidad de elementos conocidos. Mientras que un compuesto orgánico se forma de manera natural tanto en animales como en vegetales.
Los minerales son sustancias químicas esenciales para el organismo humano que se encuentran en la naturaleza. Los podemos obtener principalmente de las plantas, (que a su vez los toman de la tierra) y del agua que bebemos.
Nuestro organismo es incapaz de sintetizarlos, por lo que debemos ingerirlos a través de la dieta diaria.
Como me pasa a veces, me desvío del tema principal, aquí lo dejamos por hoy.
emilio silvera