Nov
4
La Inmensidad del Universo y, la “pequeñez” de los seres…
por Emilio Silvera ~ Clasificado en General ~ Comments (1)
En nuestro sistema solar la vida se desarrolló por primera vez sorprendentemente pronto tras la formación de un entorno terrestre hospitalario. Hay algo inusual en esto. Según los los datos que tenemos la edad de la Tierra data de hace unos 4.500 millones de años, y, los primeros signos de vida que han podido ser localizados fosilizados en rocas antiguas, tienen unos 3.800 millones de años, es decir, cuando la Tierra era muy joven ya apareció en ella la vida.
Como todo en nuestro Universo, la Tierra primitiva evolucionó, llegó el Oxígeno y una atmósfera amable para que, los seres vivos que ahora la poblamos, encontráramos en ella un exo-sistema ideal para la vida.
El secreto reside en el tiempo biológico necesario para desarrollar la vida y el tiempo necesario para desarrollar estrellas de segunda generación y siguientes que en novas y supernovas cristalicen los materiales complejos necesarios para la vida, tales como el Hidrógeno, Nitrógeno, Oxígeno, CARBONO, etc.
Parece que la similitud en los “tiempos” no es una simple coincidencia. El argumento, en su forma más simple, lo introdujo Brandon Carter y lo desarrolló John D. Barrow por un lado y por Frank Tipler por otro. Al menos, en el primer sistema Solar habitado observado ¡el nuestro!, parece que sí hay alguna relación entre t(bio) y t(estrella) que son aproximadamente iguales el t(bio) –tiempo biológico para la aparición de la vida- algo más extenso.
La evolución de una atmósfera planetaria que sustente la vida requiere una fase inicial durante la cual el oxígeno es liberado por la foto-disociación de vapor de agua. En la Tierra esto necesitó 2.400 millones de años y llevó el oxígeno atmosférico a aproximadamente una milésima de su valor actual. Cabría esperar que la longitud de esta fase fuera inversamente proporcional a la intensidad de la radiación en el intervalo de longitudes de onda del orden de 1000-2000 ángstroms, donde están los niveles moleculares clave para la absorción de agua.
La imagen del cielo de Canarias nos puede servir para mostrar una atmósfera acogedora para la vida
Este simple modelo indica la ruta que vincula las escalas del tiempo bioquímico de evolución de la vida y la del tiempo astrofísico que determina el tiempo requerido para crear un ambiente sustentado por una estrella estable que consume hidrógeno en la secuencia principal y envía luz y calor a los planetas del Sistema Solar que ella misma forma como objeto principal.
A muchos les cuesta trabajo admitir la presencia de vida en el Universo como algo natural y corriente, ellos abogan por la inevitabilidad de un Universo grande y frío en el que, es difícil la aparición de la vida, y, en el supuesto de que ésta aparezca, será muy parecida a la nuestra.
Es cierto que la realidad puede ser mucho más imaginativa de lo que nosotros podamos imaginar. ¿Habrá mundos con formas de vida basadas en el Silicio? Aunque me cuesta creerlo, también me cuesta negarlo toda vez que, la Naturaleza nos ha demostrado, muchas veces ya, que puede realizar cosas que a nosotros, nos parecen imposibles y, sin embargo, ahí está el salto cuántico… Por ejemplo.
La Vida está ahí fuera, y, como en la Tierra, la habrá “inerte”, es decir, no consciente, y, también es lógico pensar que otras sean parecidas a la nuestra, conscientes de Ser, con las diferencias normales de su habitat
Los biólogos, por ejemplo, parecen admitir sin problemas la posibilidad de otras formas de vida, pero no están tan seguros de que sea probable que se desarrollen espontáneamente, sin un empujón de formas de vida basadas en el carbono. La mayoría de los estimaciones de la probabilidad de que haya inteligencias extraterrestres en el Universo se centran en formas de vida similares a nosotras que habiten en planetas parecidos a la Tierra y necesiten agua y oxígeno o similar con una atmósfera gaseosa y las demás condiciones de la distancia entre el planeta y su estrella, la radiación recibida, etc. En este punto, parece lógico recordar que antes de 1.957 se descubrió la coincidencia entre los valores de las constantes de la Naturaleza que tienen importantes consecuencias para la posible existencia de carbono y oxígeno, y con ello para la vida en el Universo.
Hay una coincidencia o curiosidad adicional que existe entre el tiempo de evolución biológico y la astronomía. Puesto que no es sorprendente que las edades de las estrellas típicas sean similares a la edad actual del Universo, hay también una aparente coincidencia entre la edad del Universo y el tiempo que ha necesitado para desarrollar formas de vida como nosotros.
Para nosotros ha pasado mucho tiempo, y, sin embargo, para el Universo ha sido solo un instante
Si miramos retrospectivamente cuánto tiempo han estado en escena nuestros ancestros inteligentes (Homo sapiens) vemos que han sido sólo unos doscientos mil años, mucho menos que la edad del Universo, trece mil millones de años, o sea, menos de dos centésimos de la Historia del Universo. Pero si nuestros descendientes se prolongan en el futuro indefinidamente, la situación dará la vuelta y cuando se precise el tiempo que llevamos en el Universo, se hablará de miles de millones de años.
Brandon Carter y Richard Gott han argumentado que esto parece hacernos bastante especiales comparados con observadores en el futuro muy lejano.
No podemos saber si alguien nos observa
Podríamos imaginar fácilmente números diferentes para las constantes de la Naturaleza de forma tal que los mundos también serían distintos al planeta Tierra y, la vida no sería posible en ellos. Aumentemos la constante de estructura fina más grande y no podrá haber átomos, hagamos la intensidad de la gravedad mayor y las estrellas agotarán su combustible muy rápidamente, reduzcamos la intensidad de las fuerzas nucleares y no podrá haber bioquímica, y así sucesivamente. Precisamente por eso, hay que suponer que en todas las regiones del Universo, por muy lejos que puedan estar, las cosas serán las mismas que aquí podemos observar, y, la vida, no sería una excepción, sino la regla.
Hay cambios infinitesimales que seguramente podrían ser soportados sin notar cambios perceptibles, como por ejemplo en la vigésima cifra decimal de la constante de estructura fina. Si el cambio se produjera en la segunda cifra decimal, los cambios serían muy importantes. Las propiedades de los átomos se alteran y procesos complicados como el plegamiento de las proteínas o la replicación del ADN PUEDEN VERSE AFECTADOS DE MANERA ADVERSA. Sin embargo, para la complejidad química pueden abrirse nuevas posibilidades. Es difícil evaluar las consecuencias de estos cambios, pero está claro que, si los cambios consiguen cierta importancia, los núcleos dejarían de existir, n se formarían células y la vida se ausentaría del planeta, siendo imposible alguna forma de vida.
Las constantes de la naturaleza ¡son intocables!
Ahora sabemos que el Universo tiene que tener miles de millones de años para que haya transcurrido el tiempo necesario par que los ladrillos de la vida sean fabricados en las estrellas y, la gravitación nos dice que la edad del Universo esta directamente ligada con otros propiedades como la densidad, temperatura, y el brillo del cielo.
Puesto que el Universo debe expandirse durante miles de millones de años, debe llegar a tener una extensión visible de miles de millones de años luz. Puesto que su temperatura y densidad disminuyen a medida que se expande, necesariamente se hace frío y disperso. Como hemos visto, la densidad del Universo es hoy de poco más que 1 átomo por M3 de espacio. Traducida en una medida de las distancias medias entre estrellas o galaxias, esta densidad tan baja muestra por qué no es sorprendente que otros sistemas estelares estén tan alejados y sea difícil el contacto con extraterrestres. Si existe en el Universo otras formas de vía avanzada, entonces, como nosotros, habrán evolucionado sin ser perturbadas por otros seres de otros mundos hasta alcanzar una fase tecnológica avanzada, entonces, como nosotros, habrán evolucionado sin ser perturbadas por otros seres de otros mundos hasta alcanzar una fase tecnológica avanzada.
La expansión del Universo es precisamente la que ha hecho posible que el alejamiento entre estrellas con sus enormes fuentes de radiación, no incidieran en las células orgánicas que más tarde evolucionarían hasta llegar a nosotras, diez mil millones de años de alejamiento continuado y el enfriamiento que acompaña a dicha expansión, permitieron que, con la temperatura ideal y una radiación baja los seres vivos continuaran su andadura en este planeta minúsculo, situado en la periferia de la galaxia que comparado al conjunto de esta, es solo una cuota de polvo donde unos insignificantes seres laboriosos, curiosos y osados, son conscientes de estar allí y están pretendiendo determinar las leyes, no ya de su mundo o de su galaxia, sino que su osadía ilimitada les lleva a pretender conocer el destino de todo el Universo.
Observamos el inmenso Universo tratando de desvelar sus secretos
Cuando a solas pienso en todo esto, la verdad es que no me siento nada insignificante y nada humilde ante la inmensidad de los cielos. Las estrellas pueden ser enormes y juntas, formar inmensas galaxias… pero no pueden pensar ni amar; no tienen curiosidad ni en ellas está el poder de ahondar en el porqué de las cosas, nosotros si podemos hacer todo eso y más. De todas las maneras, nosotros somos una parte esencial del universo: La que siente y observa, la que genera ideas y llega a ser consciente de que es, ¡la parte del universo que trata de comprender!
emilio silvera
Nov
4
Nuevos Materiales, nuevos procesos, nuevos dispositivos. II
por Emilio Silvera ~ Clasificado en Física... ¡Y mucho más! ~ Comments (0)
Una investigación ha desarrollado una nueva estructura cuántica capaz de emitir fotones individuales de color rojo. El avance, que se publica en la revista Nature Materials, se basa en el confinamiento cuántico que se genera en cada uno de los puntos y que les permite modular la energía de la luz que emiten.
En este trabajo han participado investigadores de la Universidad de Zaragoza, el Institut de Recerca en Energia de Catalunya (IREC), la Universidad de Barcelona y del Instituto de Ciencia de Materiales de Barcelona del CSIC. El investigador Jordi Arbiol de este último explica:
“El resultado final son hilos unidimensionales, de tamaño nanométrico, compatibles con la tecnología electrónica actual, que permitirían crear dispositivos a mayor escala con un control total de la emisión de luz, fotón a fotón”.
Pero centrémonos en el trabajo que aquí se presenta hoy y que comienza hablando de los…
Nanohilos
No sólo las moléculas, los Nanotubos o el grafeno son las apuestas para sustituir al silicio. Otros elementos como los Nanohilos fabricados a partir de materiales semiconductores o los Nanohilos metálicos tendrán también cierto protagonismo. En concreto, los Nanohilos semiconductores presentan un gran potencial como transistores pero también presentan aplicaciones en campos como octoelectrónica o en la fabricación de censores biológicos. Por otro lado los Nanohilos metálicos, cuya síntesis controlada es más difícil, poseen gran interés como interconectores.
Nanohilos superconductores
En el caso de los Nanohilos formados de materiales Ni, Co o Fe se puede aprovechar también su potencial comportamiento magnetorresisitivo para ser usados en dispositivos de almacenamiento magnético. Los Nanohilos metálicos son interesantes a su vez porque los efectos de tamaño inducen en ellos la aparición de transiciones de fase martensíticas y la aparición de configuraciones no cristalinas.” Veamos que pasa con las Nanopartículas.
Nanopartículas
Quizás, junto a los nanotubos de carbono, las nanopartículas representan los materiales que tienen una repercusión tecnológica más inmediata. Además de sus propiedades intrínsecas, las nanopartículas representan los materiales que tienen una repercusión tecnológica más inmediata. Además de sus propiedades intrínsecas, las nanopartículas, debido a su pequeño tamaño, pueden convertirse en diminutos dispositivos capaces de realizar otras funciones, como transportar un medicamento específico por el torrente sanguíneo sin obstruirlo. Para lograr esto, las nanopartículas deben ser el soporte de capas de moléculas auto-ensambladas que confieren una funcionalidad adicional a las mismas.
Como su propio nombre indica, el término “nanopartícula” designa una agrupación de átomos o moléculas que dan lugar a una partícula con dimensiones nanométricas. Es decir, que su tamaño está comprendido entre 1 y 100 nm. Dependiendo de cuáles sean los átomos o moléculas que se agrupan se originarán diferentes tipos de nanopartículas. Así, por ejemplo, tendremos nanopartículas de oro, de plata o nanopartículas magnéticas si están formadas por átomos de Fe o Co. Su pequeño tamaño hace que la relación superficie/volumen crezca y por tanto que estas estructuras tengan unas propiedades características y esencialmente distintas a las que presenta el material en volumen.
Una estrategia para la formación de nanopartículas es recubrirlas con distintas capas de manera tal que cada una aporte funcionalidades diferentes al sistema. Así, por ejemplo, recientemente se han descrito nanopartículas cuyo interior está formado por un material magnético, como el Co, seguido de una capa intermedia de SiO2 que aporta estabilidad al sistema y finalmente una superficie de oro.
El tamaño final de la nanopartícula es de 3 nm, y esta estructura laminar hace que tengan un núcleo magnético que posibilite su guiado, y una superficie de oro que facilite el auto-ensamblado de moléculas orgánicas o biológicas para diferentes aplicaciones. Entre éstas destaca su uso como biosensores. Para ello se inmoviliza material biológico, como ácido desoxirribonucleico (ADN) o el llamado ácido nucleico péptidico (PNA, del inglés peptide nucleic acid), que siendo un ácido nucleico artificial, presenta un “esqueleto” molecular formado por enlaces peptidicos y una estructura de bases nucleicas exactamente igual a la del ADN. El PNA puede reconocer cadenas complementarias de ADN, incluso con mayor eficiencia para la hibridación que la que representa el ADN para reconocer su hebra complementaria.
Por este motivo, el PNA se ha propuesto como sonda para la fabricación de biosensores altamente eficientes. Estas macromoléculas unidas a superficies o nanopartículas son capaces de detectar diferentes analitos de interés, particularmente otras moléculas biológicas.
Sin embargo, el concepto de nanopartícula debe concebirse en un sentido más amplio ya que no sólo puede estar basada en un núcleo inorgánico, pudiéndose sintetizar nanopartículas poliméricas. Yendo un poco más allá una cápsida vírica puede entenderse como una nanopartícula formada por una carcasa proteica. Esta cápsida vírica tiene dimensiones nanométricas y, en muchos casos, burla con facilidad las membranas celulares. Por esta razón este tipo de “nanopartículas” se proponen para su uso en nanomedicina, y son el objeto de estudios básicos en los que las herramientas como los microscopios de fuerzas atómicas juegan un papel esencial. En particular, estas herramientas nos permiten caracterizar las propiedades mecánicas y las condiciones de ruptura de cápsidas víricas así como la forma en la que dichas cápsidas se comportan ante, por ejemplo, cambios controlados de humedad.
Las nuevas técnicas aplicadas a la nanotecnología están implicadas en muchos ámbitos de los adelantes futuros que ahora, ni podemos imaginar.
En un discurso recientemente impartido en la Universidad Europea de Madrid, William F. Clinton, ex-Presidente de los EE.UU, afirmó que ” el cometido del siglo XXI será salvar al mundo del cambio climático, regenerar la economía y crear empleo. El futuro más allá será la Nanotecnología y la biotecnología”. El propio W.F. Clinton fue el impulsor de la Iniciativa Nacional de Nanotecnología durante su mandato, convirtiendo durante los últimos 10 años a EE.UU en el líder mundial en la generación de conocimientos básicos y aplicados en el ámbito de la Nanotecnología.
Nadie pone en duda las afirmaciones de W.F. Clinton sobre el papel de la Nanotecnología en nuestro futuro a medio y largo plazo, por lo que es imperativo estar suficientemente preparados para construir este nuevo paradigma científico. En el caso concreto de España, las dos últimas ediciones del Plan Nacional de I+D+I han encumbrado las investigaciones en Nanociencia y Nanotecnología a la categoría de Acción Estratégica. En la actualidad se están poniendo en marcha varios centros dedicados a Nanotecnología. Dichas iniciativas son producto, por lo general, de costosos impulsos puntuales, locales, dirigidos por científicos con iniciativa, pero no son fruto de una actuación de conjunto, planificada siguiendo una estrategia quiada por unos objetivos ambiciosos, en los que impere la coordinación y el uso eficiente de los recursos. La actual coyuntura económica no invita al optimismo a este respecto, por lo que sería necesario poner en marcha iniciativas que promuevan la adquisición de infraestructuras, la formación de técnicos, la coordinación entre centros emergentes, etc.
Otro punto sobre el que no hay que descuidarse tiene que ver con la formación, en todos los niveles educativos, en Nanotecnología. En este sentido son numerosas las universidades españolas que ofrecen cursos de master y/o doctorado con contenidos relacionados con la Nanotecnología. Sin embargo, muchos de estos cursos tienen pocos estudiantes inscritos, al igual que ocurre con muchos estudios de grado relacionados con las ciencias básicas. La tarea de fascinar y atraer a nuestros jóvenes hacia la ciencia debe comenzar mucho antes. En este sentido, los conceptos inherentes a la Nanotecnología deben formar parte del conocimiento que debe llegar a los estudiantes de educación secundaria, como ocurre en países como Alemania, Finlandia, Taiwán, Japón, EE.UU., etc. Además, la Nanotecnología es una materia que causa cierta fascinación a los adolescentes por lo que puede ser un buen punto de partida para incentivar las vocaciones científicas. Esta ha sido una de las principales razones por las que los autores de este artículo junto con otros investigadores (Carlos Briones del Centro de Astrobiología y Elena Casero de la Universidad Autónoma de Madrid) accedieron a la petición de la Fundación Española de Ciencia y Tecnología (FECyT) para escribir una Unidad Didáctica de Ciencia y Tecnología. Dicho libro ya se encuentra en todos los institutos españoles de educación secundaria y bachillerato, y se puede descargar desde la web de la FECyT. Esperemos que esta pequeña contribución, junto con otras de mayor calado que deben promoverse desde las diversas administraciones públicas, permita tomar la senda que nos lleve a medio plazo hacia la tan ansiada sociedad basada en el conocimiento.
Fuente: Revista Española de Física. Volumen 23 Nº 4 de 2009
Los Autores:
D. José Ángel Martín Gago, del Instituto de Ciencia de Materiales de Madrid, Concejo Superior de Investigaciones científicas, Centro de Astrobiología /CSIC/INTA), Instituto Nacional de Técnica Aeroespacial, y, D. Pedro A. Serena Domingo, del Instituto de Ciencia y Materiales de Madrid y del Consejo Superior de Investigaciones Científicas.
Nov
4
¡Increíbles estructuras!
por Emilio Silvera ~ Clasificado en Agujeros negros ~ Comments (0)
Recreación artística de un agujero negro. /NASA/JPL-Caltech
Un enorme agujero negro, cien mil veces más masivo que el Sol, se ha encontrado detrás de una nube de gas tóxico que flota alrededor del corazón de la Vía Láctea. Este gigante invisible sería el segundo más grande que se ha visto en nuestra galaxia después de Sagitario A, el agujero negro super-masivo ubicado en su centro. El nuevo descubrimiento, publicado en Nature Astronomy es la mejor evidencia de una clase de agujeros negros de masa intermedia, cuya existencia podría explicar cómo crecen los agujeros negros super-masivos.
En el centro galáctico se observan estrellas que llevan más de 20 años dando vueltas alrededor del Agujero Negro que allí habita.
Imagen del centro de nuestra galaxia, la Vía Láctea, donde hay un agujero negro. Un agujero más masivo tendrá un mayor horizonte de sucesos (la frontera a partir de la cual nada, si siquiera la luz, puede escapar). Un agujero de 10.000 millones de soles en el centro de la Vía Láctea tendría un horizonte inmenso.
Los dos agujeros negros más masivos que se encontraron hasta la fecha fueron hallados en el corazón de dos galaxias gigantes, situadas a varios cientos de millones de kilómetros de la Tierra. Los agujeros negros tienen una masa más de 10 mil millones de veces mayor a la del Sol, un récord, indica un artículo publicado en la revista científica Nature.
Casi siempre la unión de dos agujeros negros gigantes vienen de la mano de la colisión de las galaxias que los contienen en su centro galáctico. Y, además de que la galaxia se transmuta en una sola mayor, el agujero también.
Localizan cientos de agujeros negros gigantes que no paran de crecer (Texto completo en: http://actualidad.rt.com/ciencias/view/55686-localizan-cientos-agujeros-negros-gigantes-paran-crecer) La noticia nos dice que la nueva concentración está tan alejada de la Tierra que está literalmente situada “al borde del Tiempo”, ya que algunos se encuentran a una distancia de varios miles de millones de años luz de la Tierra.
La estrella, bautizada como SO-102, está orbitando cerca del agujero negro situado en el centro de la Vía Láctea cada 11 años y medio terrestres, mucho más rápido que los 60 años o más que normalmente les lleva al resto de las estrellas orbitar alrededor del mismo. Esta es la segunda estrella descubierta que presenta una órbita tan corta, -la otra, SO-2, gravita alrededor del agujero negro cada 16 años- gracias a nuevas técnicas mejoradas de imagen.
Esta ilustración muestra las órbitas de los objetos en el sistema estelar triple HR 6819. El sistema consta de una estrella interior (órbita en azul) y un agujero negro (órbita en rojo), así como una tercera estrella en una órbita más amplia (también en azul).
Nov
3
El Universo Asombroso
por Emilio Silvera ~ Clasificado en El Universo asombroso ~ Comments (0)
También esto forma parte del Universo
Y pensar que nuestra Galaxia, la Vía Láctea con todo el Grupo Local de galaxias, se mueve a 600 Km/s en relación a la radiación del fondo de microondas… ¡Es increíble! Ningún científico hasta el momento, podía tener en mente tal estimación dada por el último estudio realizado. Estamos viviendo en una nave espacial que se mueve a una buena velocidad. El Sol se mueve dentro de la Galaxia a una velocidad media de 220 km/s y la Tierra le acompaña en el recorrido al iguakl que todo el Sistema Solar. El Sol tarda 250 millones de años en dar una vuelta alrededor de la Galaxia. Así que desde que “nació” ha realizado el recorrido unas 20 veces.
“La astronomía en rayos gamma estudia los objetos más energéticos del universo y, desde sus comienzos hace apenas medio siglo, ha lidiado con un problema grave, que consiste en determinar de precisa y fidedigna la región de donde procede la radiación que llega a los detectores de rayos gamma, lo que permite a su vez averiguar el mecanismo a través del que se produce. Ahora, un grupo internacional liderado por astrónomos del Instituto de Astrofísica de Andalucía (IAA-CSIC) ha localizado, por primera vez sin la aplicación de modelos y con un grado de confianza superior al 99,7%, la región de la que surgió un destello en rayos gamma en el blázar AO 0235+164 y que permite conocer cómo se produjo.”
La sinfonía de los agujeros negros binarios ¿La oirémos algún día?
Puesto que la curvatura-espaciotemporal es lo mismo que la gravedad, estas ondulaciones de curvatura son realmente ondas de gravedad, u ondas gravitatorias. La Teoría de la Relatividad General de Einstein predice, de forma inequívoca, que tales ondas gravitatorias deben producirse siempre que dos agujeros negros orbiten uno en torno al otro.
Posible sistema binario de Agujeros Negros
Cuando se forma un par de agujeros negros binarios semejantes, cada agujero crea un pozo profundo (intensa curvatura espacio-temporal) en la superficie insertada y, a medida que los agujeros giran uno en torno al otro, los pozos en órbita producen ondulaciones de curvatura que se propagan hacia afuera a la velocidad de la luz. Las ondulaciones forman una espiral en el tejido del espacio-tiempo en torno al sistema binario, muy semejante a la estructura espiral del agua que procede de un aspersor de cesped que gira rápidamente. Los fragmentos de curvatura forman un conjunto de crestas y valles en espiral en el tejido espacio-temporal.
Sin temor a equivocarnos, podemos decir que, al día de la fecha, los agujeros negros siguen teniendo muchos secretos para la ciencia.
En las imágenes podemos contemplar galaxias que se fusionarán y, sus agujeros negros centrales se harán gigantes después de cientos o miles de años “bailando” el uno alrededor del otro hasta consumar el “casamiento” y unificarse en otro mayor.
¿Cómo un agujero negro y su disco dar lugar a dos chorros que apuntan en direcciones opuestas? De una forma sorprendentemente fácil, reconocieron Blandford, Rees y Lynden-Bell en la Universidad de Cambridge a mediados de los setenta. Hay cuatro formas posibles de producir chorros; cualquiera de ellas funcionaria, y, aquí, donde se explica el no versado en estos objetos cosmológicos, sólo explicaré el cuarto método por ser el más interesante:
El Agujero es atravesado por la línea de campo magnético. el agujero gira, arrastra líneas de campo que le rodean, haciendo que desvíen el plasma arriba y hacia abajo. Los chorros apuntan a lo largo del eje de giro del agujero y su dirección está así firmemente anclada a la rotación giroscópica del agujero. El método fue concebido por Blandford poco después de que recibiera el doctorado de física en Cambridge, junto con un estudiante graduado de Cambridge, Roman Znajek, y es por ello llamado el proceso Blandford-Znajet.
Ahí estamos, como observadores del Espacio exterior y haciendo pruebas para vivir en el medio. De todas las maneras y según todos los indicios (si no la prorrogan), la Estación Espacial Internacional tiene sus días contados. Ya se está trabajando en la sustituta que, estará situada en la órbita de la Luna con la idea de, más tarde, construir allí la primera base espacial con miras a viajes más largos.
Seguimos esperando ese mensaje que… ¡nunca llega!
Mientras que con nuestros ingenios telescópicos cada vez mayores y con mejor tecnología, capturamos las imágenes de galaxias muy lejanas.
Venus desde la Tierra
Nebulosa IC 4628 en la que el gas y el polvo interestelar hacen posible el nacimiento de nuevas estrellas, nuevos mundos y… ¿Quién sabe? Si Vida también en alguna de sus formas conocidas en nuestro planeta, o, conformada en diferentes formas en función de la gravedad y las condiciones de los planetas que pudieran estar orbitándo aquellas estrellas.
Lo cierto es que nuestra vecindad es tranquila y ninguna estrella vecina nos amenaza con una explosión supernova ni tiene dimensiones y masa que nos puedan preocupar si llegara el final de sus días. Bien resguardaditos en el interior del Brazo de Orión, en un Sistema solar relativamente apacible, el tercer planeta a partir del Sol, la Tierra, reluce en la secuencia principal enviando la luz y el calor necesarios para la vida a nuestro planeta que, situado en la zona habitable de la estrella, goza de una atmósfera ideal, de continentes de inmensa belleza y de mares y océanos que hace de nuestro mundo, la maravilla que es.
Todo eso que antes comento, ocurre en una Galaxia espiral situada en un pequeño grupo de poco más de una treintena de galaxias en la que, ella, junto a su compañera Andrómeda, comanda a toda la familia de las que son las hermanas mayores. Nuestro mundo, la Tierra, está situado a 30.000 años-luz del centro de la galaxia que, como hemos podido comprobar, es un lugar peligroso en el que habitan agujeros negros gigantes que emiten radiación y absorben materia, es decir, que no serían nada buenos como vecinos.
Aquí la tenemos, es nuestra casa ¡La Tierra! que, en el Sistema solar es un planeta más pero, con la suerte de haber caído en la zona habitable de la estrella que llamamos el Sol, en relación a la Galaxia Vía Láctea es un simple planeta como hay tantos, y, si la situamos en el contexto del Universo, es menos que un grano de arena de la playa de Punta Umbría en Huelva, ese lugar del que salió Colón para (re) descubrir América.
Lo cierto es que nos encontramos en un Universo inmenso y precioso. Esta composición cósmica equilibra muy bien la Nebulosa de la burbuja en la parte inferior izquierda con el cúmulo estelar abierto M52 por encima de ella y hacia la derecha. La pareja estaría desequilibrada en otras escalas, sin embargo. Incrustado en un complejo de polvo interestelar y gas y soplado por los vientos de una sola, gran estrella de tipo O, la Nebulosa de la Burbuja, también conocida como NGC 7635, se encuentra a sólo 10 años luz de ancho. Por otro lado, M52 es un cúmulo abierto rico de alrededor de mil estrellas. El cúmulo se encuentra a unos 25 años luz de diámetro. Visto hacia el límite norte de Casiopea, las estimaciones de distancia de la Nebulosa de la burbuja y el complejo de nubes asociadas son alrededor de 11.000 años luz, mientras que el cúmulo estelar M52 se encuentra cerca de 5.000 años luz de distancia.
Sí, desde la noche de los tiempos hemos mirado al cielo, buscando sus maravillas que siempre nos asombraron, primero al no poder entender cómo eran posible aquellos extraños fenómenos e increíbles objetos, y, más tarde, cuando pudimos comprender, al conocer las maravillas que podía realizar la Naturaleza valiéndose de fuerzas que, ni podemos imaginar.
Y, después de mucho pensar, llego a la conclusión de que, lo más asombroso del Universo es… ¡Que nosotros estemos aquí… Para poder describirlo!
emilio silvera
Nov
3
No siempre la Física se puede explicar con palabras
por Emilio Silvera ~ Clasificado en General ~ Comments (0)
Se dice que un agujero negro (una masa M concentrada en un volumen menor que el dictado por su radio de Schwarzschild rs = 2GM/c2) absorbe todo lo que cae sobre él. Sin embargo, Beckenstein y Hawking determinaron que el agujero negro posee entropía (proporcional al área del horizonte) y por ello temperatura, y Hawking concluye (1975) que la temperatura le hace radiar como un cuerpo negro; por tanto, eventualmente el agujero se evapora.
Aquí viene la paradoja. Si formamos el agujero negro arrojando materia en forma concreta (por ejemplo, un camión), la masa del camión acabaría eventualmente escupida como radiación del cuerpo negro, perdiéndose la preciosa información sobre el camión. Pero se supone que la evolución de “todo” es cuántica, y por ello unitaria. Ahora bien, la evolución unitaria mantiene la información (estados puros van a estados puros, no mezcla…); he ahí la paradoja.
Estaría bien poder entrar en un agujero negro para recabar información
Fue Hawking quien primero presentó la paradoja de “pérdida de información” en contra de otros que, como Gerard ‘t Hooft y Susskind, quienes mantienen que la información no se puede perder, y que por ello debe haber sutiles correlaciones en la radiación emitida, de las que en principio sería posible extraer la información original sobre que el agujero negro que se tragó un camión…
Paradójicamente, ha sido, durante el desarrollo de la “Teoría de Cuerdas” cuando se ha podido dilucidar el problema planteado hace veinticinco años por Beckenstein y Hawking que han resultado llevar razón.
¿Qué sucede entonces dentro de un agujero negro? “Según nuestro trabajo, la información no se pierde después de entrar en un agujero negro. Simplemente, no desaparece”, explica Dejan Stojkovic, líder del estudio.
Antes de su fallecimiento, S. Hawking cambió de opinión y admitió que no hay pérdida de información, al respetarse el sentido unitario de la evolución del sistema, de acuerdo con la mecánica cuántica.
La gravitación y dimensiones extra
Esas hipotéticas dimensiones extra, necesarias para la existencia de la teoría de cuerdas, muchos las están buscando pero hasta el momento… ¡Nadie las pudo encontrar!
Claro que, como para todo en este mundo, se necesita…¡Tiempo! dejemos que transcurra y…¡veremos!
“… la línea tiene magnitud en una dirección, el plano en dos direcciones y el sólido en tres direcciones; a parte de éstas, no hay ninguna magnitud porque las tres son todas…”
En nuestro Universo sólo podemos ver tres dimensiones y la temporal
Eso nos dijo Aristóteles alrededor de 350 años antes de Cristo, y la verdad, es que desde la experiencia cotidiana es difícil refutarlo. Más aún, la existencia de dimensiones extra podría tener consecuencias desastrosas para la estabilidad de las órbitas atómicas y planetarias, sobre todo en el caso de que dichas dimensiones fuesen de un tamaño comparable al del sistema estudiado. En concreto, Paul Ehrenfest en 1917 demostró que la ley del inverso del cuadrado de la distancia para la fuerza electrostática o gravitatoria se modificaría si hubiera N dimensiones espacial extra, de forma que F ≈ r-2 π. De hecho, ningún experimentado físico realizado hasta la fecha ha revelado la existencia de más de tres dimensiones espaciales, y dicho sea de paso, tampoco más de una dimensión temporal.
Hemos tratado de escenificar esas dimensiones extras de muchas maneras pero, ninguna convincente
Sin embargo, aunque la experiencia ordinaria no necesitase de más de tres más una dimensiones, desde Riemann, Gauss, Ricci y algún otro, el punto de vista matemático permite estudiar de forma consistente la geometría de espacio de dimensión arbitraria que, como digo, lo debemos en gran parte a Bernhard Riemann sobre variedades n-dimensionales (1854), y ello a pesar de que Ptolomeo propusiera una “demostración” de que una cuarta dimensión espacial no tiene magnitud ni definición posibles (Tratado sobre la distancia, 150 a. C.).
Lo del Tiempo como cuarta dimensión depende de la perspectiva con que la miremos
Según esta Teoría de Einstein, esta dimensión temporal se puede estirar dependiendo de la velocidad
La formulación de la Relatividad Especial de Einstein en 1905 supuso una revolución en nuestra concepción del espacio y del tiempo, y planteó la cuestión de la dimensionalidad desde una perspectiva completamente nueva. En efecto, en la interpretación geométrica que llevó a cabo Herman Minkowski en 1909, la teoría de Einstein podía entenderse de forma simple en términos de una variedad espacio-temporal de cuatro dimensiones, en la que a tres dimensiones espaciales se le añadía en pie de igualdad una cuarta, el tiempo. El espacio y el tiempo pasaron de entenderse como conceptos independientes a formar un entramado único 4-dimensional, en el que las distancias se miden a través de la métrica de Minkowski:
Por su parte, Einstein, lejos de considerar el espacio-tiempo de Minkowski como una mera descripción matemática, lo elevó a la categoría de entidad física con su Teoría General de la Relatividad (RG) de 1.915 al considerarlo como objeto dinámico, cuya geometría, dada por la métrica de Riemann gμυ(x), depende de tener en cuenta en cada punto de su contenido de materia y energía. La curvatura del espacio-tiempo determina la trayectoria de las partículas de prueba que se mueven en él, y por tanto, la teoría proporciona una interpretación geométrica de la interacción gravitatoria.
La unificación del electromagnetismo y la gravitación, mencionada por mí en anteriores trabajos, fue la primera de las teorías con dimensiones extra. Se la envió un oscuro matemático desconocido a Einstein, en una carta manuscrita en la que, le presentaba la teoría de 5 dimensiones en la que, era posible unificar, las dos teorías más grandes del momento (relatividad y electromagnetismo).
Einstein la leyó varias veces y la volvía a guardad y, por fin, después de dos años, se decidió a enviarla para su publicación. Allí nació la teoría primera de más altas dimensiones: la de Kaluza-Klein (este último la mejoró más tarde).
Está claro que a comienzos del siglo pasado, nuestro conocimiento de las interacciones fundamentales se reducía a dos teorías de campos bien establecidas, el electromagnetismo de Maxwell, en pie desde 1873, y la novedosa Teoría General de la Relatividad para la gravitación, que Einstein comenzara a gestar en 1907 y publicara en 1915. No es por tanto de extrañar que el atractivo de la teoría de Einstein provocara en muchos, incluido el propio Einstein, el impulso de buscar una generalización de la misma, que incluyera también a la teoría de Maxwell, en una descripción geométrica unificada.
Con ese único objetivo, se tomaron varios caminos que, si bien no llegaron al destino deseado, permitieron realizar descubrimientos trascendentales que marcaría la evolución de la física teórica hasta nuestros días. (En aquellos tiempos se desconocían las fuerzaas nucleares débil y fuerte).
Se representan en este esquema dos partículas que se acercan entre sí siguiendo un movimiento acelerado. La interpretación newtoniana supone que el espacio-tiempo es llano y que lo que provoca la curvatura de las líneas de universo es la fuerza de interacción gravitatoria entre ambas partículas.
Dos líneas geodésicas, en rojo, sobre una superficie curva, esas geodésicas coinciden con las trayectorias de dos partículas en el campo gravitatorio esférico de una masa central de acuerdo con la teoría general de la relatividad.
Por el contrario, la interpretación einsteiniana supone que las líneas de universo de estas partículas son geodésicas (“rectas”), y que es la propia curvatura del espacio tiempo lo que provoca su aproximación progresiva.
Dos líneas geodésicas, en rojo, sobre una superficie curva, esas geodésicas coinciden con las trayectorias de dos partículas en el campo gravitatorio esférico de una masa central de acuerdo con la teoría general de la relatividad.
Triángulo geodésico sobre una esfera. La línea geodésica sería cualquiera de los arcos que forman los triángulos.
El primero de estos caminos fue propuesto por Hermann Weyl en 1918. En la Relatividad General, el espacio-tiempo se considera como una variedad pseudo-Riemanniana métrica, esto es, en la que, aunque la orientación de un vector transportado paralelamente de un punto a otro depende del camino seguido, su norma es independiente del transporte. Esta independencia de la norma disgustaba a Weyl que propuso reemplazar el tensor métrico gμυ por una clase de métricas conformemente equivalentes [gμυ] (esto es, equivalentes bajo cambios de escala gμυ → λ gμυ), y el transporte paralelo por otro que respetara esa estructura conforme. Esto se conseguía introduciendo un nuevo campo, Aμ, que al cambiar de representante de la clase de equivalencia [gμυ], se transformaba precisamente como el potencial vector de la teoría de Maxwell:
Aμ → Aμ + ∂μλ
Hermann Weyl
Este tipo de transformación es lo que Weyl denominó trasformación de “gauge”, en el sentido de cambio de longitud. En propias palabras de Weyl en una carta dirigida a Einstein en 1.918, con su teoría había conseguido “… derivar la electricidad y la gravitación de una fuente común…“. La respuesta de Einstein no se hizo esperar:
“Aunque su idea es muy elegante, tengo que declarar francamente que, en mi opinión, es imposible que la teoría se corresponda con la naturaleza.”
La objeción de Einstein se basaba en el hecho de que en la propuesta de Weyl, el ritmo de avance de los relojes también dependería del camino seguido por éstos, lo cual entraría en contradicción, por ejemplo, con la estabilidad de los espectros atómicos.
Aunque la teoría de Weyl fue abandonada rápidamente, en ella se introducía por primera vez el concepto de simetría gauge. Varias décadas más tarde, con el desarrollo de las teorías gauge no abelianas por Yang Mills (1954), y del Modelo Estándar de las partículas elementales, se comprobó que la misma noción de invarianza subyacía en la descripción del resto de interacciones fundamentales (electrodébiles y fuertes).
La teoría de cinco dimensiones de Kaluza-Klein fue la precursora de la de cuerdas
El segundo camino en la búsqueda de la unificación comenzó un año antes de la publicación de la Relatividad General. En 1914 Gunnar Nordström propuso una teoría en cinco dimensiones que unificaba el electromagnetismo con la gravitación de Newton. La aparición de la Teoría de la Relatividad General hizo olvidar la teoría de Nordström, pero no la idea de la unificación a través de dimensiones extra.
En cuentos Cuánticos lo explican así:
Nuestro universo tiene 4 dimensiones, en la imagen es la parte a) esas cuatro dimensiones están representadas por las 2 dimensiones que vemos en la imagen. Ahora Kaluza impone una nueva dimensión adicional, 5 dimensiones, en la parte b) de la imagen eso se representa por el cilindro que ahora se puede ver que tiene dos dimensiones (la superficie) y un radio (de la base) entonces tenemos una dimensión más que al principio. Ojo, esto no es más que una imagen divulgativa, la realidad no es tan fácil pero es mucho más divertida y la matemática involucrada mucho más.
Y como mencionaba antes, así estaban las cosas cuando en 1.919 recibió Einstein un trabajo de Theodor Kaluza, un privatdozent*en la Universidad de Königsberg, en el que extendía la Relatividad General a cinco dimensiones. Kaluza consideraba un espacio con cuatro dimensiones, más la correspondiente dimensión temporal y suponía que la métrica del espacio-tiempo se podía escribir como:
Donde con μ,υ = 1, 2, 3, 4, corresponde a la métrica 4-dimensional del espacio-tiempo de la RG, Aμproporciona el campo electromagnético, Φ es un campo escalar conocido posteriormente como dilatón, y α = √2k es la constante de acoplo relacionada con la constante de Newton k. Kaluza demostró que las ecuaciones de Einstein en cinco dimensiones obtenidas de esta métrica y linealizadas por los campos, se reducían a las ecuaciones de Einstein ordinarias (en cuatro dimensiones) en vacío, junto con las ecuaciones de Maxwell para Aμ, siempre que se impusiera la condición cilíndrica, esto es, que la métrica no dependiera de la quinta coordenada.
El trabajo de Kaluza impresionó muy positivamente a Einstein: “Nunca había caído en la cuenta de lograr una teoría unificada por medio de un cilindro de cinco dimensiones… A primera vista, su idea me gusta enormemente…” (carta de Einstein a Kaluza en 1919, en abril).
Este hecho resulta sorprendente si consideramos que el trabajo de Nordström fue publicado cinco años antes. Por motivos desconocidos, en el mes de mayo de 1919, Einstein rebajó su entusiasmo inicial: “Respeto en gran medida la belleza y lo atrevido de su idea, pero comprenderá que a la vista de las objeciones actuales no pueda tomar parte como originalmente se planeó“. Einstein retuvo el trabajo de T. Kaluza durante dos años, hasta que en 1.921 fue presentado por él mismo ante la Academia Prusiana. Hasta 1.926 Einstein guardó silencia acerca de la teoría en cinco dimensiones.
Ese mismo año, Oskar Klein publicaba un trabajo sobre la relación entre la teoría cuántica y la relatividad en cinco dimensiones. Uno de los principales defectos del modelo de Kaluza era la interpretación física de la quinta dimensión. La condición cilíndrica impuesta ad hoc hacía que ningún campo dependiera de la dimensión extra, pero no se justificaba de manera alguna.
Klein propuso que los campos podrían depender de ella, pero que ésta tendría la topología de un círculo con un radio muy pequeño, lo cual garantizaría la cuantización de la carga eléctrica. Su diminuto tamaño, R5 ≈ 8×10-31 cm, cercano a la longitud de Planck, explicaría el hecho de que la dimensión extra no se observe en los experimentos ordinarios, y en particular, que la ley del inverso del cuadrado se cumpla para distancias r » R5. Pero además, la condición de periodicidad implica que existe una isometría de la métrica bajo traslaciones en la quinta dimensión, cuyo grupo U(1), coincide con el grupo de simetría gauge del electromagnetismo.
Oskar Benjamin Klein (1894-1977). Fotografía tomada para el Göttingen Bohr-Festspiele, junio de 1922.
Por último, imponiendo que el dilatón es una constante, Klein demostró que las ecuaciones de movimiento reproducen las ecuaciones completas de Einstein y Maxwell. Esta forma de tratar la dimensión extra, bautizada posteriormente como el paradigma de la compactificación, había logrado superar los obstáculos iniciales: “… parece que la unión de la gravitación y la teoría de Maxwell se consigue de una forma completamente satisfactoria con la teoría de cinco dimensiones” (carta de Einstein a Lorentz en 1927), y de hecho, ha sido la única forma consistente de introducir dimensiones extra hasta fechas más recientes.
El propio Einstein había comenzado a trabajar en la teoría de Kaluza con su ayudante Jacob Grommer y en 1.922 publicó un primer trabajo sobre existencia de soluciones esféricamente simétricas, con resultado negativo. Más tarde, en 1927 presentó ante la Academia Prusiana dos trabajos en los que reobtenía los resultados de Klein. Su infructuosa búsqueda de una teoría de campo unificada le haría volver cada pocos años a la teoría en cinco dimensiones durante el resto de su vida. Los resultados de Klein sobre la cuantización de la carga eléctrica pueden entenderse fácilmente considerando el desarrollo en modos de Fourier de los campos con respecto a la dimensión periódica:
La ecuación de ondas en cinco dimensiones puede reescribirse como:
Donde Dμ es una derivada covariante con respecto a transformaciones generales de coordenadas y con respecto a transformaciones gauge con una carga qn = nk/R5. Vemos por tanto que el campo en cinco dimensiones se descompone en una torre infinita de modos 4-dimensionales Ψn(x) con masas , en unidades naturales ћ = c = 1, y carga qn (modos de Kaluza-Klein).
Lo único que cuenta en la definición del mundo son los valores de las constantes adimensionales de la naturaleza (así lo creían Einstein y Planck). Si se duplica el valor de todas las masas no se puede llegar a saber, porque todos los números puros definidos por las razones de cualquier par de masas son invariables.
Puesto que el radio de compactificación es tan pequeño, el valor típico de las masas será muy elevado, cercano a la masa de Planck Mp = k-12 = 1’2 × 1019 GeV*, y por tanto, a las energías accesibles hoy día (y previsiblemente, tampoco en un futuro cercano – qué más quisieran E. Witten y los perseguidores de las supercuerdas -), únicamente el modo cero n = 0 será relevante. Esto plantea un serio problema para la teoría, pues no contendría partículas ligeras cargadas como las que conocemos.
¿Y si llevamos a Kaluza-Klein a dimensiones superiores para unificar todas las interacciones?
La descripción de las interacciones débiles y fuertes a través de teorías gauge no abelianas mostró las limitaciones de los modelos en cinco dimensiones, pues éstas requerirían grupos de simetría mayores que el del electromagnetismo. En 1964 Bryce de UIT presentó el primer modelo de tipo Kaluza-Klein-Yang-Mills en el que el espacio extra contenía más de una dimensión.
Hace mucho que se busca la Hiperdimensionalidad
El siguiente paso sería construir un modelo cuyo grupo de isometría contuviese el del Modelo Estándar SU(3)c × SU(2)l × U(1)y, y que unificara por tanto la gravitación con el resto de las interacciones.
Edward Witten demostró en 1981 que el número total de dimensiones que se necesitarían sería al menos de once. Sin embargo, se pudo comprobar que la extensión de la teoría a once dimensiones no podía contener fermiones quirales, y por tanto sería incapaz de describir los campos de leptones y quarks.
Por otra parte, la supersimetría implica que por cada bosón existe un fermión con las mismas propiedades. La extensión supersimétrica de la Relatividad General es lo que se conoce como supergravedad (supersimetría local).
Joël Scherk (1946-1980) (a menudo citado como Joel Scherk) fue un francés teórico físico que estudió la teoría de cuerdas ysupergravedad [1] . Junto con John H. Schwarz , pensaba que la teoría de cuerdas es una teoría de la gravedad cuántica en 1974. En 1978, junto con Eugène Cremmer y Julia Bernard , Scherk construyó el lagrangiano y la supersimetría transformaciones parasupergravedad en once dimensiones [2] , que es uno de los fundamentos de la teoría-M .
Unos años antes, en 1978, Cremmer, Julia y Scherk habían encontrado que la supergravedad, precisamente en once dimensiones, tenía propiedades de unicidad que no se encontraban en otras dimensiones. A pesar de ello, la teoría no contenía fermiones quirales, como los que conocemos, cuando se compactaba en cuatro dimensiones. Estos problemas llevaron a gran parte de los teóricos al estudio de otro programa de unificación a través de dimensiones extra aún más ambicioso, la teoría de cuerdas.
No por haberme referido a ella en otros trabajos anteriores estará de más dar un breve repaso a las supercuerdas. Siempre surge algún matiz nuevo que enriquece lo que ya sabemos.
La interpretación de los cálculos que se realizan describen un objeto tan diminuto, como las supercuerdas, que tratar de imaginarlas es como querer encontrar un grano de arroz en el Universo, lo que es imposible; su calculada pequeñez las hace inimaginable para la mayoría de los mortales humanos.
Nos podemos hacer una idea:
La Tierra es 10-20 veces más pequeña que el Universo.
El núcleo atómico es 10-20 veces más pequeño que la Tierra.
Una supercuerda es 10-20 veces más pequeña que el núcleo atómico.
El origen de la teoría de supercuerdas data de 1968, cuando Gabriele Veneziano introdujo los modelos duales en un intento de describir las amplitudes de interacción hadrónicas, que en aquellos tiempos no parecía provenir de ninguna teoría cuántica de campos del tipo de la electrodinámica cuántica. Posteriormente, en 1979, Yaichiro Nambu, Leonard Susskind y Holger Nielsen demostraron de forma independiente que las amplitudes duales podían obtenerse como resultado de la dinámica de objetos unidimensionales cuánticos y relativistas dando comienzo la teoría de cuerdas.
En 1971, Pierre Ramona, André Neveu y otros desarrollaron una teoría de cuerdas con fermiones y bosones que resultó ser supersimétrica, inaugurando de esta forma la era de las supercuerdas.
Sin embargo, en 1973 David Gross, David Politzer y Frank Wilczek descubrieron que la Cromodinámica Cuántica, que es una teoría de campos gauge no abeliana basada en el grupo de color SU(3)c, que describe las interacciones fuertes en términos de quarks y gluones, poseía la propiedad de la libertad asintótica. Esto significaba que a grandes energías los quarks eran esencialmente libres, mientras que a bajas energías se encontraban confinados dentro de los hadrones en una región con radio R de valor R ≈ hc/Λ ≈ 10-13 cm.
Dicho descubrimiento, que fue recompensado con la concesión del Premio Nobel de Física a sus autores en 2.004, desvió el interés de la comunidad científica hacia la Cromodinámica Cuántica como teoría de las interacciones fuertes, relegando casi al olvido a la teoría de supercuerdas.
John Henry Schwarz
A pesar de todo, en 1974 Joel Scherk y John Schwarz hicieron la observación de que la teoría de cuerdas podía ser también una teoría cuántica de la gravitación. Sin embargo, este hecho pasó desapercibido durante casi una década. Además, las teorías de cuerdas tenían extrañas propiedades. Su versión más simple, la cuerda bosónica, sólo estaba definida en 26 dimensiones, y por si esto fuese poco, también presentaba un estado taquiónico, es decir, con masa al cuadrado negativa. Por otra parte, las supercuerdas parecían estar plagadas de anomalías (obstrucciones a la cuantización de la teoría que hacían altamente improbable que se los pudiera dar alguna explicación útil para la física fundamental.
Todo cambió, sin embargo, cuando en 1984 Michael Green y John Schwarz demostraron que las teorías de supercuerdas cerradas basadas en los grupos SO(32) y E8 × E8 estaban libres de anomalías si se definían en un espacio-tiempo de 10 dimensiones.
Ese mismo año, Gross, Harvey, Martinec y Rohm encontraron otro tipo de teorías de cuerdas consistentes denominadas heteróticas.
Como resultado de esos y otros muchos trabajos emergieron cinco teorías de cuerdas consistentes denominadas tipo I, tipo IIA, tipo IIB, heterótica SO(32) (HO) y heterótica E8 × E8 (HE). Todas consistentes exclusivamente en 10 dimensiones y estaban libres de taquiones.
David Jonathan Gross
El de más edad de los cuatro, David Gross, hombre de temperamento imperativo, es temible en los seminarios cuando al final de la charla, en el tiempo de preguntas, con su inconfundible vozarrón dispara certeros e inquisidoras preguntas al ponente. Lo que resulta sorprendente es el hecho de que sus preguntas dan normalmente en el clavo.
La posibilidad de construir teorías realistas de las interacciones entre partículas fundamentales (incluyendo la gravitación) a partir de la teoría de supercuerdas surgió del trabajo seminal de Candelas, Strominger, Horowitz y Witten de 1985 donde se proponía el uso de la supercuerda heterótica E8 × E8 y la compactificación de las 6 dimensiones extra para dar lugar a espacios de Calabi-Yan (un tipo especial de propiedades o variedades compactas con tres dimensiones complejas).
La idea era que mediante la elección apropiada de la variedad compactificada, el límite de la teoría a bajas energías sería similar al Modelo Estándar definido en las cuatro dimensiones ordinarias; es decir, la teoría cuántica de campos actualmente aceptada como la teoría correcta de las interacciones fuertes y electrodébiles basada en el grupo gauge SU(3)C × SU(2)L × U(1)Y, que incluye la cromodinámica cuántica (grupo de color SU(3)C) y la teoría de las interacciones electrodébiles basada en el grupo conocido como SU(2)L × U(1)Y, desarrollada en 1967 por Steven Weinberg, Abdus Salam y Sheldon Glashow y por la que se les concedió el Premio Nobel de Física en 1979.
De esta forma, durante los años ochenta se estudiaron con gran detalle numerosos espacios compactificados B de dimensión 6, tipo Calabi-Yan, junto con otros espacios, como por ejemplo, los llamados orbifoldios (variedades diferenciables cocientadas por grupos discretos) en un intento de tomas contacto con la fenomenología de bajar energías accesibles a los experimentos actuales. Además, las posibilidades podían aumentarse incluyendo campos gauge que podían estar definidos sobre B, dando lugar a diferentes líneas de flujo que se enrollarían y enlazarían de infinidad de formas dentro de B, sacando partido de su habitualmente intrincada topología.
En todo caso, el tamaño típico de espacio B era del orden de la longitud de Planck, Lp = 1’6 × 10-33 cm*, que en unidades naturales es la inversa de la masa de Planck. Este hecho situaba fuera de las posibilidades reales el estudio experimental de sus propiedades.
Además, a cada espacio B, ataviado de sus líneas de flujo, correspondería un posible vacío (estado fundamental o de menor energía) de la teoría. Sin embargo, en la medida que ésta sólo se podía determinar perturbativamente, es decir, en el régimen de interacción débil, no era posible seleccionar el verdadero vacío de la teoría a partir de primeros principios, sino tan sólo buscar aquellos que podían tener más posibilidades de establecer contacto con el mundo que observamos a nuestro alrededor.
emilio silvera
Profesor sin plaza ni salario, salvo honorarios según las clases impartidas.
del orden de 10-8 Kg = 1011 GeV; es la masa de una partícula cuya longitud de onda compton es igual a la longitud de Planck.