Abr
16
Desde el pasado al presente…¿Qué será de mañana?
por Emilio Silvera ~ Clasificado en Nuestro entorno...Nuestro futuro ~ Comments (2)
La ruta de la seda que tantos sueños despertaron en las mentes de muchos
La investigación rigurosa del pasado con el fin de descubrir las raíces humanas, la percepción y el estudio de las diferencias culturales, el interés por indagar los mecanismos profundos que gobiernan los sistemas económicos y sociales, e incluso el análisis del funcionamiento de la mente humana, surgieron y se desarrollaron en épocas relativamente recientes. Salvo la Psicología, que tiene una original y larguísima y valiosa tradición en la India, las restantes ciencias sociales son una creación propia de de la culturta europea occidental, lo que no deja de llamar la tención de muchos estudiosos puesto que culturas milenarias con trayectorias prácticamente ininterrumpidas como la de China e India parecían las mása adecuadas para que de ellas surgieran disciplinas como Historia, la Econmomía o la Sociología. Es curioso el indagar sobre la génesis y los primeros logros de las ciencias que tienen como objeto el hombre y la sociedad que este ha creado.
Hemos pasado de la tradición oral a las bibliotecas.
Biblioteca Joanina, Coímbra, Portugal (Depositphotos) – Biblioteca Estatal del Sur de Australia, Adelaida, Australia (Depositphotos) -Biblioteca de la Abadía de Admont, Austria (Alamy)
Antes de la invención de la escritura, la cultura humana ya se había desarrollado extensamente en áreas tan variadas como las artes plásticas, la religión, , la agricultura, la poesía y las técnicas de la metalurgía, la alfarería y de la construcción. Nuestra especie, comenzó a crear Sociedades de convivencia que ganaron estadios superiores en áreas hasta entonces desconocidas.
Pero incluso después de que se generalizaran los escritos, la transmisión oral y la memorización de los acontemcimientos continuaron siendo imprescindibles durante mucho tiempo, por lo que el cultivo y mejoramiento de la memoria humana fue una de las gransdes preocupaciones de la Antigüedad.
Sutra del Diamante, hallado en la cueva de Dunhuang (China). Es el documento impreso de fecha conocida más antiguo que se conserva. Fue realizado el 11 de mayo del año 871. La imprenta es un método mecánico destinado a reproducir textos e imágenes sobre papel, tela u otros materiales. En su forma clásica, consiste en aplicar una tinta, generalmente oleosa, sobre unas piezas metálicas (tipos)para transferirla al papel por presión. Aunque comenzó como un método artesanal, su implantación trajo consigo una revolución cultural.
Muchos expertos estudiosos han sido los que han explicado el largo proceso de seguido por la Humanidad desde que empleo las antiguas técnicas de memorización y recitación hasta la invención de la imprenta de tipos móviles, la producción masiva de libros y su clasificación y conservación en extensas bibliotecas.
Culturas como la China, la Japonesa y la Coreana, fueron pioneras en la utilización de la imprenta, pero sería el europeo Gutemberg quien le dió el impulso definitivo que habia de convertirla en la herramienta básica de la cultura moderna.
Del mito a la construcción del pasado histórico.
Sin embargo, hasta el siglo XV no aparecería un pionero que introdujera las primeras técnicas de lo que hoy conocemos como crítica histórica. En efecto, fue Lorenzo Valla quien utilizó por primera ves el conocimiento de la gramática histórica para descubrir anacronismos en documentos falsificados y quien aplicó el análisis filológico y del estilo para fijar autoría de libros y documentos.
Por otra parte, también durante los siglos y XV y XVI surgió el interés por el estudio de las ruinas, sobre todo las de Roma, aunque no fue hasta el XVIII, con la obra de Johann Joachim Winckekmnn, que se sentaron las bases de la formación de la moderna arqueología: esta conocería durante esta centuria y la siguiente un espectacular desarrollo.
De la construcción del pasado al análisis del presente.
Boorstin demuestra finalmente cómo el descubrimiento y la colonización americana fueron elementos fundamentales para que surgiera la Antropología y la Etnología y, con ellas, ideas como la del origen común de toda la humanidad, a pesar de la diversidad racial y cultural.
Más propias de los siglos XVIII y XIX son la Economía, la Sociología y la sicología , de las que Adam Smith, Jonh Graunt y Sigmund Freud fueron, más que precursores, auténticas fundadores. Hay otras aportaciones considerables como las de David Ricardo, Kal Marx, o John Mynard Keynes en los análisis económicos. Malthus en los estudios demográficos y Adolphe Quletet en la Estadística aplicada a la sociología.
Pero, todo este recorrido, estaría falto de algo esencial, los descubrimientos de la Física del siglo XIX que han posibilitado a los físicos de nuestro tiempo conquistar los secretos de la constitución íntima de la materia, llegando hasta las constituyentes del núcleo atómico.
No importa donde puede estar, qué maravilloso paisaje esté contemplando… Un hombre sólo con su sombra… con la única compañía de la soledad…. Algo esencial le falta en su vida, no se han cumplido las reglas.
Es verdad, aquellos que comentó Valery, cuando en 1924 dijo: “El hombre sólo está en mala compañía” Sí, el hombre es eminentemente un animal social y, necesita, que sus congéneres sean sabedores y admiradores de su s obras. Sin otros que vean lo que haces el esfuerzo tendrá menor sentido. Se estaba refiriendo a la divulgación de los conocimientos, de los descubrimientos, de que investigar sin divulgar tenía poco o ningún valor.
Con todo este repaso llegamos a la conclusión de que debimos descubrir la historia antes de poder explorarla. Y, como he deicho antes, los mensajes del pasado se transmitían primero a través de las habilidades de la memnoria, luego de la escritura, y, finalmente, de manera explosiva en los libros.
Los pensamientos llevados a la escritura para decir al mundo cómo están conformadas las cosas, la Naturaleza y el Universo mismo
El insospechado tesoro de reliquias que guarda la tierra se remontaba a la prehistoria. El pasado se convirtió en algo más que un almacén de mitos o un catálogo de lo familiar. Nuevos mundos terrestres y marinos, riquezas de continentes remotos, modos de vida de pueblos lejanos, abrieron nuevas perspectivas en nuestras mentes que, así, de esa manera, comprendieron que, muchos antes que nosotros estuvieron aquí y crearon grandes cosas, hicieron grandes ciudades, inventaron grandes formas de vivir y elevaron los grupos humanos a la categoría de Sociedad, de Civilización que trajeron progreso y novedades,
Así, las nuevas formas cotidianas de convivencia en Sociedad, llevó a estos seres a tener que aprender a convivir de distinta manera, a compartir con los demás y, se dió cuenta de que, las ideas, en conjunto, alcanzaban cotas mayores y mayores logros también no quedando perdidas como tantas veces ocirrió a la lorga la historia de la Humanidad.
Claro que, hoy tenemos una idea muy clara: Toda la Humanidad es una. El origen y el destino de todos… ¡Es el mismo!
Sin embargo, nos falta dar el paso final y hacer que esa unidad sea realmente cierta, estamos en la edad de la globalización, las noticias diarias nos traen escenas de cualquier parte del muindo en tiempo real, y, sin embargo, las diferencias continúan.
Necesitamos un sólo Gobierno Mundial, un Consejo compuesto por seres de todo el planeta y que rija nuestros destinos y distribuya las riquezas de manera proporcional al número de la población de cada región. La igualdad debe estar presente en todas partes. No hablar de ella con bonitas palabras en un alto estrado, NO, sino que, se deben evitar desigualdades que, a estas alturas están fuera de lugar.
Así se conforman los pobres para no caer en la desesperación e impotencia
Es imperdonable que puedan existir algunas personas (unos pocos cientos de miles, o, incluso algunos millones) que domine el 90% de toda la riqueza mundial. Eso no es moral. Algunas familas, para que sus hijos puedan estudiar están pasándolo mal y tienen carencias de necesidades primarias, mientreas que otros, tienen a sus hijos estudiando en el extranjero en colegios por los que paga en un año lo que aquí en España se paga por todo el curso, y, los padres del primero están pasando necesidades mientras que, los del segundo, su mayor preocupación es hacer una lista de los invitados que vendrán el domingo a su próxima montería en la finca de 6.000 Has.
Seguramente será necesaria para la estabilidad de la población pero… La imagen me pone fuera de mí. Se puede comprender que se mate para comer, es la única excusa por la que se puede dejar pasar estas salvajadas que, la mayor parte de las veces es por diversión, no por necesidad.
Mientras todo esto siga a sí, el avance será pequeño. Hoy días, el lugar de quellos Sacerdotes de las épocas pasadas, lo ocupan los gurus del dinero que se pavonean por el mundo y…si se escarvara un pocoi en el origen de las fortunas, muy pocos podrían pasar el examen.
En fin amigos, me desvío de mi cometido principal que es hablaros de lo que pasó en tiempos pasados, de como podemos actuar en el presente para preparar el terreno y tener un futuro mejor.
Hablamos de Ciencia y de Cultura, de Letras y de Números, de lo infinito y de lo infinitesimal, de la Mente y de la Conciencia pero, ¿seremos alguna vez conscientes? En cuanto a la pregunta planteada…. ¡El futuro siempre será incierto!
emilio silvera
Abr
16
Partículas, antipartículas, fuerzas…
por Emilio Silvera ~ Clasificado en Física ~ Comments (0)
Bajo la “definición basada en quarks y leptones”, las partículas elementales y compuestas formadas de quarks (en púrpura) y leptones (en verde) serían la “materia”; mientras los bosones “izquierda” (en rojo) no serían materia. Sin embargo, la energía de interacción inherente a partículas compuestas (por ejemplo, gluones, que implica a los neutrones y los protones) contribuye a la masa de la materia ordinaria.
Esquema de una aniquilación electrón-positrón.
Ya hemos descrito en trabajos anteriores las dos familias de partículas elementales: Quarks y Leptones. Pero hasta ahí, no se limita la sociedad del “universo” infinitesimal. Existen además las antifamilias. A quarks y electrones se asocian, por ejemplo, antiquarks y antielectrones. A cada partícula, una antipartícula.
Uno de los primeros éxitos de la teoría relativista del campo cuántico fue la predicción de las antipartículas: nuevos cuantos que eran la imagen especular de las partículas ordinarias. Las antipartículas tienen la misma masa y el mismo spin que sus compañeras las partículas ordinarias, pero cargas inversas. La antipartícula del electrón es el positrón, y tiene, por tanto, carga eléctrica opuesta a la del electrón. Si electrones y positrones se colocan juntos, se aniquilan, liberando la energía inmensa de su masa según la equivalencia masa-energía einsteniana.
¿Cómo predijeron los físicos la existencia de antipartículas? Bueno, por la «interpretación estadística» implicaba que la intensidad de un campo determinaba la probabilidad de hallar sus partículas correspondientes. Así pues, podemos imaginar un campo en un punto del espacio describiendo la creación o aniquilación de sus partículas cuánticas con una probabilidad concreta. Si esta descripción matemática de la creación y aniquilación de partículas cuánticas se inserta en el marco de la teoría relativista del campo cuántico, no podemos contar con la posibilidad de crear una partícula cuántica sin tener también la de crear un nuevo género de partícula: su antipartícula. La existencia de antimateria es imprescindible para una descripción matemáticamente coherente del proceso de creación y aniquilación según la teoría de la relatividad y la teoría cuántica.
La misteriosa sustancia conocida como “materia oscura” puede ser en realidad una ilusión, creada por la interacción gravitacional entre partículas de corta vida de materia y antimateria. Un mar hirviente de partículas en el espacio puede crear la gravedad repulsiva.
Puede ser posible que las cargas gravitacionales en el vacío cuántico podrían proporcionar una alternativa a la “materia oscura”. La idea se basa en la hipótesis de que las partículas y antipartículas tienen cargas gravitacionales de signo opuesto. Como consecuencia, los pares de partícula-antipartícula virtuales en el vacío cuántico y sus dipolos de forma gravitacional (una carga gravitacional positivos y negativos) pueden interactuar con la materia bariónica para producir fenómenos que se suele atribuir a la materia oscura. Fue el físico del CERN, Dragan Slavkov Hajdukovic, quien propuso la idea, y demostró matemáticamente que estos dipolos gravitacionales podrían explicar las curvas de rotación de las galaxias observadas sin la materia oscura en su estudio inicial. Sin embargo, señaló que quedaba mucho por hacer.
Pero sigamos con la cuántica…
El pionero en comprender que era necesario que existiesen antipartículas fue el físico teórico Paul Dirac, que hizo varías aportaciones importantes a la nueva teoría cuántica. Fue él quien formuló la ecuación relativista que lleva hoy su nombre, y a la que obedece el campo electrónico; constituye un descubrimiento comparable al de las ecuaciones del campo electromagnético de Maxwell. Cuando resolvió su ecuación, Dirac se encontró con que además de describir el electrón tenía soluciones adicionales que describían otra partícula con una carga eléctrica opuesta a la del electrón. ¿Qué significaría aquello? En la época en que Dirac hizo esta observación, no se conocían más partículas con esta propiedad que el protón. Dirac, que no deseaba que las partículas conocidas proliferasen, decidió que las soluciones adicionales de su ecuación describían el protón.
Pero, tras un análisis más meticuloso, se hizo evidente que las partículas que describían las soluciones adicionales tenían que tener exactamente la misma masa que el electrón. Quedaba así descartado el protón, cuya masa es por lo menos, 1.800 veces mayor que la del electrón. Por tanto, las soluciones adicionales tenían que corresponder a una partícula completamente nueva de la misma masa que el electrón, pero de carga opuesta: ¡El antielectrón! Esto quedó confirmado a nivel experimental en 1932 cuando Carl Anderson, físico del Instituto de Tecnología de Calífornia, detectó realmente el antielectrón, que hoy se llama positrón.
Antes de empezar, debemos recordar que el Premio Nobel de Física de 1936 se repartió a partes iguales entre Victor Franz Hess y Carl David Anderson. Merece la pena leer la Nobel Lecture de Carl D. Anderson, “The production and properties of positrons,” December 12, 1936, quien nos explica que en esta imagen un “electrón” de 63 MeV atraviesa un placa de plomo de 6 mm y emerge con una energía de 23 MeV, pero lo hace con la curvatura “equivocada” como si fuera una partícula de carga positiva, como si fuera un protón pero con la masa de un electrón. La Nobel Lecture muestra muchas otras fotografías de positrones y electrones. Anderson afirma: “The present electron theory of Dirac provides a means of describing many of the phenomena governing the production and annihilation of positrons.”
Por otro lado, el Premio Nobel de Física de 1933 se repartió a partes iguales entre Erwin Schrödinger y Paul Adrien Maurice Dirac. También vale la pena leer la Nobel Lecture de Paul A. M. Dirac, “Theory of electrons and positrons,” December 12, 1933, aunque no cuente la historia de su descubrimiento, afirma que su ecuación predice el “antielectrón” de soslayo: ”There is one other feature of these equations which I should now like to discuss, a feature which led to the prediction of the positron.” (fuente: Francis (th)E mule Science’s News).
La aparición de las antipartículas cambió definitivamente el modo de pensar de los físicos respecto a la materia. Hasta entonces, se consideraba la materia permanente e inmutable. Podían alterarse las moléculas, podían desintegrarse los átomos en procesos radiactivos, pero los cuántos fundamentales se consideraban invariables. Sin embargo, tras el descubrimiento de la antimateria realizado por Paul Dirac hubo que abandonar tal criterio. Heisenberg lo expresaba así:
“Creo que el hecho de que Dirac haya descubierto partículas y antipartículas, ha cambiado toda nuestra visión de la física atómica… creo que, hasta entonces, todos los físicos habían concebido las partículas elementales siguiendo los criterios de la filosofía de Demócrito, es decir, considerando esas partículas elementales como unidades inalterables que se hallan en la naturaleza como algo dado y son siempre lo mismo, jamás cambian, jamás pueden transmutarse en otra cosa. No son sistemas dinámicos, simplemente existen en sí mismas. Tras el descubrimiento de Dirac, todo parecía distinto, porque uno podía preguntar: ¿por qué un protón no podría ser a veces un protón más un par electrón-positrón, etc.?… En consecuencia, el problema de la división de la materia había adquirido una dimensión distinta.”
Dado que la antimateria tiene la misma masa que la materia, es decir son de la misma magnitud y signo (la definición de masa es positiva siempre), el efecto gravitacional de la antimateria no debe ser distinto de la materia, es decir, siempre sera un efecto atractivo. Pero, ¿acaso no importa la equivalencia establecida de antipartícula viajando al futuro = partícula viajando al pasado?
Existe un “universo” que se nos escapa de la comprensión
La respuesta es sí. Dicha equivalencia proviene de algo llamado simetría CPT (Charge-Parity-Time), y nos dice que la equivalencia entre las partículas y antipartículas no solo corresponde a realizar una transformación sobre la carga, sino también sobre la paridad y el tiempo. La carga no afecta la gravedad, pero la paridad y el tiempo si la afectan. En otras palabras, al modificarse el tiempo (poner el tiempo al reves) y el espacio (la paridad es “girar” el espacio), estamos alterando el espacio-tiempo, y como la teoría general de la relatividad lo afirma, es la geometría de este el que determina la gravedad.
El carácter mutable de la materia se convirtió en piedra angular de la nueva física de partículas. El hecho de que partículas y antipartículas puedan crearse juntas a partir del vacío si se aporta energía suficiente, no sólo es importante para entender cómo se crean las partículas en aceleradores de alta energía, sino también para entender los procesos cuánticos que se produjeron en el Big Bang.
Como ya lo hemos expresado, el conocimiento que se obtuvo sobre la existencia de antifamilias de partículas o familias de antipartículas es una consecuencia de la aplicación de la teoría relativista del campo cuántico, para cada partícula existe una partícula que tiene la misma masa pero cuya carga eléctrica (y otras llamadas cargas internas) son de signo opuesto. Estas son las antipartículas. Así, al conocido electrón, con carga negativa, le corresponde un «electrón positivo» como antipartícula, llamado positrón, descubierto en 1932. El antiprotón, descubierto en 1956, tiene la misma masa que el protón, pero carga eléctrica negativa de igual valor. El fotón, que no tiene masa ni carga eléctrica, puede ser considerada su propia antipartícula.
Un agujero negro es un objeto que tiene tres propiedades: masa, espin y carga eléctrica. La forma del material en un agujero negro no se conoce, en parte porque está oculta para el universo externo, y en parte porque, en teoría, el material continuaría colapsando hasta tener radio cero, punto conocido como Singularidad, de densidad infinita.
Un agujero negro tiene tres propiedades: masa, espín y carga eléctrica. La forma del material de un agujero negro no se conoce, en parte porque está oculta para el universo externo, y en parte porque, en teoría, el material continuaría colapsando hasta tener radio cero, punto conocido como singularidad, de densidad infinita.
La luz (fotones), no son una onda distinta que un electrón o protón, etc.
1°- “No se dispersan”, no son más pequeñas, como las ondas del agua (olitas) cuando tiramos una piedrita, a medida que se alejan de su centro; sino que en el caso de la luz son menos partículas, pero son siempre el mismo tipo de onda (determinada frecuencia), igual tamaño.
2°- Las ondas con más energía son más grandes, los fotones al igual que las partículas son más pequeñas, contra toda lógica (contracción de Lorentz).
3°- No necesitan de un medio material para desplazarse. Viajan en el vacío. El medio que usan para viajar, es el mismísimo espacio.
4°- Su cualidad de onda no es diferente de las partículas. Lo podemos ver en la creación de pares y la cualidad de onda de las partículas, etc. En ningún momento la partícula, es una cosa compacta (ni una pelotita), siempre es una onda, que no se expande. En la comparación con la ola, sería como un “montón” o un “pozo” de agua, con una dirección, lo que conocemos como ecuación de Schrödinger. En ningún momento la partícula, es una pelotita; la ola sobre el agua, no es un cuerpo que se mueve sobre el agua, no es un montón de agua que viene (aunque parece), sino una deformación del agua. Así la partícula, no es un montón de algo, sino una deformación del espacio.
La curvatura está relacionadas con la probabilidad de presencia, no es una bolita que está en uno de esos puntos, sino que es una onda en esa posición. El fotón es una onda que no necesita de un medio material para propagarse, se propaga por el espacio vacío. Así como una onda de sonido es una contracción-expansión del medio en que se propaga, el fotón es una contracción-expansión del espacio (del mismísimo espacio), razón por la cual entendemos que el espacio se curva, se contrae y expande. La rigidez del medio, da la velocidad de la deformación (velocidad de la onda), en el caso de la rigidez del espacio da una velocidad “c”.Esta onda por causa de la contracción del tiempo (velocidad “c”), no se expande, sino que se mantiene como en su origen (para el observador ), como si fuese una “burbuja”, expandida o contraída, en cada parte, positiva-negativa
Cada partícula está caracterizada por un cierto número de parámetros que tienen valores bien definidos: su masa, carga eléctrica, spin o rotación interna y otros números, conocidos como cuánticos. Estos parámetros son tales que, en una reacción, su suma se mantiene y sirve para predecir el resultado. Se dice que hay conservación de los números cuánticos de las partículas. Así, son importantes el número bariónico, los diversos números leptónicos y ciertos números definidos para los quarks, como la extrañeza, color, etc. Estos últimos y sus antipartículas tienen cargas eléctricas (± 1/3 o ± 2/3) y números bariónicos (±1/3) fraccionarios. No todos los números asociados a cada partícula han sido medidos con suficiente precisión y no todas las partículas han sido detectadas en forma aislada, por lo menos de su ligamento, como el caso de los quarks y de los gluones.
Los gluones son una especie de «partículas mensajeras» que mantienen unidos a los quarks. Su nombre proviene del término inglés “glue”, que significa pegamento, en español quizás podría ser gomón. Ahora, en cuanto a los quarks, ya hicimos referencia de ellos anteriormente. Pero recordemos aquí, que fueron descubiertos en 1964 por Murray Gell-Mann, como los componentes más reducidos de la materia. Hasta entonces se pensaba que los átomos consistían simplemente en electrones rodeando un núcleo formado por protones y electrones.
En estado natural, quarks y gluones no tienen libertad. Pero si se eleva la temperatura a niveles 100.000 veces superiores, como se ha hecho en aceleradores de partículas, a la del centro del Sol, se produce el fenómeno del deconfinamiento y por un brevísimo tiempo quedan libres. En ese preciso momento aparece lo que se suele llamar plasma, «una sopa de quarks y gluones» que equivale al estado en que se podría haber encontrado la naturaleza apenas una milésima de segundo luego del Big Bang.
Recientemente se ha descubierto un nuevo estado de la materia, esta vez a niveles muy altos de energía, que los científicos han denominado Plasma Gluón-Quark. La transición ocurre a temperaturas alrededor de cien mil millones de grados y consiste en que se rompen las fuertes ligaduras que mantienen unidos los quarks dentro de los núcleos atómicos. Los protones y neutrones están formados, cada uno, por 3 quarks que se mantienen unidos gracias a los gluones (El gluón es la partícula portadora de interacción nuclear fuerte, fuerza que mantiene unida los núcleos atómicos). A temperaturas superiores se vence la fuerza nuclear fuerte y los protones y neutrones se dividen, formando esta sopa denominada plasma Gluón-Quark.
Pero por ahora aquí, nos vamos a quedar con los quarks al natural. Normalmente, los quarks no se encuentra en un estado separados, sino que en grupos de dos o tres. Asimismo, la duración de las vidas medias de las partículas, antes de decaer en otras, es muy variable (ver tablas).
Por otra parte, las partículas presentan una o más de las siguientes interacciones o fuerzas fundamentales entre ellas. Por un lado se tiene la gravitación y el electromagnetismo, conocidas de la vida cotidiana. Hay otras dos fuerzas, menos familiares, que son de tipo nuclear y se conocen como interacciones fuertes y débiles.
La gravitación afecta a todas las partículas, es una interacción universal. Todo cuerpo que tiene masa o energía está sometido a esta fuerza. Aunque es la más débil de las interacciones, como las masas son siempre positivas y su alcance es infinito, su efecto es acumulativo. Por ello, la gravitación es la fuerza más importante en cosmología.
Los campos magnéticos están presentes por todo el Universo
La fuerza electromagnética se manifiesta entre partículas con cargas eléctricas. A diferencia de las demás, puede ser de atracción (entre cargas de signos opuestos) o de repulsión (cargas iguales). Esta fuerza es responsable de la cohesión del átomo y las moléculas. Mantiene los objetos cotidianos como entidades con forma propia. Un vaso, una piedra, un auto, el cuerpo humano. Es mucho más fuerte que la gravitación y aunque es de alcance infinito, las cargas de distinto signo se compensan y sus efectos no operan a grandes distancias. Dependiendo de las circunstancias en que actúen, estas interacciones pueden manifestarse como fuerzas eléctricas o magnéticas solamente, o como una mezcla de ambos tipos.
La Fuerza Nuclear Débil: otra fuerza nuclear, considerada mucho más débil que la Fuerza Nuclear Fuerte. El fenómeno de decaimiento aleatorio de la población de las partículas subatómicas (la radioactividad) era difícil de explicar hasta que el concepto de esta fuerza nuclear adicional fue introducido.
La interacción nuclear débil es causa de la radioactividad natural y la desintegración del neutrón. Tiene un rol capital en las reacciones de fusión del hidrógeno y otros elementos en el centro de las estrellas y del Sol. La intensidad es débil comparada con las fuerzas eléctricas y las interacciones fuertes. Su alcance es muy pequeño, sólo del orden de 10-15 cm.
La interacción fuerte es responsable de la cohesión de los núcleos atómicos. Tiene la intensidad más elevada de todas ellas, pero es también de corto alcance: del orden de 10-13 cm. Es posible caracterizar las intensidades de las interacciones por un número de acoplamiento a, sin dimensión, lo que permite compararlas directamente:
Fuerte as = 15
Electromagnéticas a = 7,3 x 10-3
Débil aw 3,1 x 10-12
Gravitacional aG = 5,9 x 10-39
Por otro lado, la mecánica cuántica considera que la interacción de dos partículas se realiza por el intercambio de otras llamadas «virtuales». Tienen ese nombre porque no son observables: existen por un tiempo brevísimo, tanto más corto cuanto mayor sea su masa, siempre que no se viole el principio de incertidumbre de Heisenberg de la teoría cuántica (que en este contexto dice que el producto de la incertidumbre de la energía por el tiempo de vida debe ser igual o mayor que una constante muy pequeña). Desaparecen antes de que haya tiempo para que su interacción con otras partículas delate su existencia.
El fotón virtual común se desplaza hacia la partícula menos energética.
Dos partículas interactúan al emitir una de ellas una partícula virtual que es absorbida por la otra. Su emisión y absorción cambia el estado de movimiento de las originales: están en interacción. Mientras menos masa tiene la partícula virtual, más lejos llega, mayor es el rango de la interacción. El alcance de la interacción es inversamente proporcional a la masa de la partícula portadora o intermedia. Por ejemplo, la partícula portadora de la fuerza electromagnética es el fotón, de masa nula y, por lo tanto, alcance infinito. La interacción gravitacional también tiene alcance infinito y debe corresponder a una partícula de masa nula: se le denomina gravitón. Naturalmente tiene que ser neutro. (Aún no ha sido vistos ni en pelea de perros).
Como ya hicimos mención de ello, a las fuerzas nucleares se les asocian también partículas portadoras. Para la interacción débil estas partículas se llaman bosones intermedios, expresados como W+, W- y Zº (neutro). El W- es antipartícula del W+. Los W tienen masas elevadas comparadas con las otras partículas elementales. Lo de bosones les viene porque tienen spin entero, como el fotón y el gravitón, que también los son, pero que tienen masas nulas. Las fuerzas fuertes son mediadas por unas partículas conocidas como gluones, de los cuales habría ocho. Sin embargo, ellos no tienen masa, pero tienen algunas de las propiedades de los quarks, que les permiten interactuar entre ellos mismos. Hasta ahora no se han observado gluones propiamente tal, ya que lo que mencionamos en párrafos anteriores corresponde a un estado de la materia a la que llamamos plasma. Claro está, que es posible que un tiempo más se puedan detectar gluones libres cuando se logre aumentar, aún más, la temperatura, como está previsto hacerlo en el acelerador bautizado como “Relativistic Heavy Ion Collider”, empotrado en Estados Unidos de Norteamérica.
TABLA DE LAS PRINCIPALES PROPIEDADES DE LAS PARTÍCULAS PORTADORAS DE LAS INTERACCIONES FUNDAMENTALES
Una partícula y su antipartícula no pueden coexistir si están suficientemente cerca como para interactuar. Si ello ocurre, ellas se destruyen mutuamente: hay aniquilación de las partículas. El resultado es radiación electromagnética de alta energía, formada por fotones gamma. Así, si un electrón está cercano a un positrón se aniquilan en rayos gamma. Igual con un par protón-antiprotón muy próximos.
La reacción inversa también se presenta. Se llama «materialización o creación de partículas» de un par partícula-antipartícula a partir de fotones, pero se requieren condiciones físicas rigurosas. Es necesario que se creen pares partícula-antipartícula y que los fotones tengan una energía mayor que las masas en reposo de la partículas creadas. Por esta razón, se requieren fotones de muy alta energía, de acuerdo a la relación de Einstein E=mc2 . Para dar nacimiento a electrones/positrones es necesario un campo de radiación de temperaturas mayores a 7×109 °K. Para hacer lo mismo con pares protón/antiprotón es necesario que ellas sean superiores a 2×1012 °K. Temperaturas de este tipo se producen en los primeros instantes del universo.
Se detectan grandes emisiones de rayos gamma en explosiones supernovas y otros objetos energéticos
Los rayos gamma están presentes en explosiones de supernovas, colisión de estrellas de neutrones… Todos los sucesos de altas energías los hace presente para que nuestros ingenios los detecten y podamos conocer lo que la materia esconde en lo más profundo de sus “entrañas”. Aún no hemos podido conocer en profundidad la materia ni sabemos, tampoco, lo que realmente es la luz.
emilio silvera
Abr
16
Concurso de diseños para los futuros habitáculos de Marte
por Emilio Silvera ~ Clasificado en Viajar al Espacio ~ Comments (0)
Pese al fallo final en la misión israelí a nuestro satélite el pasado jueves, la carrera espacial continúa. Las misiones más allá de la órbita cercana a la Tierra, la Luna y Marte precisan de espacios autónomos capaces de funcionar con o sin astronautas y estar preparados para acoger en cualquier momento las expediciones. Con este objetivo, la Agencia Espacial Norteamericana (NASA) ha seleccionado a dos institutos de investigación tecnológica para desarrollar las casas extraterrestres. Cada institución recibirá 15 millones de dólares (13,3 millones de euros) en cinco años para configurar las viviendas espaciales.
El objetivo del proyecto, que se complementará con planes específicos de la NASA, es crear la tecnología crítica necesaria para permitir la presencia humana en la Luna y Marte. Los espacios inteligentes son imprescindibles para asumir los retos de la exploración y, según Jim Reuter, uno de los responsables de la Dirección de Tecnología Espacial de la Nasa, la colaboración con los centros ajenos a la agencia permite “ampliar la investigación y el desarrollo tanto para la carrera aeroespacial como para otros ámbitos”.
Uno de los institutos seleccionados es Habitats Optimized for Missions of Exploration (HOME), cuyas siglas en inglés forman la palabra hogar. Este centro está especializado en ingeniería, análisis de riesgos y tecnologías orientadas a la creación de espacios adaptables, autónomos y autosuficientes para la exploración humana. La investigación de Home estará encaminada al desarrollo de sistemas autónomos, equipamientos automatizados, ciencias de datos, aprendizaje mecánico, robótica y fabricación in situ de bienes necesarios en las casas extraterrestres.
Este equipo está dirigido por Stephen Robinson y cuenta con siete universidades y las corporaciones tecnológicas Sierra Nevada, United Technology Aerospace Systems y Blue Origin, la empresa aeroespacial del fundador de Amazon, Jeff Bezos, cuya visión es “un futuro en el que millones de personas vivan y trabajen en el espacio”.
El otro instituto seleccionado es Resilient ExtraTerrestrial Habitats institute (RETHi), que se encargará del diseño y funcionamiento de hábitats adaptables que puedan afrontar y superar cualquier contingencia prevista o no. Para ello contarán con expertos en infraestructura civil de campos como la robótica autónoma.
RETHI se concentrará en habilitar los espacios para que puedan funcionar con o sin tripulación, para lo que crearán prototipos y modelos virtuales con los que ensayar, probar y desarrollar las funcionalidades necesarias de los módulos.
La Universidad de Purdue aportará el investigador principal, Shirley Dyke, quien colaborará con las instituciones homólogas de Harvard, Connecticut y Texas.
Los dos centros de investigación seleccionados se unirán a otros tantos creados por la NASA y especializados en biotecnología y materiales ultraligeros y resistentes.
El desarrollo tecnológico de las casas extraterrestres se complementa también con el concurso convocado por la misma agencia espacial para propuestas de asentamientos en la Luna, Marte “o más allá” creados a partir de impresoras 3D y que, al igual que el proyecto de desarrollo de hábitats autónomos, permitan la construcción de colonias posibles.
Este último proyecto, ganado por tres de las 11 empresas presentadas (SEArch+/Apis Cor, Zopherus y Mars Incubator) ha premiado el uso de recursos disponibles fuera de nuestro planeta así como la programación de los modelos, los materiales y las fases de construcción. La propia Nasa destaca que la investigación realizada tiene aplicaciones actuales en la Tierra.
Abr
15
Teorías, masas, partículas, dimensiones…
por Emilio Silvera ~ Clasificado en Física ~ Comments (8)
Una nos habla del Cosmos y de como el espacio se curva ante la presencia de masas, la otra, nos habla de funciones de ondas, entrelazamientos cuánticos, de diminutos objetos que conforman la materia y hacen posibles los átomos y la vida.
Entre los teóricos, el casamiento de la relatividad general y la teoría cuántica es el problema central de la física moderna. A los esfuerzos teóricos que se realizan con ese propósito se les llama “supergravedad”, “súpersimetría”, “supercuerdas” “teoría M” o, en último caso, “teoría de todo o gran teoría unificada”.
Ahí tenemos unas matemáticas exóticas que ponen de punta hasta los pelos de las cejas de algunos de los mejores matemáticos del mundo (¿y Perelman? ¿Por qué nos se ha implicado?). Hablan de 10, 11 y 26 dimensiones, siempre, todas ellas espaciales menos una que es la temporal. Vivimos en cuatro: tres de espacio (este-oeste, norte-sur y arriba-abajo) y una temporal. No podemos, ni sabemos o no es posible instruir, en nuestro cerebro (también tridimensional), ver más dimensiones. Pero llegaron Kaluza y Klein y compactaron, en la longitud de Planck las dimensiones que no podíamos ver. ¡Problema solucionado!
La longitud de Planck (ℓP) u hodón (término acuñado en 1926 por Robert Lévi) es la distancia o escala de longitud por debajo de la cual se espera que el espacio deje de tener una geometría clásica. Una medida inferior previsiblemente no puede ser tratada adecuadamente en los modelos de física actuales debido a la aparición de efectos de Gravedad Cuántica.
¿Quién puede ir a la longitud de Planck para verla? A distancias comparables con la longitud de Planck, se cree que están sucediendo cosas muy curiosas que rebasan ampliamente los límites de nuestra imaginación. A diferencia de la filosofía reduccionista que propone que lo más complejo está elaborado -axiomáticamente- a partir de lo más elemental, lo que está sucediendo en la escala de Planck no parece tener nada de elemental o sencillo. Se cree que a esta escala la continuidad del espacio-tiempo en vez de ir marchando sincronizadamente al parejo con lo que vemos en el macrocosmos de hecho stá variando a grado tal que a nivel ultra-microscópico el tiempo no sólo avanza o se detiene aleatoriamente sino inclusive marcha hacia atrás, una especie de verdadera máquina del tiempo. Las limitaciones de nuestros conocimientos sobre las rarezas que puedan estar ocurriendo en esta escala en el orden de los 10-35metros, la longitud de Planck, ha llevado a la proposición de modelos tan imaginativos y tan exóticos como la teoría de la espuma cuántica que supuestamente veríamos aún en la ausencia de materia-energía si fuésemos ampliando sucesivamente una porción del espacio-tiempo plano
La puerta de las dimensiones más altas quedó abierta y, a los teóricos, se les regaló una herramienta maravillosa. En el Hiperespacio, todo es posible. Hasta el matrimonio de la relatividad general y la mecánica cuántica, allí si es posible encontrar esa soñada teoría de la Gravedad cuántica.
Así que, los teóricos, se han embarcado a la búsqueda de un objetivo audaz: buscan una teoría que describa la simplicidad primigenia que reinaba en el intenso calor del universo en sus primeros tiempos, una teoría carente de parámetros, donde estén presentes todas las respuestas. Todo debe ser contestado a partir de una ecuación básica.
¿Dónde radica el problema?
El problema está en que la única teoría candidata no tiene conexión directa con el mundo de la observación, o no lo tiene todavía si queremos expresarnos con propiedad. La energía necesaria para ello, no la tiene ni el nuevo acelerador de partículas LHC que mencioné en páginas anteriores.
La verdad es que, la teoría que ahora tenemos, el Modelo Estándar, concuerda de manera exacta con todos los datos a bajas energías y contesta cosas sin sentido a altas energías.
¡Necesitamos algo más avanzado!
Cada partícula tiene encomendada una misión, la de Higgs, ya sabemos lo que dicen por ahí.
Se ha dicho que la función de la partícula de Higgs es la de dar masa a las demás. Cuando su autor lanzó la idea al mundo, resultó además de nueva muy extraña. El secreto de todo radica en conseguir la simplicidad: el átomo resulto ser complejo lleno de esas infinitesimales partículas electromagnéticas que bautizamos con el nombre de electrones, resultó que tenía un núcleo que contenía, a pesar de ser tan pequeño, casi toda la masa del átomo. El núcleo, tan pequeño, estaba compuesto de otros objetos más pequeños aún, los quarks que estaban instalados en nubes de otras partículas llamadas gluones y, ahora, queremos continuar profundizando, sospechamos, que después de los quarks puede haber algo más.
Bueno, la idea nueva que surgió es que el espacio entero contiene un campo, el campo de Higgs, que impregna el vacío y es el mismo en todas partes. Es decir, que si miramos a las estrellas en una noche clara estamos mirando el campo de Higgs. Las partículas influidas por este campo, toman masa. Esto no es por sí mismo destacable, pues las partículas pueden tomar energía de los campos (gauge) de los que hemos comentado, del campo gravitatorio o del electromagnético. Si llevamos un bloque de plomo a lo alto de la Torre Eiffel, el bloque adquiriría energía potencial a causa de la alteración de su posición en el campo gravitatorio de la Tierra.
Cuando los físicos hablan de la belleza de algunas ecuaciones, se refieren a las que, como ésta, dicen mucho con muy pocos caracteres. De hecho, puede que ésta sea la ecuación más famosa conocida en nuestro mundo.
Como E=mc2, ese aumento de la energía potencial equivale a un aumento de la masa, en este caso la masa del Sistema Tierra-bloque de plomo. Aquí hemos de añadirle amablemente un poco de complejidad a la venerable ecuación de Einstein. La masa, m, tiene en realidad dos partes. Una es la masa en reposo, m0, la que se mide en el laboratorio cuando la partícula está en reposo. La partícula adquiere la otra parte de la masa en virtud de su movimiento (como los protones en el acelerador de partículas, o los muones, que aumentan varias veces su masa cuando son lanzados a velocidades cercanas a c) o en virtud de su energía potencial de campo. Vemos una dinámica similar en los núcleos atómicos. Por ejemplo, si separamos el protón y el neutrón que componen un núcleo de deuterio, la suma de las masas aumenta.
Pero la energía potencial tomada del campo de Higgs difiere en varios aspectos de la acción de los campos familiares. La masa tomada de Higgs es en realidad masa en reposo. De hecho, en la que quizá sea la versión más apasionante de la teoría del campo de Higgs, éste genera toda la masa en reposo. Otra diferencia es que la cantidad de masa que se traga del campo es distinta para las distintas partículas.
Los teóricos dicen que las masas de las partículas de nuestro modelo estándar miden con qué intensidad se acoplan éstas al campo de Higgs.
La influencia de Higgs en las masas de los quarks y de los leptones, nos recuerda el descubrimiento por Pieter Zeeman, en 1.896, de la división de los niveles de energía de un electrón cuando se aplica un campo magnético al átomo. El campo (que representa metafóricamente el papel de Higgs) rompe la simetría del espacio de la que el electrón disfrutaba.
Hasta hace bien poco no teníamos ni idea de que reglas controlan los incrementos de masa generados por el Higgs (de ahí la expectación creada por el nuevo acelerador de partículas LHC cuando la buscaba). Pero el problema es irritante: ¿por qué sólo esas masas -Las masas de los W+, W–, y Zº, y el up, el down, el encanto, el extraño, el top y el bottom, así como los leptones – que no forman ningún patrón obvio?
Las masas van de la del electrón 0’0005 GeV, a la del top, que tiene que ser mayor que 91 GeV. Deberíamos recordar que esta extraña idea (el Higgs) se empleó con mucho éxito para formular la teoría electrodébil (Weinberg-salam). Allí se propuso el campo de Higgs como una forma de ocultar la unidad de las fuerzas electromagnéticas y débiles. En la unidad hay cuatro partículas mensajeras sin masa -los W+, W–, Zº y fotón que llevan la fuerza electrodébil. Además está el campo de Higgs, y, rápidamente, los W y Z chupan la esencia de Higgs y se hacen pesados; el fotón permanece intacto. La fuerza electrodébil se fragmenta en la débil (débil porque los mensajeros son muy gordos) y la electromagnética, cuyas propiedades determina el fotón, carente de masa. La simetría se rompe espontáneamente, dicen los teóricos. Prefiero la descripción según la cual el Higgs oculta la simetría con su poder dador de masa.
Las masas de los W y el Z se predijeron con éxito a partir de los parámetros de la teoría electrodébil. Y las relajadas sonrisas de los físicos teóricos nos recuerdan que Gerard ^t Hooft y Veltman dejaron sentado que la teoría entera esta libre de infinitos.
Pero, encierra tantos misterios la materia que, a veces, me hace pensar en que la podríamos denominar de cualquier manera menos de inerte ¡Parece que la materia está viva!
Son muchas las cosas que desconocemos y, nuestra curiosidad nos empuja continuamente a buscar esas respuestas.
El electrón y el positrón son notables por sus pequeñas masas (sólo 1/1.836 de la del protón, el neutrón, el antiprotón o anti-neutrón), y, por lo tanto, han sido denominados leptones (de la voz griega lentos, que significa “delgado”).
Aunque el electrón fue descubierto en 1.897 por el físico británico Josepth John Thomson (1856-1940), el problema de su estructura, si la hay, no está resuelto. Conocemos su masa y su carga negativa que responden a 9,1093897 (54) x 10-31 Kg la primera y, 1,602 177 33 (49) x 10-19 culombios, la segunda, y también su radio clásico: r0 = e2/mc2 = 2’82 x 10-13 m. No se ha descubierto aún ninguna partícula que sea menos cursiva que el electrón (o positrón) y que lleve una carga eléctrica, sea lo que fuese (sabemos como actúa y cómo medir sus propiedades, pero aun no sabemos qué es), tenga asociada un mínimo de masa, y que esta es la que se muestra en el electrón.
Lo cierto es que, el electrón, es una maravilla en sí mismo. El Universo no sería como lo conocemos si el electrón (esa cosita “insignificante”), fuese distinto a como es, bastaría un cambio infinitesimal para que, por ejemplo, nosotros no pudiéramos estar aquí ahora.
¡No por pequeño, se es insignificante!
Recordémoslo, todo lo grande está hecho de cosas pequeñas.
En realidad, existen partículas que no tienen en absoluto asociada en ellas ninguna masa (es decir, ninguna masa en reposo). Por ejemplo, las ondas de luz y otras formas de radiación electromagnéticas se comportan como partículas (Einstein en su efecto fotoeléctrico y De Broglie en la difracción de electrones*.
Esta manifestación en forma de partículas de lo que, de ordinario, concebimos como una onda se denomina fotón, de la palabra griega que significa “luz”.
El fotón tiene una masa de 1, una carga eléctrica de o, pero posee un espín de 1, por lo que es un bosón. ¿Cómo se puede definir lo que es el espín? Los fotones toman parte en las reacciones nucleares, pero el espín total de las partículas implicadas antes y después de la reacción deben permanecer inmutadas (conservación del espín). La única forma que esto suceda en las reacciones nucleares que implican a los fotones radica en suponer que el fotón tiene un espín de 1. El fotón no se considera un leptón, puesto que este termino se reserva para la familia formada por el electrón, el muón y la partícula Tau con sus correspondientes neutrinos: Ve, Vu y VT.
Existen razones teóricas para suponer que, cuando las masas se aceleran (como cuando se mueven en órbitas elípticas en torno a otra masa o llevan a cabo un colapso gravitacional), emiten energía en forma de ondas gravitacionales. Esas ondas pueden así mismo poseer aspecto de partícula, por lo que toda partícula gravitacional recibe el nombre de gravitón.
La fuerza gravitatoria es mucho, mucho más débil que la fuerza electromagnética. Un protón y un electrón se atraen gravitacionalmente con sólo 1/1039 de la fuerza en que se atraen electromagnéticamente. El gravitón (aún sin descubrir) debe poseer, correspondientemente, menos energía que el fotón y, por tanto, ha de ser inimaginablemente difícil de detectar.
De todos modos, el físico norteamericano Joseph Weber emprendió en 1.957 la formidable tarea de detectar el gravitón. Llegó a emplear un par de cilindros de aluminio de 153 cm. De longitud y 66 de anchura, suspendidos de un cable en una cámara de vacío. Los gravitones (que serían detectados en forma de ondas), desplazarían levemente esos cilindros, y se empleó un sistema para detectar el desplazamiento que llegare a captar la cienmillonésima parte de un centímetro.
Han llevado años captarlas, las ondas gravitatorias llevadas por el gravitón son débiles
Las débiles ondas de los gravitones, que producen del espacio profundo, deberían chocar contra todo el planeta, y los cilindros separados por grandes distancias se verán afectados de forma simultánea. En 1.969, Weber anunció haber detectado los efectos de las ondas gravitatorias. Aquello produjo una enorme excitación, puesto que apoyaba una teoría particularmente importante (la teoría de Einstein de la relatividad general). Desgraciadamente, nunca se pudo comprobar mediante las pruebas realizadas por otros equipos de científicos que duplicaran el hallazgo de Weber.
De todas formas, no creo que, a estas alturas, nadie pueda dudar de la existencia de los gravitones, el bosón mediador de la fuerza gravitatoria. La masa del gravitón es o, su carga es o, y su espín de 2. Como el fotón, no tiene antipartícula, ellos mismos hacen las dos versiones.
Tenemos que volver a los que posiblemente son los objetos más misteriosos de nuestro Universo: Los agujeros negros. Si estos objetos son lo que se dice (no parece que se pueda objetar nada en contrario), seguramente serán ellos los que, finalmente, nos faciliten las respuestas sobre las ondas gravitacionales y el esquivo gravitón.
La onda gravitacional emitida por el agujero negro produce una ondulación en la curvatura del espacio-temporal que viaja a la velocidad de la luz transportada por los gravitones.
Hay aspectos de la física que me dejan totalmente sin habla, me obligan a pensar y me transporta de este mundo material nuestro a otro fascinante donde residen las maravillas del Universo. Hay magnitudes asociadas con las leyes de la gravedad cuántica. La longitud de Planck-Wheeler,
es la escala de longitud por debajo de la cual el espacio tal como lo conocemos deja de existir y se convierte en espuma cuántica. El tiempo de Planck-Wheeler (1/c veces la longitud de Planck-Wheeler o aproximadamente 10-43 segundos), es el intervalo de tiempo más corto que puede existir; si dos sucesos están separados por menos que esto, no se puede decir cuál sucede antes y cuál después. El área de Planck-Wheeler (el cuadrado de la longitud de Planck-Wheeler, es decir, 2,61×10-66cm2) juega un papel clave en la entropía de un agujero negro.
Me llama poderosamente la atención lo que conocemos como las fluctuaciones de vacío, esas oscilaciones aleatorias, impredecibles e ineliminables de un campo (electromagnético o gravitatorio), que son debidas a un tira y afloja en el que pequeñas regiones del espacio toman prestada momentáneamente energía de regiones adyacentes y luego la devuelven.
Ordinariamente, definimos el vacío como el espacio en el que hay una baja presión de un gas, es decir, relativamente pocos átomos o moléculas. En ese sentido, un vacío perfecto no contendría ningún átomo o molécula, pero no se puede obtener, ya que todos los materiales que rodean ese espacio tienen una presión de vapor finita. En un bajo vacío, la presión se reduce hasta 10-2 pascales, mientras que un alto vacío tiene una presión de 10-2-10-7 pascales. Por debajo de 10-7 pascales se conoce como un vacío ultraalto.
No puedo dejar de referirme al vacío theta (vació θ) que, es el estado de vacío de un campo gauge no abeliano (en ausencia de campos fermiónicos y campos de Higgs).
El vacío theta es el punto de partida para comprender el estado de vacío de las teoría gauge fuertemente interaccionantes, como la cromodinámica cuántica. En el vacío theta hay un número infinito de estados degenerados con efecto túnel entre estos estados. Esto significa que el vacío theta es análogo a una fundón de Bloch* en un cristal.
Se puede derivar tanto como un resultado general o bien usando técnicas de instantón. Cuando hay un fermión sin masa, el efecto túnel entre estados queda completamente suprimido.
Cuando hay campos fermiónicos con masa pequeña, el efecto túnel es mucho menor que para campos gauge puros, pero no está completamente suprimido.
La fisión nuclear puede ocurrir cuando un núcleo de un átomo pesado captura un neutrón (físion inducida) o puede ocurrir espontáneamente debido a la inestabilidad del isótopo (fisión espontánea)
Nos podríamos preguntar miles de cosas que no sabríamos contestar. Nos maravillan y asombran fenómenos naturales que ocurren ante nuestros ojos pero que tampoco sabemos, en realidad, a que son debidos. Si, sabemos ponerles etiquetas como, por ejemplo, la fuerza nuclear débil, la fisión espontánea que tiene lugar en algunos elementos como el protactinio o el torio y, con mayor frecuencia, en los elementos que conocemos como transuránidos.
A medida que los núcleos se hacen más grandes, la probabilidad de una fisión espontánea aumenta. En los elementos más pesados de todos (einstenio, fermio y mendelevio), esto se convierte en el método más importante de ruptura, sobre pasando a la emisión de partículas alfa.
emilio silvera
Abr
15
D-Branas, ¿dimensiones extra? ¡Cómo somos!
por Emilio Silvera ~ Clasificado en desde la materia inerte hasta los pensamientos ~ Comments (9)
Arriba la Nebulosa Cabeza de Caballo en Orión, una región HII
Howard Phillips Lovecraft
“El hombre que conoce la verdad está más allá del bien y del mal. El hombre que conoce la verdad ha comprendido que la ilusión es la realidad única y que la sustancia es la gran impostora”.
Que no está muerto lo que duerme eternamente; y en el paso de los eones, aún la misma Muerte… podría morir.
A mi parecer, no hay nada más misericordioso en el mundo que la incapacidad del cerebro humano de correlacionar todos sus contenidos. Vivimos en una plácida isla de ignorancia en medio de mares negros e infinitos, pero no fue concebido que debiéramos llegar muy lejos. Hasta el momento las ciencias, una orientada en su propia dirección, nos han causado poco daño; pero algún día, la reconstrucción de conocimientos dispersos nos dará a conocer tan terribles panorámicas de la realidad, y lo terrorífico del lugar que ocupamos en ella, que sólo podremos enloquecer como consecuencia de tal revelación, o huir de la mortífera luz hacia la paz y seguridad de una nueva era de tinieblas.”
“¿Quién conoce el fin? Lo que ha emergido puede hundirse y lo que se ha hundido puede emerger.”
El Big Bang es una de las teorías astrofísicas que más ha dado que hablar, de ese hipotético suceso se han escrito miles de libros y artículos, entrevistas y conferencias y, al menos hasta el momento, parece que no hemos encontrado una teoría mejor para que pueda explicar de dónde surgió nuestro Universo. Sin embargo, nada es eterno y tampoco la teoría lo es, se han hecho estudios y se llevan a cabo proyectos que buscan otras explicaciones al origen de todo esto pero, nuestro intelecto no llega a poder profundizar tanto como para haber podido hallar una explicación mejor. Y, mientras tanto, seguimos imaginando. ¿Llegaremos algún día a comprender, como nos decía Lovecraft:
“… El hombre que conoce la verdad ha comprendido que la ilusión es la realidad única y que la sustancia es la gran impostora”.
¿Estaría en lo cierto?
El físico y astrónomo inglés sir James Jeans escribió sobre la muerte final del universo, que él denominó “muerte térmica”, a comienzos del siglo XX : “La segunda ley de la termodinámica predice que sólo puede haber un final para el universo, una “muerte térmica” en la que la temperatura es tan baja que hace la vida imposible”. Toda la energía tenderá a acabar en la forma más degradada, la energía térmica; en un de total equilibrio termodinámico y a una temperatura cercana al cero absoluto, que impedirán cualquier posibilidad de extracción de energía útil. Será el desorden más absoluto (la máxima entropía) del que ya no se podrá extraer orden (baja entropía).
No podemos olvidarnos de que en el transcurso de muchos eones, nuestro Universo podría morir. Estamos obligados a buscar la manera (si existe), de escapar de ese destino fatal. Si el Universo, finalmente, se convierte en una singularidad que es una región donde (según las leyes de la relatividadgeneral) la curvatura del espacio-tiempo se infinitamente grande, y el espacio-tiempo deja de existir, toda vez que, la singularidad es una región de gravedad de marea infinita, es decir, una región donde la gravedad ejerce un tirón infinito sobre todos los objetos a lo largo de algunas direcciones y una compresión infinita a lo largo de otras, o, el otro modelo más probable que el anterior según todos los indicios, será el de la “muerte térmica”, la Entropía será la dueña absoluta, nada se moverá en la reinante temperatura del cero absoluto.
Pero, ¿que ocurriría en el primer caso del Big Crung, es decir, un final en un universo cerrado donde la densidad excede a ña Densidad Crítica?
Después de crear un horizonte de agujero negro a su alrededor, dicen las ecuaciones que describen fenómeno, la materia toda que compone nuestro Universo, continuará implosionando, inexorablemente, hasta alcanzar densidad infinita y volumen cero, creándose así la singularidad que estará fundida con el espacio-tiempo.
Si eso llegara a suceder, seguramente, de esa “nada” que se ha formado, más pronto o más tarde surgirá, mediante una enorme explosión, un nuevo Universo que, no sabemos si será igual, con las mismas fuerzas y las mismas leyes que el que tenemos.
Así que, si todo esto resulta ser así, y si es cierto que pueden existir otros universos, si para cuando todo eso llegue aún nuestra especie hubiera sobrevivido (que no es probable) a la evoluciòn lógica de la vida… ¿No sería una irresponsabilidad, el no hacer nada? Tratar de saber, de desvelar los secretos que el Universo esconde para poder, en su caso, escapar de este universo nuestro para instalarnos en algún otro que, como ahora este, nos de cobijo.
Tenemos que , cada uno en la medida de sus posibilidades, procurando avanzar hacía un futuro de profundos conocimientos que nos permitan, algún día lejano, muy lejano situado en eso que llamamos futuro, escapar de ese escenario de destrucción.
“A diferencia del Big Crunch, en el que todo se condensa en un solo punto, en el Big Rip el Universo se convertiría en partículas subatómicas flotantes que permanecerían para siempre separadas, sin cohesión gravitatoria ni energía alguna.”
Si finalmente llega la muerte térmica y los átomos se paralizan y las estrellas dejan de brillar… ¿qué nos queda? Claro que, para cuando eso pueda suceder… ¿Dónde estará la especie Humana?
Si por el contrario, el final del Universo, no es (como se ha dicho muchas veces) el Big Crunch, y resulta que estamos viviendo en un Universo plano con expansión eterna, tampoco parece que el panorama sea más alentador, sólo varía que, en lugar de terminar con una enorme bola de fuego a miles de millones de grados, el alejamiento paulatino de las galaxias por la expansión imparable del Universo, nos traerá el frío del cero absoluto, -273 ºC, con lo cual, de la misma manera, el final sería igual de triste nosotros: ¡La desaparición de la Humanidad! El Universo, sin estrellas que brillen sería en toda su extensión una terrible oscuridad, sin energía y sin vida. Claro, eso si es que la Humanidad, para entonces, anda aún por aquí. De hecho, es muy improbable que duremos tanto.
Como nos queda aún mucho tiempo para llegar a ese hipotético final, retomemos mejor, otras cuestiones futuras , más cercanas.
Fluctuaciones de vacío, dimensiones extra, ¿un universo en la sombra?
¿Qué son las D-branas? ¿Por qué las requiere la teoría de cuerdas? La respuesta básica a la segunda pregunta es que dan sentido a las cuerdas abiertas que intervienen en la teoría I: cada uno de los dos extremos de una cuerda abierta debe residir en una D-brana. Así lo han deducido las matemáticas imaginadas por nuestras mentes.
Los dos extremos de la cuerda abierta residen en un subespacio (q+l)-dimensional de género tiempo llamado una D-brana, o D-q-brana que es una entidad esencialmente clásica (aunque posee propiedades de súper-simetría), que representa una solución de la teoría de la súper-gravedad 11 dimensional.
En respuesta a la primera pregunta, una D-Brana es una estructura de genero tiempo, más arriba indico, 1+q dimensiones espaciotemporales. (Invocando una de las dualidades de la teoría M, alternativamente podemos considerar una D-Brana como una solución de las ecuaciones de alguna otra versión de la teoría M de cuerdas.)
Las D-branas aparecen en muchas discusiones modernas relacionadas con las cuerdas (por ejemplo, en la entropía de los agujeros negros). Suelen tratarse como si fueran objetos clásicos que yacen dentro del espaciotiempo completo 1+9 (° 1+10) dimensiones. La “D” viene de “Dirichlet”, por analogía con el tipo de problema de valor de frontera conocido como un problema de Dirichlet, en el que hay una frontera de género tiempo sobre la que se especifican (según Meter G. Lejeune Dirichlet, un eminente matemático francés que vivió entre 1805 y 1859.)
Con la introducción de tales “D-branas” varios teóricos han expresado una “filosofía de cuerdas” que parece representar un profundo cambio respecto a lo anterior. En efecto, se afirma con cierta frecuencia que podríamos “vivir en” o esa D-brana, lo que significa que nuestro espaciotiempo percibido podría yacer realmente dentro de una D-brana, de modo que la razón de que no se perciban ciertas “dimensiones extra” se explicaría por el hecho de que “nuestra” D-brana no se extiende a esas dimensiones extra.
La última posibilidad sería la postura más económica, por supuesto, de modo que “nuestra” D-brana (una D-3 brana) sería de 1+3 dimensiones. Esto no elimina los grados de libertad en las dimensiones extra, los reduce drásticamente. ¿Por qué es así? Nuestra perspectiva ahora es que somos “conscientes” de los grados de libertad que están implicados en el interior profundo del espacio de mayores dimensiones entre los D-branas, y es en esto donde se está dejando sentir la excesiva libertad funcional.
Solo vamos a ser conscientes de dimensiones extra allí donde inciden directamente sobre las D-brana en la que “vivimos”. Más que una imagen de “espacio cociente” que evoca la analogía de Kaluza-Kleinoriginal:
El gráfico anterior representa un Modelo de manguera de un espaciotiempo de dimensiones más altas de tipo Kaluza-Klein, donde la longitud o mejor la dimensión a lo largo de la longitud de la manguera representa al u-espaciotiempo normal y la dimensión alrededor de la manguera representa la dimensión extra “pequeños” (quizá a escala de Planck). Imaginemos un “ser” que habite en este mundo, que rebasa estas dimensiones extra “pequeñas”, y por ello no es realmente consciente de ellas.
Así, nuestro espaciotiempo observado aparece como un subespacio 4-dimensional del espacio real de dimensiones más altas. Con algo de imaginación, lo podemos visualizar en nuestra mente. Yo por más que me esfuerzo no consigo imaginar nuestro universo con más dimensiones de las que podemos constatar, mi intelecto no llega para poder llegar tan lejos.
¿Cuánta libertad funcional esperamos ahora? La situación es ahora algo parecida a la imagen geométrica que hemos adoptado en el gráfico para obtener una perspectiva más convencional con respecto a la “super-geometría”. Puesto que ahora estamos interesados solo en el comportamiento en la D-brana (que suponemos que es geométricamente una (1+3)-superficie ordinaria), podemos imaginar que nuestra libertad funcional se ha convertido en una aceptable. Sin embargo, incluso esto supone que la restricción de la dinámica en el 10-espacio (u 11-espacio) completo nos proporciona ecuaciones dinámicas dentro de “nuestra” D-brana 4-dimensional que son del tipo convencional, de modo que bastará los iniciales en una 3-superficie para determinar el comportamiento en todo el 4-espacio.
¡El problema no ha desaparecido todavía! Tal actitud en las D-branas se ha utilizado para intentar resolver el “problema de la jerarquía”
Según cierta perspectiva de “gran unificación”, las constantes de acoplamiento de las interacciones fuerte, débil y electromagnética, tratadas constantes de acoplamiento móviles, deberían alcanzar exactamente el mismo valor a temperaturas suficientemente grandes, aproximadamente 1028k, que habrían dado alrededor de 10.000 instantes de Planck después del big bang (»10-39s). Se ha visto que la súper-simetría es necesaria resolver que los tres valores coincidan exactamente.
En concreto, es la cuestión de por qué las interacciones gravitatorias son tan minúsculas comparadas con las demás fuerzas importantes de la naturaleza o, de manera equivalente, por qué es la masa de Plancktan enormemente mayor que las masas de las partículas elementales de la naturaleza (en un factor de aproximadamente 1020). La aproximación de la D-brana a este problema parece requerir la existencia de más de una D-brana, una de las cuales es “grande” y la otra “pequeña”. Hay un factor exponencial involucrado en cómo se estira la geometría una D-brana hasta la otra, y esto es considera una ayuda para abordar la discrepancia en 1040, más o menos, las intensidades de la fuerza gravitatoria y las otras fuerzas.
Es posible que en el Universo estén presentes dimensiones que no podemos percibir. Sin embargo, las estamos buscando.
Se puede decir que este tipo de imagen de espaciotiempo de dimensiones más altas, que se estira la frontera de una D-brana hasta la otra, es uno de los tipos de geometría sugeridos por las teorías 11 dimensionales, tales como la teoría M, donde la undécima dimensión tiene la de un segmento abierto, y la geometría de cada frontera tiene la forma topológica (por ejemplo, MxV) de los 10 espacios considerados antes. En otros modelos, la undécima dimensión es topológicamente S1.
¿Qué harán de todo esto los físicos con respecto al estatus de la teoría de cuerdas como una teoría física el futuro?
Como hemos referido en otras ocasiones, la mayoría de las versiones de la teoría de cuerdas implican dos tipos de cuerda: cuerdas abiertas con puntos finales desligados y cuerdas cerradas que forman lazos cerrados. Explorando las consecuencias de la acción Nambu-Goto, queda claro que la energía fluir a lo largo de una cuerda, deslizándose hasta el punto final y desapareciendo. Esto plantea un problema: la conservación de la energía establece que la energía no debe desaparecer del sistema. Por lo tanto, una teoría consistente de cuerdas debe incluir lugares en los cuales la energía pueda fluir cuando deja una cuerda; estos objetos se llaman D-branas. Cualquier versión de la teoría de cuerdas que permite cuerdas abiertas debe incorporar necesariamente D-branas, y todas las cuerdas abiertas debe tener sus puntos finales unidos a estas branas. Para un teórico de cuerdas, las D-branas son objetos físicos tan “reales” las cuerdas y no sólo entes matemáticos que reflejan un valor.
Se espera que todas las partículas elementales sean estados vibratorios de las cuerdas cuánticas, y es natural preguntarse si las D-branas están hechas de alguna modo con las cuerdas mismas. En un sentido, esto resulta ser verdad: el espectro de las partículas que las vibraciones de la cuerda permiten, encontramos un tipo conocido como taquión, que tiene algunas propiedades raras, como masa imaginaria. Las D-branas se pueden imaginar como colecciones grandes de taquiones coherentes, de un modo parecido a los fotones de un rayo láser.
Todo esto tiene implicaciones en la cosmología, porque la teoría de cuerdas implica que el universo tienen más dimensiones que lo esperado (26 las teorías de cuerdas bosónicas y 10 para las teorías de supercuerdas) tenemos que encontrar una razón por la cual las dimensiones adicionales no son evidentes. Una posibilidad sería que el universo visible es una D-brana muy grande que se extiende sobre tres dimensiones espaciales. Los objetos materiales, conformados de cuerdas abiertas, están ligados a la D-brana, y no pueden moverse “transversalmente” para explorar el universo fuera de la brana. Este panorama se llama una Cosmología de branas. La fuerza de la Gravedad no se debe a las cuerdas abiertas; los gravitones que llevan las fuerzas gravitacionales son estados vibratorios de cuerdas cerradas. Ya que las cuerdas cerradas no tienen porque estar unidas a D-branas, los efectos gravitacionales podrían depender de las dimensiones adicionales perpendiculares a la brana.
Los dos extremos de la cuerda abierta residen en un subespacio (q+l)- dimensional de género tiempo llamado una D-brana, o D-q-brana que es una entidad esencialmente clásica (aunque posee propiedades de súper-simetría=, que representa una solución de la teoría de la supergravedad 11 dimensional.
Nuestros cerebros son tridimensionales y pensar en 10 y 11 dimensiones… ¡Cuesta lo suyo!
Las teorías de dimensiones extra permiten transitar por otros caminos que, el mundo tetradimensional prohíbe. No cabe duda de que la física ha desarrollado un “mundo” fantástico e imaginativo en el que existe un “universo” desconocido. Sin embargo, es una lástima que no podamos comprobar toda esa riqueza imaginativa a la que nos llevan las difíciles ecuaciones donde la topología es la reina del “baile” y, la complejidad su “compañera”.
De todas las maneras…
Muchas cosas han pasado que se formó la Tierra en aquella nube primordial, hasta llegar a nuestros días
“La Vida está presente en el planeta desde hace unos 3.800 millones de años, así lo dicen los fósiles hallados en las rocas más antiguas. Nosotros, los humanos, llegamos muchísimo más tarde, cuando los materiales que formaron la Tierra estaban más fríos y se formaron los océanos, cuando había ya una atmósfera y, lo cierto es que, los materiales que hicieron posible nuestra presencia aquí, estaban en aquella nebulosa que se esparcía en el espacio interestelar que hoy ocupa nuestro Sistema solar, una supernova hace miles de millones de años, fue el pistoletazo de salida. Después, el Tiempo, aliado con la materia y la fuerza de gravedad, hicieron posible que surgiera el Sol y, a su alrededor, los planetas y lunas de nuestro entorno, y, con la ayuda de lo que hemos llamado evolución y los ingredientes precisos de atmósfera, agua, radioactividad y otros parámetros necesarios, surgió aquella primera célula replicante que lo comenzó todo, es decir, la aventura de la Vida.”
La especulación sobre el origen del Universo es una vieja y destacada actividad humana. Vieja por el simple hecho de que la especie humana, no tiene ningún certificado de nacimiento y, tal desconocimiento de sus orígenes, les hace ser curiosos, deseosos de saber el por qué están aquí y pudo suceder su venida. Estamos obligados a investigar nuestros orígenes nosotros sólos, sin la ayuda de nadie, es el caso que, ningún ser inteligente nos puede contar lo que pasó y, siendo así, nos vemos abocados a tener que hurgar en el pasado y valernos de mil ingeniosos sistemas para tratar de saber. Así que, si investigamos sobre el mundo del que formamos , esas pesquisas terminarán por decirnos más, sobre nosotros mismos que sobre el universo que pretendemos describir. En realidad, todos esos pensamientos, que no pocas veces mezclan lo imaginario con la realidad, todo eso, en cierta medida, son proyecciones psicológicas, esquemas proyectados por nuestras mentes sobre el cielo, sombras danzantes de un fuego fatuo que no siempre nos transmite algún mensaje.
Nuestros ancestros miraban asombrados la puesta y la salida del Sol, la terrorífica oscuridad y la seguridad del día. Ellos no sabían el por qué de todos aquellos cambios que se producían a su alrededor: el calor y el frío, la lluvia y el granizo, las nubes de la tormenta y los rayos… El Tiempo ha transcurrido inexorable y, ahora, hablamos de cuestiones tan complejas que, no siempre llegamos a comprender, imaginamos “mundos” de D-branas y creamos teorías que quieren explicar la naturaleza de las cosas. Sostenemos nuestros conocimientos actuales sobre dos poderosas teorías (la cuántica y la relativista) que, en realidad, son insuficientes para explicar todo lo que desconocemos, y, presentimos que hay mucho más.
¿Dónde encontrar lo que nos falta para conocer y despojarnos de este gran peso que sostenemos al que llamamos ignorancia?
emilio silvera