Abr
7
¡La Mecánica cuántica! ¿Quién la entiende?
por Emilio Silvera ~ Clasificado en Física ~ Comments (3)
Werner Heisenberg
Sí, el principio cuántico es muy extraño. Cuando en 1927, el joven físico alemán Werner Heisenberg llegó al Principio de Indeterminación, la física moderna rompió de manera decisiva con la física clásica, una nueva Era comenzaba con otra manera de mirar el mundo que nos rodea a través de la Física. Heisenberg descubrió que se puede conocer, o bien la posición exacta de una partícula determinada, o bien su trayectoria exacta, pero no ambas.
¡¡La mecánica cuántica!!, o, la perplejidad de nuestros sentidos ante lo que ese “universo cuántico” nos ofrece que, generalmente, se sale de lo que entendemos por sentido común. Ahí, en el “mundo” de los objetos infinitesimales, suceden cosas que, no siempre podemos comprender. Y, como todo tiene una razón, no dejamos de buscarla en cada uno de aquellos sorprendentes sucesos que en ese sitio tienen lugar. Podríamos llegar a la conclusión de que, la razón está en todo y solo la encontramos una vez que llegamos a comprender, mientras tanto, todo nos resulta extraño, irrazonable, extra-mundano y, algunas veces…imposible. Sin embargo, ahí está.
El entrelazamiento cuántico ha sido confirmado
Dos elementos actúan de común acuerdo para garantizar que no podamos descorrer el velo del futuro, de lo que será después (podemos predecir aproximaciones, nunca certezas), el principal de esos elementos es la ignorancia nunca podremos saber el resultado final de éste o aquél suceso sin tener la certeza de las condiciones iniciales. En la mayoría de los sistemas físicos son, en mayor o menor medida dada su complejidad, del tipo caótico es tal que, el resultado de las interacciones entre elementos son sumamente sensibles a pequeñísimas variaciones de los estados iniciales que, al ser perturbados mínimamente, hacen que el suceso final sea y esté muy alejado del que se creía al comienzo.
Desde las certezas que parecía darnos la mecánica clásica de Newton sobre la posición, trayectoria y velocidad de cualquier partícula microscópica o cuerpo celeste se nos echaba en brazos de la indeterminación cuántica. Ya no podía conocerse simultáneamente la posición y la velocidad de una partícula con la infinita exactitud que se suponía, y el principio de indeterminación de Heisenberg parecía habernos desterrado del paraíso de las certidumbres clásicas. Pero ese paraíso nunca existió en realidad, desde un punto de vista puramente clásico se puede demostrar que la predictibilidad que se suponía a los sistemas clásicos nunca fue esencialmente cierta. Independientemente de la precisión con que conozcamos el estado inicial de un sistema clásico (no cuántico) las imprecisiones tienden a crecer, de forma natural, con el tiempo y nuestra información inicial puede llegar a ser inútil para predecir su evolución futura.
Problemas de conservación del momento lineal
Si disparas una pistola y la bala, sale del cañón del arma, desviada unos milímetros, cuando llega al blanco situado a 50 metros, la desviación habrá crecido considerablemente alejándose del blanco. La condición inicial es muy importante.
Ahora bien, esto se trata de ignorancia pura. Si fuésemos capaces de contralar las condiciones iniciales, y además pudiésemos considerar el estado de cada una de los cientos o miles de variables que influyen sobre el sistema, podríamos predecir con exactitud la velocidad y la trayectoria de unas bolas de billar, por ejemplo, en cualquier tiempo futuro.
De hecho, la Ciencia se está volviendo extremadamente buena en controlar y calcular las condiciones de un sistema. Somos capaces de enviar naves espaciales a sitios muy distantes con una exactitud enorme (la Cassini es un buen ejemplo y, ayer mismo, teníamos aquí la partida de la Curiosity hacia el planeta Marte). Si sabemos contralar las condiciones iniciales (y no ocurren accidentes por el camino) podemos predecir, con ciertas garantías que, la nave llegará a su destino como se había calculado. Es decir, de alguna manera, estamos impidiendo ese principio de incertidumbre que está presente en todo lo que acontece en nuestras vidas, en el mundo y, en el Universo.
Nunca podremos estar seguros del resultado en una tirada de dados. En verdad, son pocas las cosas en las que podemos tener una completa certeza, y, aunque no lo sepamos, la razón está en la ignorancia de las condiciones iniciales y, en el caso de los dados en los factores que intervienen en el movimiento. Decimos entonces que la Naturaleza es aleatoria. Claro que, si yo tuviera que apostar con esos dados, sin dudarlo, escogería el 7. Esto es porque hay más maneras de formar 7 que cualquier otro número. Para más precisión, hay seis combinaciones de dados que darán un 8 o un 6. Claro que la certeza no existe y, entonces, recurrimos a las probabilidades. (Schrödinger creó su ecuación de la función de onda (Ψ) precisamente para contraponerla al principio de incertidumbre de Heisenberg, él nos situó en el campo de las probabilidades para “saber” dónde podría estar una partícula.
Si observamos un protón que atraviesa una cámara de niebla (ahora cámara de chispas, más moderna y efectiva), registrando su trayectoria podemos conocer la dirección en la que se mueve, pero en el proceso de abrirse camino a través del vapor de agua de la cámara el protón disminuirá su velocidad, restándonos información de dónde estaba en un momento determinado.
Los fotones son cuantos de luz
Alternativamente, podemos irradiar el fotón -tomar una instantánea de él, por decirlo así- y de este modo determinar su situación exacta en un instante determinado, pero la luz o cualquier otra radiación que usemos para tomar la fotografía apartará al fotón de su recorrido fijado, impidiéndonos el conocimiento de dónde habría estado si no hubiésemos actuado sobre él. Así que, el resultado es que estamos limitados en nuestro conocimiento del mundo subatómico. Sólo podemos obtener respuestas parciales, cuya naturaleza está determinada en cierta medida por las cuestiones que optamos por indagar.
El Principio de Incertidumbre
Cuando Heisenberg calculó la cantidad mínima ineludible de incertidumbre que limita nuestra comprensión de los sucesos de pequeña escala, halló que está definida nada menos que por h, el cuanto de acción de Planck.
Esquema de la formación de una traza en la cámara de niebla
Los físicos de partículas suelen encontrarse en sus vidas profesionales con el inconveniente de que aquello con lo que trabajan es tan sumamente pequeño que se vuelve indetectable tanto para el ojo humano como para los más avanzados sistemas de microscopía. Es cierto que en la actualidad se pueden conseguir imágenes en las que se distinguen átomos individuales cuando estos son lo suficientemente grandes, pero de ahí a poder visualizar un sólo protón, o un aún más pequeño electrón, hay un escalón insalvable para la técnica actual. Se han tomado espectros del electrón y, cada día, se avanza en esa dirección.
¿Cómo pueden, pues, los físicos saber que aquello con lo que trabajan no es un mero ente creado por su mente? ¿Cómo se pueden asegurar de que las partículas subatómicas existen en realidad? La respuesta es obvia: a través de su interacción con otras partículas o con otro sistema físico; y un ejemplo extraordinario de ello es, por ejemplo, en una cámara de niebla.
La partícula va dejando el rastro
Claro que, la Indeterminación cuántica no depende del aparato experimental empleado para investigar el mundo subatómico. Se trata, en la medida de nuestro conocimiento, de una limitación absoluta, que los más destacados sabios de una civilización extraterrestre avanzada compartirían con los más humildes físicos de la Tierra. En la Física atómica clásica se creía que se podía, en principio, medir las situaciones y trayectorias precisas de miles de millones de partículas -digamos protones– y a partir de los datos resultantes formular predicciones exactas de donde estarían los protones en determinado tiempo futuro. Heisenberg vino a demostrarnos que tal supuesto era falso, que nunca podremos saberlo todo sobre la conducta de siquiera una sola partícula.
Cualquier detector debe contener un medio sensible que quede perturbado al paso de la partícula a registrar (lo que “vemos” es la huella que deja la partícula al atravesar el medio) Esa perturbación debe poderse traducir a imágenes y datos numéricos que permitan reconstruir la trayectoria y calcular sus características.
Las imágenes de las partículas proceden de dos tipos de detectores: las cámaras de burbujas y los detectores electrónicos. En el primero, las partículas cargadas dejan a lo largo de su trayectoria una traza de burbujas de vapor que se puede ver y fotografiar. Es un proceso en cierto modo inverso al de la formación de una estela de vapor de agua al paso de los aviones a reacción.
Así que, el nuevo marco expuesto por el Principio de Indeterminación de Hesinberg cambió fundamentalmente nuestra visión del mundo de la física. Nos dio un nuevo conocimiento: A partir de aquel momento sabíamos que, no sólo la materia y la energía estaban cuantizadas sino que, también nuestro conocimiento del Universo lo estaba.
Cuanto más minuciosamente se examina el mundo subatómico, mayor parece la Indeterminación. Cuando un fotón choca con un átomo, haciendo saltar un electrón a una órbita más elevada, el electrón se mueve de la órbita inferior a la superior instantáneamente, sin tener que atravesar el espacio intermedio. Los mismos radios orbitales están cuantizados, y el electrón simplemente deja de existir en un punto para aparecer simultáneamente en otro. Es el famoso “salto cuántico” que tanto desconcierta. Eso nos viene a demostrar que predecir exactamente la conducta de los átomos.
De modo similar, a como vimos antes, es en virtud de la indeterminación cuántica como los protones pueden saltar la barrera de Coulomb, permitiendo que la fusión nuclear se produzca a una tasa suficiente para que las estrellas sigan brillando.
Imagen ilustrativa de la dualidad onda partícula, en el cual se puede ver cómo un mismo fenómeno puede tener dos percepciones distintas, verdaderamente la mecánica cuántica puede resultar extraña debido a su complejidad, en su “universo” los comportamientos difieren de lo que nos dicta el sentido común en nuestras vidas cotidianas del mundo macroscópico.
Sin embargo, como todo lo grande está hecho de cosas pequeñas, necesitamos conocer lo pequeño para comprender lo grande. Hasta la estrella más grande y la galaxia más brillante del Cosmos, están conformadas de partículas subatómicas unas más elementales que otras.
En fin amigo, que tenemos en nuestras manos todos los interrogantes que debemos desvelar y, otros muchos, que ni conocemos, y, por delante una tarea de tal complejidad que, posiblemente, nunca podremos acabar. Un sin fin de misterios que desvelar, problemas que resolver y, preguntas que contestar y, siendo conscientes de que, sin descorrer el velo que esconde los secretos del Universo…poco podríamos avanzar, nos sumergimos en la difícil tarea de conquistar ese conocer de las cosas ignoradas para que, algún día en el futuro, podamos saber, al menos hacia dónde vamos.
Sabemos que el presente está cargado de pasado y que, el futuro, lo estará de presente. Si eso es así (que lo es), tratemos de mejorar este presente para que, el futuro, sea algo mejor de lo que hoy tenemos. Y, amigos, si queremos, podremos lograrlo.
Muchos de los pasajes aquí volcados han sido extraídos de la obra “La Aventura del Universo” de Timoty Ferris, profesor emérito de la Universidad de California que es un maestro indiscutible de la divulgación cientific, otros tienen otras fuentes y, alguna fracción del contenido puede ser de propia cosecha que, alguna cosa se va aprendiendo con el tiempo.
emilio silvera
Abr
6
Desde el pasado pero, ¡siempre hacia el futuro!
por Emilio Silvera ~ Clasificado en Física ~ Comments (1)
Ahora todos hablamos del LHC. Sin embargo, la historia de los aceleradores no comenzó con éste moderno y complejo conglomerado de sofisticadas estructuras que hacen posible que visitemos lugares muy lejanos en el corazón de la materia. Tendríamos que recordar al acelerador lineal también llamado LINAC (linear accelerator) es un tipo de acelerador que le proporciona a la partícula subatómica cargada pequeños incrementos de energía cuando pasa a través de una secuencia de campos eléctricos alternos.
Mientras que el generador de Van de Graaff proporciona energía a la partícula en una sola etapa, el acelerador lineal y el ciclotrón proporcionan energía a la partícula en pequeñas cantidades que se van sumando. El acelerador lineal, fue propuesto en 1924 por el físico sueco Gustaf Ising. El ingeniero noruego Rolf Wideröe construyó la primera máquina de esta clase, que aceleraba iones de potasio hasta una energía de 50.000 eV.
De cómo llegamos hasta los Quarks
La técnica de la interferometría de muy larga base a longitudes de onda milimétricas (mm-VLBI) ha permitido obtener imágenes de los motores centrales de las galaxias activas con una resolución angular de decenas de microsegundos de arco. Para aquellos objetos más cercanos (M87, SgrA) se obtienen resoluciones lineales del orden de las decenas de Radios de Schwarzschild, lo que permite estudiar con detalle único la vecindad de los agujeros negros super-masivos.
Veámos que nos cuenta: “Desde el pasado pero, ¡siempre hacia el futuro!”
Imagem cedida por Diamond Light Source
Acelerador de partículas construido en las instalaciones del Diamond Ligth Source en Oxfordshire (Inglaterra). Llamado la Fuente luminosa de diamante, el Diamond synchrotron comenzó a funcionar en enero de 2007. La luz que puede generar este artefacto es 100 mil millones de veces más brillante que un rayo X estándar médico.
Un acelerador de partículas (como todos sabemos) es, a grandes rasgos, una máquina que mediante campos electromagnéticos acelera partículas hasta que alcanzan velocidades inimaginables. Luego, por ejemplo, hacen chocar estas partículas y así se consigue saber de qué está formada la materia en sus partes más diminutas (mucho más diminutas que un átomo). Eso es lo que hace el LHC.
Sin embargo, en el caso de este acelerador, los científicos esperaban usar la luz del Diamond synchrotron para “leer” los textos antiguos que han sufrido el daño significativo. Porque los potentes rayos X permitirán hacerlo sin ni siquiera abrir el libro. El synchrotron emite un rayo X tan poderoso que, al incidir en una voluta, permite producir una imagen de 3-D del texto.
La técnica ya había sido aplicada satisfactoriamente en textos escritos con la tinta de hierro, que los escribanos comenzaron a usar en el siglo XII. Algunas de las tintas hechas con extractos vegetales y sales de hierro utilizadas en el Siglo XII deterioran el tipo de pergamino utilizado, imposibilitando la lectura de documentos valiosos. Simplemente he querido incluir esta introducción para que os hagais una idea de hasta donde puede llegar nuestro ingenio.
(ilustración de un nano robot)
Si hablamos de nuevos inventos en los campos más diversos, nos podríamos sorprender de lo que se ha conseguido en los últimos años que, desde una “mano robótica” capaz de realizar toda clase de movimientos, “El sexto sentido”, una interfaz gestual portable que permite la interacción entre los gestos y los movimientos naturales del cuerpo humano con una computadora, o, un Implantes de retina, que devuelve la visión a pacientes con degeneración macular y ceguera mediante implantes microelectrónicos. Entre los últimos inventos dedestaca una variedad de plástico hecha con orina de cerdo y lentes de contacto biónicos. Se inventa un proceso capaz de cultivar parte de un corazón humano a partir de células madre, una máquina que puede imprimir una novela completa de 300 páginas en tan solo 3 minutos y por un costo ínfimo, una batería que funciona con cualquier solución azucarada y enzimas de digestión de glucosa capaz de extraer electrones que crean electricidad…
Las nuevas tecnologías y los inventos que se están produciendo en el siglo XXI, harían abrir la boca por el asombro a los filósofos naturalistas del pasado que trataban de profundizar en el conocimiento de la Naturaleza. Ellos fueron los que pusieron las primeras piedras del Edificio que hoy, llamamos Ciencia.
Corazones e Hígados artificiales, el guante de braille para ciegos, o, yendo más allá…
Un “Diente telefónico”. Se trata de un minúsculo implante que se coloca en el diente molar y que mediante un complejo sistema de señales y vibraciones permite recibir llamadas telefónicas. Tejido artificial nanotecnológico, Parche hormonal anticonceptivo, o, esa invención que hace posible que con una pequeña gota nos permite descubrir si en una bebida se ha vertido alguna de las llamadas “drogas del depredador” como las GHB o la Ketamina. Estas drogas suelen utilizarse por violadores y secuestradores pues facilitan dicho crimen al desinhibir a la víctima. El “Motor a nanoescala”, lo suficientemente pequeño como para viajar en la espalda de un virus. Un dispositivo que administra medicamentos a través de ondas sonoras que sustituyen las inyecciones, siendo igual de efectivas. Plástico inteligente capaz de modificar su estructura ante la exposición de determinadas longitudes de onda. Un dispositivo móvil creado por Aqua Sciences que permite beber agua del aire. ¿Os imagináis lo que supondrá eso en la travesía de un desierto? INSCENTINEL inventa un sistema de entrenamiento para que abejas sean capaces de detectar bombas y explosivos.
Las cosas no llegaron por arte de magia… ¡muchas ideas hicieron falta!
Ahora miramos a nuestro alrededor y todo lo que vemos que ocurre nos parece lo normal, que las cosas son así. Sin embargo, habría que pensar -por ejemplo, en el ámbito de la física de partículas- que, el diluvio de estructuras sub-nucleares que desencadenó “el acelerador” de partículas, fue tan sorprende como los objetos celestes que descubrió el telescopio de Galileo. Lo mismo que pasó con la revolución galileana, con la venida de los aceleradores de partículas, la Humanidad adquirió unos conocimientos nuevos e insospechados acerca de cómo era el mundo, la naturaleza de la materia.
Que en este caso de los aceleradores se refería al “espacio interior” en lugar de al “espacio exterior” no los hacía menos profundos ni menos importantes. El descubrimiento de los microbios y del universo biológico invisible por Pasteur fue un descubrimiento similar y, ya puestos, haremos notar que pocos se acuerdan ya de Demócrito, aquel filósofo sontiente que, tomó prestado de los antiguos hindúes, la idea del á-tomo, la expresión “más pequeña de la materia” que era “indivisible”.
Ahora sabemos que Demócrito estaba equivocado y que el átomo, sí se puede dividir. Sin embargo, él señaló un camino y, junto a Empédocles, el que hablaba de “elementos” como agua, aire, fuego y tierra, para significar que eran los componentes, en la debida proporción de todo lo que existía…, junto a otros muchos, nos han traído hasta aquí. Así que, los inventos que antes se mencionaban, no han llegado porque sí, ha sido un largo camino, mucha curiosidad y mucho trabajo y, no lo olvidemos: ¡Observar, Imaginar y Experimentar!
Nos dimos cuenta y estaba claro que la búsqueda de la menor de las partículas requería que se expandiese la capacidad del ojo humano: primero lupas, después microscopios y, finalmente… ¡Aceleradores! que, utilizando energías inimaginables ( 14 TeV), nos llevaría hasta las entrañas de la materia que tratamos de conocer.
Todos estos experimentos en los aceleradores han posibilitado muchos de los avances que hoy día conocemos en los distintos campos del saber humano. Generalmente, cuando se habla de aceleradores de partículas, todos piensan en el Bosón de Higgs y cosas por el estilo. Sin embargo, las realidades prácticas de dichos ingenios.
“La “gran ciencia” (big science) genera tecnología, tecnología punta, genera industria, mucha industria, genera riqueza. Los grandes aceleradores de partículas, como el LHC del CERN, son ejemplos perfectos de ello. La tecnología de aceleradores de partículas ha permitido desarrollar dispositivos de implantación iónica que se utilizan para la fabricación de mejores semiconductores, para la fabricación prótesis de rodilla más duraderas, para la fabricación de neumáticos menos contaminantes, para el desarrollo de nuevas terapias contra el cáncer. Esto último gracias a que lo último de lo último en superimanes superconductores está en los grandes aceleradores. Esta tecnología ha permitido desarrollar y permitirá mejorar los potentes imanes necesarios en el diagnóstico clínico (como en resonancia magnética nuclear) y para terapias contra el cáncer basadas en haces de protones. Nos lo cuenta Elizabeth Clements, en “Particle physics benefits: Adding it up,” Symmetry, dec. 2008″ (Francis (th)E mule Science’s News).
Beneficios de la investigación básica en Física de Partículas: La tecnología desarrollada en los aceleradores de partículas tiene beneficios indirectos para la Medicina, la Informática, la industria o el medio ambiente. Los imanes superconductores que se usan para acelerar las partículas han sido fundamentales para desarrollar técnicas de diagnóstico por imagen como la resonancia magnética. Los detectores usados para identificar las partículas son la base de los PET, la tomografía por emisión de positrones (antipartícula del electrón). Y muchos hospitales utilizan haces de partículas como terapia contra el cáncer.
Describe la propiedad de un núcleo atómico para girar sobre su eje como un trompo, transformándolo en un pequeño imán. Los núcleos atómicos de hidrógeno, … La imagenología es la rama de la medicina que trata del diagnóstico morfológico empleando diferentes modalidades de visualización del cuerpo humano basado en imágenes obtenidas con radiaciones ionizantes u otras fuentes de energía, así como procedimientos diagnósticos y terapéuticos. Los equipos de imagenología requieren instalaciones especiales, como obra civil, instalación eléctrica, jaulas de Faraday, clima controlado, entre otras para llegar en forma rápida y segura a la detección de muchas enfermedades.
Con velocidades 10.000 veces mayor que una conexión típica, “The Grid” podrá enviar un catálogo completo de información desde Gran Bretaña a Japón en menos de 2 segundos. Esta red, creada en el centro de física de partículas CERN, puede proveer el poder necesario para transmitir imágenes holográficas; permitir juegos en línea con cientos de miles de personas, y ofrecer una telefonía de alta definición en video al precio de una llamada local.
Así, la World Wide Web (WWW), el ‘lenguaje’ en el que se basa Internet, fue creado en el CERN para compartir información entre científicos ubicados alrededor del mundo, y las grandes cantidades de datos que se producen motivan el desarrollo de una red de computación global distribuida llamada GRID. Los haces de partículas producidos en aceleradores tipo sincrotrón o las fuentes de espalación de neutrones, instrumentos creados para comprobar la naturaleza de la materia, tienen aplicaciones industriales en la determinación de las propiedades de nuevos materiales, así como para caracterizar estructuras biológicas o nuevos fármacos. Otras aplicaciones de la Física de Partículas son la fabricación de paneles solares, esterilización de recipientes para alimentos o reutilización de residuos nucleares, entre otros muchos campos.
También en el campo de la Astronomía, el LHC, nos puede ayudar a comprender cosas que ignoramos. Nos hemos preguntado sobre la existencia de estrellas de Quarks-Gluones, y, sobre el tema, algo nos ha dicho ya el Acelerador Europeo de Partículas que trata de llegar hasta “la materia oscura” y algunos otros enigmas que nos traen de cabeza.
No es extraño encontrarnos una mañana al echar una mirada a la prensa del día, con noticias como éstas:
Colisión de iones pesados registrada por el experimento ALICE. (Imagen: CERN.)
El acelerador europeo ha obtenido plasma de quarks–gluones, el primer estado de la materia tras el Big Bang.
“No todo son bosones de Higgs en las instalaciones del CERN. Aún hay muchas preguntas sobre el Universo y sus partículas que se pueden responder a base de colisiones de alta energía. Y en eso, el LHC es el mejor. Un grupo de investigadores del consorcio europeo ha realizado nuevas mediciones de la que creen que es el primer tipo de materia que hubo durante los instantes iniciales del universo. El plasma de quarks–gluones.
Los quarks y los gluones son, respectivamente, los ladrillos y el cemento de la materia ordinaria. Durante los primeros momentos tras el Big Bang, sin embargo, no estaban unidos constituyendo partículas —como protones o neutrones— sino que se movían libremente en estado de plasma. A base de colisionar iones de plomo —que es un átomo muy pesado— a velocidades cercanas a las de la luz, el LHC pudo recrear durante pequeños lapsos de tiempo las que se creen fueron las condiciones de los primeros momentos del universo.
El plasma de quarks–gluones es extremo y efímero. Por eso los investigadores han tenido que analizar los resultados de más de mil millones de colisiones para obtener resultados significativos.”
Eventos de colisión de 7 TeV visto por el detector LHCb. El experimento del LHCb en el LHC está bien ubicado para explorar el misterio de la antimateria. Crédito: LHC, CERN. Ya sabéis que, durante muchos años, la ausencia de antimateria en el Universo ha atormentado a los físicos de partículas y a los cosmólogos: mientras que el Big Bang debería haber creado cantidades iguales de materia y antimateria, no observamos ninguna antimateria primordial hoy en día. ¿Dónde ha ido? Los experimentos del LHC tienen el potencial de dar a conocer los procesos naturales que podrían ser la clave para resolver esta paradoja.
Cada vez que la materia es creada a partir de energía pura, se genera la misma cantidad de partículas y antipartículas. Por el contrario, cuando la materia y la antimateria se encuentran, se aniquilan mutuamente y producen luz. La antimateria se produce habitualmente cuando los rayos cósmicos chocan contra la atmósfera de la Tierra, y la aniquilación de materia y antimateria se observa durante los experimentos de física en los aceleradores de partículas.
Equipos de físicos en todo el mundo siguen analizando datos. Aquellas primeras colisiones de protones a la alta energía prevista de 7 Teraelectronvoltios (TeV), una potencia jamás alcanzada en ningún acelerador antes, nos puede traer noticias largamente esperadas y desvelar misterios, contestar a preguntas planteadas y, en definitiva, decirnos cómo es la Naturaleza allí, donde el ojo humano no puede llegar pero, si la inteligencia.
Lo cierto es que, todos tenemos que convenir en el hecho cierto de que, el LHC es el mayor experimento físico de la historia de la Ciencia y que, de seguro, nos dará la oportunidad de comprender muchas cuestiones que antes se nos aparecían oscuras e indistinguibles entre la bruma de esa lejanía infinitesimal de la cuántica. Ahora, tenemos una herramienta capaz de llevarnos hasta aquellos primeros momentos en los que se construyó la historia del universo y, si podemos, de esta manera “estar allí”, veremos, con nuestros propios ojos lo que pasó y por qué pasó de esa manera.
Toda esta larga exposición de temas, de alguna manera conectados, viene al caso para dejar claro que, aquellos detractores del LHC, no llevaban la razón y, sus protestas no tenían un contenido científico. El Acelerador de Partículas que llamamos abreviadamente LHC, nos ha dado y nos seguirá dando, muchos beneficios para toda la Humanidad.
emilio silvera
Mar
30
La Física es la llave del futuro
por Emilio Silvera ~ Clasificado en Física ~ Comments (0)
El Premio Nóbel de Fisica 2008 se ha concedido a una aportación al conocimiento fundamental de la materia y de sus interacciones: La ruptura espontánea de la simetría y la violación de la simetría CP. Está dotado con diez millones de coronas suecas (un millón de euros) y, como el resto de galardones Nobel, se entrega el 10 de diciembre.
Lo han recibido el estadounidense Yoichiro Nambu por un lado, y los nipones Makoto Kobayashi y Toshihide Maskawa por su contribución al conocimiento de las partículas subatómicas.
A Nambu, nacido en 1921, y que forma parte del prestigioso Instituto Enrico Fermi de EEUU, se le reconoce “su descubrimiento del mecanismo de la ruptura espontánea de simetría, en la física subatómica”.
A Kobayashi -del Acelerador de Alta Energía de Tsukuba (Japón)- y Maskawa -del Instituto Yukawa de Física Teórica, de la Universidad de Kyoto-, se les alaba su papel en el descubrimiento del origen de las rupturas de simetría, “que predicen la existencia de al menos tres familias de quarks en la naturaleza”. Ya son parte del modelo estándar
En 1960, Yoichiro Nambu formuló su descripción matemática de la ruptura espontánea de simetría, como parte de la teoría de la física de partículas. Este mecanismo oculta la verdadera sencillez y el orden de la naturaleza bajo una superficie en apariencia compleja.
El modelo de Nambu ha resultado de tanta utilidad en las últimas décadas, que ya forma parte del modelo estándar de física de partículas, que permite unificar en una sola teoría lo que se conoce de las partículas subatómicas y de tres de las cuatro fuerzas de la naturaleza: la interacción nuclear fuerte (responsable de la unión del núcleo y de los quarks dentro de cada partícula), la débil (fuerza transmutadota de unas partículas en otras y responsable de cambiar el sabor de un quark en otro, así permite convertir un protón en un neutrón para conseguir Helio a partir de Hidrógeno, reacción básica que mantiene encendido al Sol y de ciertas desintegraciones radiactivas) y por último del electromagnetismo.
Respecto a Kobayashi y Maskawa (nacidos en 1944 y 1941, respectivamente), son los responsables de haber formulado en fecha tan temprana como 1971 la explicación a otro fenómeno de nombre similar, pero independiente, las rupturas de simetría, que parecen haber existido desde la creación del universo. Sus cálculos teóricos obligaron a ampliar el modelo estándar de física de partículas, hasta acoger tres familias de quarks, de cuyos miembros se ha ido obteniendo constancia durante los últimos tiempos.
¿Pero qué es la ruptura espontánea de la simetría?
Pese a que creemos firmemente que las fuerzas de la naturaleza parecen iguales desde cualquier dirección desde la que observemos, hay situaciones que parecen contradecirlo. Es un mecanismo muy frecuente incluso en nuestra vida cotidiana. Así el agua totalmente igual en cualquier dirección, cristaliza al congelarse y al formar una red parece primar unas direcciones con respecto a otras. Imaginemos que fuéramos un ser que vive dentro de un imán, Hay unas direcciones distintas a otras y parece que las leyes cambian según hacia donde miremos. Si calentáramos el imán hasta que perdiera sus propiedades veríamos que no es así.
Algo similar creemos que sucede en nuestro Universo: está tan frío que parece que no se cumple la simetría inherente a las fuerzas. Creemos que todas son manifestaciones de una única que operaba al principio.
Además de esta existe una ruptura de la simetría más profunda: responsable de que nuestro universo la materia y la antimateria no se aniquilaran totalmente al comienzo. Gracias a eso estamos aquí: en la poquita diferencia de materia que no se aniquiló.
Simetría C: Si cambiamos cada partícula por su antipartícula (sólo cambiamos el signo) las leyes no cambian. No es así.
Simetría P: También creemos que debería comportarse igual nuestro Universo que su imagen especular, pero tampoco es así. De ahí el tópico de que los electrones son todos zurdos.
Determinados procesos cumplen ambos: no varían si cambiamos a la vez Simetría CP. Cambiando carga y en una imagen especular los procesos son indistinguibles. La fuerza electromagnética y la interacción fuerte se comportan así(cumplen la simetría CP) pero no así la interacción débil.
(1944). Japón, que descubrió el origen de la ruptura de simetría que predice la existencia de, al menos tres familias de Quarks en la Naturaleza.
Toshihide Maskawa
Yoichiro Nambu, descubrió el mecanismo de ruptura espontánea de la simetría
¿Por qué hay algo en vez de nada? ¿Por qué hay tantas partículas elementales diferentes? Estos laureados con el Premio Nobel de Física de presentaron ideas teóricas que nos suministran una comprensión más profunda de lo que sucede en el interior de los bloques más pequeños que forman la materia.
La naturaleza de las leyes de simetría se encuentran en el corazón de este asunto. O más bien, la ruptura de las simetrías, tanto las que parecen haber existido en nuestro universo desde el principio como aquellas que han perdido su simetría original en alguna parte del camino. De hecho, todos somos hijos de la simetría rota. Ello debió ocurrir inmediatamente después del Big Bang, hace unos 14.000 millones de años cuando fueron creadas la materia y la antimateria. El contacto de materia y antimateria es fatal para ambas, se aniquilan mutuamente y se transforman en radiación. Es evidente que la materia, al final, ganó la partida a la antimateria, de otra manera nosotros no estaríamos aquí. Pero estamos, y una pequeña desviación de la simetría perfecta parece que ha sido suficiente –un exceso de una partícula de materia por cada diez mil millones de partículas de antimateria fueron suficientes para hacer que nuestro mundo exista-. Este exceso de la materia fue la semilla de nuestro universo, lleno de galaxias, estrellas y planetas y, eventualmente, de vida. Pero lo que hay detrás de esta violación de la simetría en el cosmos es aún un gran misterio y un activo para seguir buscando lo que no sabemos.
La mayoría de los físicos piensa que el llamado mecanismo de Higgs es el responsable de que la simetría original entre fuerzas fuera destruido dando a las partículas sus masas en las primeras etapas del universo. El camino hacia ese descubrimiento fue trazado por Yoichiro Nambu quien, en 1960, fue el primero en introducir la violación espontánea de la simetría en la física de partículas. Es por este descubrimiento por el que se le concede el Premio Nobel de Física.
Tenemos algunos ejemplos banales de violación espontánea de la simetría en la vida diaria. Un lápiz en equilibrio sobre su punta lleva una existencia totalmente simétrica en la cual todas las direcciones son equivalentes. Pero esta simetría se pierde cuando cae -ahora sólo una dirección cuenta-. Por otro lado su condición es ahora más estable, el lápiz no puede volver a caer, ha llegado a su nivel más bajo de energía.
El modelo que tenenos de la física de partículas se llama Modelo Estándard y, nos habla de las interacciones entre partículas y las fuerzas o interraciones que están presentes, las leyes que rigen el Universo físico y que, no hemos podido completar al no poder incluir una de las fuerzas: La Gravedad. Claro que, no es esa la única carencia del Modelo, tiene algunas más y, a estas alturas, se va necesitando un nuevo Modelo, más completo y audaz, que incluya a todas las fuerzas y que no tengá parámetros aleatorios allí donde nuestros conocimientos no llegan.
La fealdad del Modelo Estándar puede contrastarse con la simplicidad de las ecuaciones de Einstein, en las que todo se deducía de primeros principios. Para comprender el contraste estético entre el Modelo Estándar y la teoría de la relatividad general de Einstein debemos comprender que, cuando los físicos hablan de “belleza” en sus teorías, realmente quieren decir que estas “bellas” teorías deben poseer al menos dos características esenciales:
- Una simetría unificadora.
- La capacidad de explicar grandes cantidades de datos experimentales con las expresiones matemáticas más económicas.
E = mc2 . Esta es la mejor prueba de lo que decimos arriba.
El Modelo Estándar falla en ambos aspectos, mientras que la relatividad general los exhibe, ambos, de manera bien patente. Nunca una teoría dijo tanto con tan poco; su sencillez es asombrosa y su profundidad increíble.De hecho, desde que se publicó en 1.915, no ha dejado de dar frutos, y aún no se han obtenido de ella todos los mensajes que contiene.
El principio director del modelo estándar dicta que sus ecuaciones son simétricas. De igual modo que una esfera ofrece el mismo aspecto desde cualquier punto de vista, las ecuaciones del modelo estándar subsisten sin variación al cambiar la perspectiva desde la que son definidas. Las ecuaciones permanecen invariables, además, cuando esta perspectiva se desplaza en distinta magnitud a diferentes puntos del espacio y el tiempo.
Al contrario de la relatividad general, la simetría del Modelo Estándar, está realmente formada empalmando tres simetrías más pequeñas, una por cada una de las fuerzas; el modelo es espeso e incómodo en su forma. Ciertamente no es económica en modo alguno. Por ejemplo, las ecuaciones de Einstein, escritas en su totalidad, sólo ocupan unos centímetros y ni siquiera llenaría una línea de esta página. A partir de esta escasa línea de ecuaciones, podemos ir más allá de las leyes de Newton y derivar la distorsión del espacio, el Big Bang y otros fenómenos astronómicos importantes como los agujeros negros. Por el contrario, sólo escribir el Modelo Estándar en su totalidad requeriría, siendo escueto, un par de páginas y parecería un galimatías de símbolos complejos sólo entendibles por expertos.
Los científicos quieren creer que la naturaleza prefiere la economía en sus creaciones y que siempre parece evitar redundancias innecesarias al crear estructuras físicas, biológicas y químicas.
La luz antigua absorbida por átomos de hidrógeno neutro podría usarse para probar ciertas predicciones de la Teoría de Cuerdas, dicen los cosmólogos de la Universidad de Illinois. Realizar tales medidas, sin embargo, requeriría que se construyese un gigantesco conjunto de radio telescopios en la Tierra, el espacio, o la Luna.
El matemático francés Henri Poincaré lo expresó de forma aún más franca cuando escribió: “El científico no estudia la Naturaleza porque es útil; la estudia porque disfruta con ello, y disfruta con ello porque es bella”
E. Rutherford, quien descubrió el núcleo del átomo (entre otras muchas cosas), dijo una vez: “Toda ciencia es o física o coleccionar sello”.Se refería a la enorme importancia que tiene la física para la ciencia, aunque se le olvidó mencionar que la física está sostenida por las matemáticas que la explica.
Pero, a pesar de todos sus inconvenientes, el Modelo Estándar, desde su implantación, ha cosechado un éxito tras otro, con sus inconvenientes y sus diecinueve parámetros aleatorios, lo cierto es que es lo mejor que tenemos por el momento para explicar las familias de partículas que conforman la materia y cómo actúan las fuerzas de la naturaleza, todas las fuerzas menos la gravedad; esa nos la explica a la perfección y sin fisuras las ecuaciones de Einstein de la relatividad general.
Hace tiempo que los físicos tratan de mejorar el Modelo Estándar con otras teorías más avanzadas y modernas que puedan explicar la materia y el espacio-tiempo con mayor amplitud y, sobre todo, incluyendo la gravedad. Así que retomando la teoría de Kaluza de la quinta dimensión, se propuso la teoría de super.gravedad en 1.976 por los físicos Daniel Freedman, Sergio Ferrara y Peter van Nieuwenhuizen, de la Universidad del Estado de Nueva York en Stoney Brook que desarrollaron esta nueva teoría en un espacio de once dimensiones.
Para desarrollar la superteoría de Kaluza-Klein en once dimensiones, uno tiene que incrementar enormemente las componentes del interior del Tensor métrico de Riemann (que Einstein utilizó en cuatro dimensiones, tres de espacio y una de tiempo para su relatividad general y más tarde, Kaluza, añadiendo otra dimensión de espacio, la llevó hasta la quinta dimensión haciendo así posible unir la teoría de Einstein de la gravedad, con la teoría de Maxwell del electromagnetismo), que ahora se convierte en el supertensor métrico de Riemann.
Hasta hoy, no se ha logrado, ni mucho menos, inventar una teoría de campo consistente totalmente unificadora que incluya la gravedad. Se han dado grandes pasos, pero las brechas «científicounificantes» siguen siendo amplias. El punto de partida ha sido siempre la teoría de la relatividad general y conceptos con ella relacionados, por la excelencia que manifiesta esa teoría para explicar la física gravitatoria macro-cósmica. El problema que se presenta surge de la necesidad de modificar esta teoría sin perder por ello las predicciones ya probadas de la gravedad a gran escala y resolver al mismo tiempo los problemas de la gravedad cuántica en distancias cortas y de la unificación de la gravedad con las otras fuerzas de la naturaleza.
Su tensor métrico es un tensor de rango 2 que se utiliza para definir … Sin embargo, en otras teorías se ha elevado el rango y se pueden definir múltiples universos de dimensiones más altas.
El tensor métrico se podría adaptar a las necesidades de la búsqueda estableciendo la multiplicidad de dimensiones que la teoría exigía para su desarrollo.
Más allá de lo que nos permiten captar nuestros sentidos físicos, hay que tener nuestra mente abierta a la posibilidad de que puedan existir otras realidades diferentes a lo que nos dicta nuestra experiencia, realidades capaces de ser descubiertas por la fuerza del intelecto cuando nos atrevemos a cuestionar aquello que creíamos como absoluto.
Esta nueva teoría de supergravedad pretendía la unificación de todas las fuerzas conocidas con la materia, y, como en un rompecabezas, encajarlas en el Tensor de Riemann tan solo con elevar el número de dimensiones que exigía más componentes y nos daba el espacio necesario para poder ubicar en sus apartados correspondientes, todas las fuerzas fundamentales y también la materia, la que podía satisfacer, casi en su totalidad, el sueño de Einstein.
A partir de aquí, de estas ecuaciones, surgió todo. Este fue el puerto de donde salió el bajel de la teoría de Kaluza-Gleim, la super-gravedad y supersimetría, la cuerda heterótica y la Teoría de cuerdas, todo ello, rematado con la finalmente expuesta, teoría M. También, con el nacimiento de esta ecuación que es la imagen que mejor refleja hasta dónde puede3 llegar el intelecto humano, comenzó la verdadera cosmología.
La supergravedad casi consigue satisfacer el sueño de Einstein de dar una derivación puramente geométrica de todas las fuerzas y partículas del universo. Al añadir la supersimetría al Tensor métrico de Riemann, la métrica se duplica en tamaño, dándonos la supersimetría de Riemann. Las nuevas componentes del súper tensor de Riemann corresponden a quarks y leptones, casi todas las partículas y fuerzas fundamentales de la naturaleza: la teoría de la gravedad de Einstein, los campos de Yang-Mills y de Maxwell y los quarks y leptones. Pero el hecho de que ciertas partículas no estén en esta imagen nos obliga a buscar un formalismo más potente:
La materia con todas las fuerzas fundamentales de la naturaleza. Los bosones intermediarios o partículas portadoras de las fuerzas como el fotón para el electromagnetismo, los gluones para la fuerza nuclear fuerte, las partículas W y Z para la nuclear débil y, en la partícula portadora de la gravedad, el gravitón, ponemos el signo de interrogación, ya que se sabe que esta ahí en algún sitio pero hasta la fecha no ha sido detectado.
Antes de continuar con la teoría de súper cuerdas, o con su versión más avanzada la teoría M, parece conveniente recordar que hasta el momento los ladrillos del universo eran los quarks, las partículas más pequeñas detectadas en los aceleradores del CERN y FERMILAB. Pero ¿están hechos de cosas más pequeñas?, eso no lo sabemos. El Modelo Estándar, menos avanzado que las otras teorías, nos dice que los quarks son las partículas más pequeñas y forman protones y neutrones constituyendo la formación interna del átomo, el núcleo. En la actualidad, nuestros aceleradores de partículas no tienen capacidad para ahondar más allá de los quarks y averiguar si a su vez, éstos están formados por partículas aún más pequeñas.
No podemos saber (aún) que es lo que pueda haber (si es que lo hay) más allá de los Quarks, los constituyentes de la materia más pequeños conocidos hasta el momento actual. Sin embargo, no se descarta que puedan existir partículas más simples dentro de los Quarks que, al fin y al cabo, no serían tan elementales.
Por otro lado, los físicos están casi seguros de que los leptones no están compuestos de partículas más pequeñas. Sin embargo, esta sospecha no se tiene en el caso de los quarks; no se sabe qué puede haber detrás de ellos. Tan sólo se ha llegado a de-confinarlos junto con los gluones y por un breve periodo de tiempo de los protones y neutrones que los mantenían aprisionados, formando – en esos breves instantes – una materia plasmosa. No es raro oír dentro de la comunidad científica a los físicos teóricos hablando de pentaquarks.
Como antes hemos comentado de pasada, el Modelo Estándar agrupa las partículas en familias:
Claro, son muchos más. Además de los Bariones, también forman parte de la familia hadrónica los mesones y la lista de unos y otros es larga y cada individuo, como es natural, tiene sus propias características que lo hacen único.
Hadrones: | Bariones: protón, neutrón , Lambda, omega, etc. |
Mesones: pión, kaón, psí, etc. | |
Quarks: | up, down, charmed, strange, top y botton |
Leptones: | electrón, muón y tau (y sus neutrinos asociados), neutrino electrónico, muónico y tauónico |
Y describe las interacciones que estas partículas tienen con las cuatro fuerzas fundamentales de la naturaleza, sobre todo con las nucleares fuerte y débil y la electromagnética; la gravedad se queda aparte del Modelo Estándar, ya que su incidencia con las partículas elementales es inapreciable como consecuencia de las infinitesimales masas de éstas, y ya sabemos que la gravedad se deja sentir y se hace presente cuando aparecen las grandes masas como planetas, estrellas y galaxias.
Grandes estructuras que vienen a ser como pequeños ”universos islas” en los que podemos estudiar, a menos tamaño, todo lo que en el Gran Universo puede pasar. Partiendo de la base de que las leyes del universo son las mismas en todas partes, podemos tomar cualquier región del mismo y ver que, allí está ocurriendo lo mismo que aquí ocurre, es decir, están presentes las fuerzas fundamentales: nucleares débiles y fuertes, electromagnetismo y Gravedad y, todo, absolutamente todo, funciona al ritmo que dichas leyes nos marcan.
Como el Modelo Estándar es limitado, los físicos buscan desesperadamente nuevas teorías que puedan corregir y perfeccionar este modelo. Así aparecieron las teorías de súper simetría, súper gravedad, súper cuerdas, y ahora por último, la teoría M propuesta por Edward Witten en 1.995 y que nos quiere explicar, de manera más perfecta, el universo desde su origen, cómo y por qué está conformado ese universo, las fuerzas que lo rigen, las constantes de la naturaleza que establecen las reglas, y todo ello, a partir de pequeños objetos infinitesimales, las cuerdas, que sustituyen a las partículas del modelo estándar que creíamos elementales.
Esas partículas súper simétricas que pronostican algunas teorías, aún no han sido observadas y se espera que en el LHC puedan aparecer algunas que, desde luego, si así ocurre, sería un buen adelanto para conocer el mundo que nos acoge y la Naturaleza del Universo.
Esta nueva teoría, permite además, unificar o incluir la gravedad con las otras fuerzas, como teoría cuántica de la gravedad, todo ello mediante una teoría estructurada y fundamentada con originalidad y compactificación de las cuatro fuerzas de la naturaleza y dejando un gran espacio matemático para eliminar anomalías o perturbaciones, y se propugna con coherencia quela cuerda es el elemento más básico de la estructura de la materia; lo que estaría bajo los quarks serían unas diminutos círculos semejantes a una membrana vibrante circular y de diferentes conformaciones.
Universos Paralelos, Teorías de Cuerdas, Súper gravedad, La Teoría M, y ¿Los pensamientos de la Mente, podrán dar para tanto?
Una vez se escucha sobre los fundamentos de la teoría cuántica uno no puede mas que sobrecogerse, ampliar la mente y galopar entre las múltiples posibilidades acerca de lo real e imaginario que por momentos y depende que conceptos se entrelazan intercambiables. Lo que llama la atención es que por mucho que hayan sido los físicos cuánticos más prestigiosos entre la sociedad científica los que hayan puesto sobre la mesa conceptos cuanto menos rimbombantes e inverosímiles como las multi-dimensiones, los universos paralelos, los efectos túneles y demás, sean los propios miembros de la academia los que grandilocuentemente se ofenden cuando se hace alusión al paralelismo evidente del comportamiento y extensión de la energía en referencia al universo preconizado por los místicos de muchas culturas. No tenemos los conocimientos necesarios para poder decir que no a esto o aquello, cada cosa tiene su lugar y tendremos que analizarlas muy a fondo y adentrarnos en esos mundos de misterio para poder decidir lo que es y lo que no puede ser.
Aquí hemos llegado a una región de la Física de las partículas donde la energía (por partícula) es mucho mayor de la que actualmente podemos estudiar en nuestros laboratorios. Claro que especulamos, pero con los datos de los que disponemos, la realidad estará muy cerca de la expuesta en el gráfico, y, en él se señalan energía que no están a nuestro alcance para conseguir lo que se quiere saber.
Ed Witten, en su trabajo, presentó amplias evidencias matemáticas de que las cinco teorías obtenidas de la primera revolución, junto con la más reciente conocida como la súper gravedad (súper cuerda después), en 11 dimensiones, eran de hecho parte de una teoría inherentemente cuántica y no perturbativa conocida como teoría M. Las seis teorías están conectadas entre sí por una serie de simetrías de dualidad T, S, y U. Además, de la teoría propuesta por Witten se encuentran implícitas muchas evidencias de que la teoría M no es sólo la suma de las partes, sino que se vislumbra un alentador horizonte que podría concluir como la teoría definitiva tan largamente buscada.
Los resultados de la segunda revolución de las súper cuerdas han demostrado que las cinco teorías de cuerdas forman parte de un solo marco unificado, llamado Teoría M.
Las súper cuerdas, en realidad, sólo es otra manera utilizada por los científicos a la búsqueda de la verdad que la Humanidad necesita y reclama para continuar con su propia evolución que, sin esos conocimientos, quedaría estancada.
Como se puede ver, las partículas implicadas en el Modelo Estándar están en un mundo microscópico de 10-17cm que sí dominan nuestros aceleradores, mientras que la cuerda está en una distancia de 10-33 cm que les está prohibida, allí no podemos llegar, no disponemos de la energía suficiente para ello.
Igual que con la energía disponible por el momento, nos pasa con las distancias, que también nos tiene paralizados en nuestros deseos de visitar mundos lejanos, no podemos, al no disponer de los medios necesarios para poder soslayar las distancias de tantos años-luz como tendríamos que recorrer. ¿Habrá otro camino?
Está muy claro para los físicos que, aunque teóricamente, en la Teoría de Súper cuerdas se pueden unir todas las fuerzas, todavía tenemos que seguir sosteniendo que la gravedad resulta una fuerza solitaria para todos los efectos, ya que ha resistido todos los intentos para saber, con certeza, si finalmente se podrá unir a las otras fuerzas de la Naturaleza. La gravedad está descrita por la teoría de la relatividad general de Einstein y tiene una naturaleza esencialmente geométrica. Se entiende como la curvatura del espacio-tiempo alrededor de un objeto masivo. En los gráficos, generalmente, se representa como un objeto pesado sobre una superficie fina y tensa (una pelota o bola pesada de jugar a los bolos que dejamos encima de una sábana extendida tirando de las cuatro esquinas). El peso de la bola (materia) hundirá la sábana (espacio-tiempo) con mayor intensidad en la distancia más cercana a donde se encuentre masa.
El espacio tiempo se distorsiona allí donde residen objetos pesados como los planetas, las estrellas, galaxias y cualesquiera otros cuerpos masivos.
La teoría de Einstein goza de una amplia aceptación debido a los aciertos macroscópicos que han sido verificados de manera experimental. Los más recientes están referidos a los cambios de frecuencia de radiación en púlsares binarios debido a la emisión de ondas gravitacionales, que actualmente estudia Kip S. Thorne, en relación a los agujeros negros. Entre las predicciones que Einstein propugna en su teoría se encuentran, por ejemplo, la existencia de ondas gravitacionales, que el universo está en constante expansión y que, por lo tanto, tuvo un inicio: el Big Bang o los agujeros negros.
Se trata de regiones donde la gravedad es tan intensa que ni siquiera la luz puede escapar de su atracción. Estas regiones se forman por el colapso gravitatorio de estrellas masivas en la etapa final de su existencia como estrella, acabado el combustible nuclear y no pudiendo fusionar hidrógeno en helio, fusiona helio en carbono, después carbono en neón, más tarde neón en magnesio y así sucesivamente hasta llegar a elementos más complejos que no se fusionan, lo que produce la última resistencia de la estrella contra la fuerza de gravedad que trata de comprimirla, se degeneran los neutrones como último recurso hasta que, finalmente, la estrella explota en supernova lanzando al espacio las capaz exteriores de su material en un inmenso fogonazo de luz; el equilibrio queda roto, la fuerza de expansión que contrarrestaba a la fuerza de gravedad no existe, así que, sin nada que se oponga la enorme masa de la estrella supermasiva, se contrae bajo su propio peso, implosiona hacia el núcleo, se reduce más y más, su densidad aumenta hasta lo inimaginable, su fuerza gravitatoria crece y crece, hasta que se convierte en una singularidad, un lugar en el que dejan de existir el tiempo y el espacio.
Allí no queda nada, ha nacido un agujero negro y a su alrededor nace lo que se ha dado en llamar el Horizonte de Sucesos, que es una región del espacio, alrededor del agujero negro que una vez traspasada no se podrá regresar; cualquier objeto que pase esta línea mortal, será literalmente engullida por la singularidad del agujero negro. De hecho, el telescopio espacial Hubble, ha enviado imágenes captadas cerca de Sagitario X-1, en el centro de nuestra galaxia, donde reside un descomunal agujero negro que, en las fotos enviadas por el telescopio, aparece como atrapa la materia de una estrella cercana y se la engulle.
.Ondas gravitacionales que se forman a partir de los agujeros negros que, en su dinámica cotidiana y que, actualmente, estamos tratando de captar para saber de un njhuevo Universo que nos diría muchas cosas de las que ocurren a partir de fenómenos que sabemos existen pero, que hasta el momento no hemos podido “leer”.
Esta es la fuerza que se pretende unir a la Mecánica Cuántica en la teoría de supercuerdas, es decir, que Einstein con su relatividad general que nos describe el cosmos macroscópico, se pueda reunir con Max Planck y su cuanto infinitesimal del universo atómico, lo muy grande con lo muy pequeño.
La llamada gravedad cuántica trata de fundir en una sola las dos teorías físicas más soberbias con las que contamos, la relatividad general y la mecánica cuántica, que en el estado actual de nuestro conocimiento parecen incompatibles. Su estudio, ahora mismo, es en algunos aspectos análogo a la física de hace cien años, cuando se creía en los átomos, pero se ignaraban los detalles de su estructura.
Hasta el momento, Einstein se ha negado a esta reunión y parece que desea caminar solo. Las otras fuerzas están presentes en el Modelo Estándar, la gravedad no quiere estar en él, se resiste.
De hecho, cuando se ha tratadode unir la mecánica cuántica con la gravedad, aunque el planteamiento estaba muy bien formulado, el resultado siempre fue desalentador; las respuestas eran irreconocibles, sin sentido, como una explosión entre materia y antimateria, un desastre.
Sin embargo, es preciso destacar que las nuevas teorías de súper-simetría, súper-gravedad, súper-cuerdas o la versión mas avanzada de la teoría M de Ed Witten, tienen algo en común: todas parten de la idea expuesta en la teoría de Kaluza-Klein de la quinta dimensión que, en realidad, se limitaba a exponer la teoría de Einstein de la relatividad general añadiendo otra dimensión en la que se incluían las ecuaciones de Maxwell del electromagnetismo.
Hasta hoy no se ha logrado, ni mucho menos, inventar una teoría de campo que incluya la gravedad. Se han dado grandes pasos, pero la brecha “científicounificante” es aún muy grande. El punto de partida, la base, ha sido siempre la relatividad y conceptos en ella y con ella relacionados, por la excelencia que manifiesta esa teoría para explicar la física gravitatoria cósmica. El problema que se plantea surge de la necesidad de modificar esta teoría de Einstein sin perder por ello las predicciones ya probadas de la gravedad a gran escala y resolver al mismo tiempo el problema de la gravedad cuántica en distancias cortas y de la unificación de la gravedad con las otras fuerzas de la naturaleza. Desde la primera década del siglo XX se han realizado intentos que buscan la solución a este problema, y que han despertado gran interés.
Después de la explosión científica que supuso la teoría de la relatividad general de Einstein que asombró al mundo, surgieron a partir e inspiradas por ella, todas esas otras teorías que antes he mencionado desde la teoría Kaluza-Klein a la teoría M.
Esas complejas teorías cuánticas nos quieren acercar al misterio que encierra la materia: ¡El Espíritu de la Luz!
Es de enorme interés el postulado que dichas teorías expone. Es de una riqueza incalculable el grado de complejidad que se ha llegado a conseguir para desarrollar y formular matemáticamente estas nuevas teorías que, como la de Kaluza-Klein o la de supercuerdas (la una en cinco dimensiones y la otra en 10 ó 26 dimensiones) surgen de otra generalización de la relatividad general tetradimensional einsteniana que se plantea en cuatro dimensiones, tres espaciales y una temporal, y para formular las nuevas teorías se añaden más dimensiones de espacio que, aunque están enrolladas en una distancia de Planck, facilitan el espacio suficiente para incluir todas las fuerzas y todos los componentes de la materia, tratando de postularse como la Teoría de Todo.
Dimensiones enrolladas ¿En un espacio-tiempo fractal? La Naturaleza sabe de eso
La Gran Teoría Unificada que todo lo explique es un largo sueño acariciado y buscado por muchos. El mismo Einstein se pasó los últimos treinta años de su vida buscando el Santo Grial de la teoría del todo en la física, unificadora de las fuerzas y de la materia. Desgraciadamente, en aquellos tiempos no se conocían elementos y datos descubiertos más tarde y, en tales condiciones, sin las herramientas necesarias, Einstein no podría alcanzar su sueño tan largamente buscado. Si aún viviera entre nosotros, seguro que disfrutaría con la teoría de súper-cuerdas o la teoría M, al ver como de ellas, sin que nadie las llame, surgen, como por encanto, sus ecuaciones de campo de la relatividad general.
La fuerza de la Naturaleza, en el universo primitivo del Big Bang, era una sola fuerza y el estado de la materia es hoy conocido como “plasma”; las enormes temperaturas que regían no permitía la existencia de protones o neutrones, todo era como una sopa de quarks. El universo era opaco y estaba presente una simetría unificadora.
Más tarde, con la expansión, se produjo el enfriamiento gradual que finalmente produjo la rotura de la simetría reinante. Lo que era una sola fuerza se dividió en cuatro. El plasma, al perder la temperatura necesaria para conservar su estado, se trocó en quarks que formaron protones y neutrones que se unieron para formar núcleos. De la fuerza electromagnética, surgieron los electrones cargados negativamente y que, de inmediato, fueron atraídos por los protones de los núcleos, cargados positivamente; así surgieron los átomos que, a su vez, se juntaron para formar células y éstas para formar los elementos que hoy conocemos. Después se formaron las estrellas y las galaxias que sirvieron de fábrica para elementos más complejos surgidos de sus hornos nucleares hasta completar los 92 elementos naturales que conforma toda la materia conocida. Existen otros elementos que podríamos añadir a la Tabla, pero estos son artificiales como el pluton.
La materia ha evolucionado hasta límites increíbles: ¡la vida! y, aún no sabemos, lo que más allá pueda esperar.
¿Quizás hablar sin palabras, o, Incluso algo más?
Estos conocimientos y otros muchos que hoy posee la ciencia es el fruto de mucho trabajo, de la curiosidad innata al ser humano, del talento de algunos y del ingenio de unos pocos, todo ello después de años y años de evolución pasando los descubrimientos obtenidos de generación en generación.
¿Cómo habría podido Einstein formular su teoría de la relatividad general sin haber encontrado el Tensor métrico del matemático alemán Riemann?
¿Qué formulación del electromagnetismo habría podido hacer James C. Maxwell sin el conocimiento de los experimentos de Faraday?
La relatividad especial de Einstein, ¿habría sido posible sin Maxwell y Lorentz?
¿Qué unidades habría expuesto Planck sin los números de Stoney?
En realidad… ¿Cómo comenzaría todo? Mientras encontramos la respuesta, observamos como el Universo se expande y se vuelve viejo y fe0
Así podríamos continuar indefinidamente, partiendo incluso, del átomo de Demócrito, hace ahora más de dos milenios. Todos los descubrimientos e inventos científicos están apoyados por ideas que surgen desde conocimientos anteriores que son ampliados por nuevas y más modernas formulaciones.
Precisamente, eso es lo que está ocurriendo ahora con la teoría M de las supercuerdas de Witten. Él se inspira en teorías anteriores que, a su vez, se derivan de la original de A. Einstein que pudo surgir, como he comentado, gracias al conocimiento que en geometría aportó Riemann con su tensor métrico.
emilio silvera
Mar
26
Cosas curiosas (si quieres pensar…pasa)
por Emilio Silvera ~ Clasificado en Física Cuántica ~ Comments (2)
Si hablamos de Física podemos pensar en la constante de Planck en sus dos versiones, h y ħ; en la igualdad masa-energía de Einstein; la Constante gravitacional de Newton, la constante de estructura fina (α = 2Π e² /137); y, el radio del electrón, por ejemplo.
¿Habéis pensado en lo que llevan encerrado sus mensajes?
Es verdaderamente meritorio el enorme avance que en tan poco tiempo ha dado la Humanidad, en el campo de la Física y otras ramas del saber.
En poco más o menos, un siglo y medio, se ha pasado de la oscuridad a una claridad, no cegadora aún, pero sí, aceptable. Son muchos los secretos de la Naturaleza física que han sido desvelados y, el ritmo, parece que crece de manera exponencial, y, en algunos campos, se cumple la ley de Moore.
Eso que llamamos ¡El Tiempo!, tal como lo concebimos es un preciado bien, está a nuestro favor. Sólo tenemos que ir pasando el testigo para alcanzar las metas propuestas.
Avanzamos en todos los campos
Pongamos nuestras esperanzas en que no seamos tan irresponsables como para estropearlo todo. En el estudio del Espacio exterior cada día damos un paso más hacia adelante, vamos conociendo con más certeza la realidad del Universo que nos acoge, y, aunque todavía nos queda muchísimo camino por recorrer, lo cierto es que no se para en la investigación y se preparan misiones hacia los mundos cercanos para ir conociendo nuestro entorno que… ¿Quién sabe? En el futuro aún lejano nos podría ofrecer una salida.
En estudio están muchos de estos proyectos
Si estoy escribiendo, concentrado, en mis cosas de la Física, de la Astronomía, la Gravedad o el electromagnetismo, pongamos por ejemplo, me aíslo y ni oigo los ruidos que a mi alrededor se puedan producir por el desenvolvimiento de la vida cotidiana.
Hay cuestiones sencillas de entender para los iniciados y, a veces, muy complejas para la gente corriente. Por tal motivo, si escribo sobre estos interesantes temas, mi primera preocupación es la de buscar la sencillez en lo que explico. No siempre lo consigo.
Mar
26
¡La Física! Los caminos de la Naturaleza
por Emilio Silvera ~ Clasificado en Física ~ Comments (0)
Escuchar a Edward Wittin hablar sobre Física, puede ser un viaje alucinante que nos lleve hacia el futuro que está por llegar. Él es el autor de la Teoría M de cuerdas en la que ha unificado todas las versiones de supersimetría, supergravedad, cuerda heterótica, supercuerdas y demás. Se avanza sin descanso pero, seguimos sin poder verificar de forma experimental. Se dice que esta teoría esta adelantada a su tiempo.
Aunque el perfeccionamiento matemático introducido por la teoría de cuerdas ha alcanzado alturas de vértigo y ha sorprendido a los matemáticos, los críticos de la teoría aún la señalan como su punto más débil. Cualquier teoría, afirman, debe ser verificable. Puesto que ninguna teoría definida a la energía de Planck de 1019 miles de millones de eV es verificable, ¡la teoría de supercuerdas no es realmente una teoría!
Con esa simple formula, Planck no dijo la energía que se necesitaba para verificar la teoría de cuerdas, es decir 1019 GeV, y, desgraciadamente, esa energía, de momento, no es de este mundo.
¡Es todo tan complejo! La topología nos dará algunas respuestas y, seguramente, las funciones modulares de Ramanujan también podría tener el derecho a voto en esto de la teoría de cuerdas.
No perturbativa
La función e−1/x². La serie de Taylor es idénticamente cero, pero la función no está.
“En matemática y en física, una función matemática o proceso no perturbativo es uno que no se puede describir con precisión por la teoría de la perturbación. Un ejemplo es la función de
.
La serie de Taylor en x = 0 para esta función es exactamente cero a todas las órdenes en la teoría de perturbaciones, pero la función es distinto de cero si x ≠ 0.
La implicancia de esto para la física es que hay algunos fenómenos que son imposibles de entender por la teoría de perturbaciones, independientemente del número de órdenes de la teoría de perturbaciones que utilizamos. El instantón es un ejemplo.”
El principal problema es teórico más que experimental. Si fuéramos suficientemente inteligentes, podríamos resolver exactamente la teoría y encontrar la verdadera solución no perturbativa de la teoría. Sin embargo, esto no nos excusa de encontrar algún medio por el que verificar experimentalmente la teoría; debemos esperar señales de la décima dimensión.
¿La décima dimensión?
“¡Qué extraño sería que la teoría final se descubriera durante nuestra vida! El descubrimiento de las leyes finales de la naturaleza marcará una discontinuidad en la historia del intelecto humano, la más abrupta que haya ocurrido desde el comienzo de la ciencia moderna en el siglo XVII. ¿Podemos imaginar ahora como sería?”
Steven Weinberg
¿Es la belleza un principio físico?
Ni en este monstruo de la Ingeniería y la técnica actual podríamos alcanzar las energías de Planck. Queda muy lejos de la posibilidad humana y, no sabemos si, alguna inteligencia extraterrestre la habrá podido conseguir. Estamos hablando de las fuerzas de la creación.
Aunque la teoría de supercuerdas nos da una formulación convincente de la teoría del universo (de todo lo que existe, incluyendo el espacio, el tiempo y la materia), el problema fundamental es que un test experimental de la teoría está más allá de nuestra tecnología actual. De hecho, la teoría predice que la unificación de todas las fuerzas ocurre a la energía de Planck, de 1019 miles de millones de electronvoltios (eV), que es alrededor de mil billones de veces mayor que las energías actualmente disponibles en nuestros aceleradores de partículas.
Hemos llegado a la energía de 14 TeV, muy poca cosa para poder llegar a las cuerdas
David Gross, uno de los autores de la versión de la cuerda heterótica que se desarrolla en 26 dimensiones. Incorporada más tarde, por Witten a la Teoría M, compendio de todas las anteriores.
El físico David Gross (el del cuarteto de cuerdas de Princeton), al comentar el coste de generar esta energía fantástica, dice: “No hay suficiente dinero en las tesorerías de todos los países del mundo juntos. Es verdaderamente astronómica“.
“La formulación de la cuerda heterótica por el llamado “cuarteto de cuerdas de Princeton” (David Gross, Jeffrey Harvey, Emil Martinec y Ryan Rohm), el modelo que dominó la fenomenología de supercuerdas hasta la “segunda revolución” en 1994.”
Esto resulta decepcionante, porque significa que la verificación experimental, el motor que hace progresar la física, ya no es posible en esta generación actual de máquinas o con cualquier generación de máquinas en un futuro previsible. Esto significa, a su vez, que la teoría decadimensional no es una teoría en el sentido usual, porque es inverificable dado el actual estado tecnológico de nuestro planeta. Nos quedamos entonces con la pregunta: ¿Es la belleza, por sí misma, un principio físico que pueda sustituir la falta de verificación experimental?
Las ecuaciones matemáticas representan algunas de las leyes más complejas que gobiernan el Universo y todo lo que hay en ello.
Se necesita años de experiencia para entender las ecuaciones más profundas y muchas de ellas son tan complejas que son difíciles de traducir a un lenguaje normal.
Sin embargo, esto no significa que no podamos apreciar su belleza.
El concepto de belleza es dispar, no todos aprecian la belleza de la misma manera, y, asimilar la belleza a un principio físico de la Naturaleza me parece banal, ya que, esa belleza, esté donde esté, es, también, Naturaleza.
Para agitar más aún la controversia, Glashow escribió incluso un poema que termina así:
“La Teoría de Todo, si uno no se arredra,
Podría ser algo más que un caleidoscopio de cuerdas.
Aunque algunas cabezas se hayan vuelto viejas y escleróticas,
No hay que confiar sólo en las cosas heteróticas,
Seguid nuestro consejo y no cedáis la partida:
El libro no está acabado, la última palabra no es conocida”.
Glasgow ha jurado (sin éxito) mantener estas teorías fuera de Harvard, donde él enseña. Pero admite que a menudo siente que es superado en su deseo y la teoría de supercuerdas se cuela por todas las rendijas de la universidad y, además, sus puntos de vista no son compartidos por otros Nobel como Murray Gell-Mann y Steven Weinberg que se decantan en el sentido de que la teoría de supercuerdas proporciona nuestra única fuente actual de candidatos para una teoría final con enormes señales reales de autenticidad. ¿Por qué sino de su interior surgen las ecuaciones de Einstein de la relatividad general y el número mágico 24 de Ramanujan y sus funciones modulares, que al ser generalizadas se convierten en 8 y a las que la relatividad añade 2, para finalmente exigir 10 dimensiones? Los físicos no creen en casualidades pero sí en causalidades; si algo ocurre es debido a lo que existió, al suceso anterior que dio lugar al suceso presente, y que dará lugar al suceso futuro.
Srinivasa Ramanujan
El matemático indio más extraño que podía pasarse el día sin levantar la cabeza escribiendo teoremas que ni los mayores matemáticos del momento sabían descifrar. Sus funciones modulares encierran mensajes que están aún por ser descubiertos. ¿Qué nos dirán?
Fue una verdadera pena que los políticos de EEUU dieran al traste con el proyecto SSC (Supercolisionador Superconductor) por su enorme coste de más de 11 mil millones de dólares para construirlo en las afueras de Dallas, Texas, con una circunferencia de 85 Km y rodeado de enormes bobinas magnéticas donde los físicos habrían podido verificar de manera indirecta la teoría decadimensional, además de haber encontrado partículas exóticas tales como la misteriosa partícula de Higgs predicha por el Modelo Estándar. Es la partícula de Higgs la que genera la ruptura de simetría y es por lo tanto el origen de la masa de los quarks. Por consiguiente, la anulación de este proyecto del supercolisionador de partículas nos ha privado de encontrar el “origen de la masa”. Todos los objetos que tienen peso deben su masa a la partícula de Higgs. Incluso, había una posibilidad de que el SSC encontrara partículas exóticas más allá del Modelo Estándar, como “axiones”, que podrían haber ayudado a explicar la materia oscura. También el gravitón, la partícula mediadora en la gravedad, está pendiente de ser encontrada.
Bueno, es posible que aquella decepción sea compensada con el LHC que ahora trabajará a 8 TeV y, posiblemente, para el 2.013, habrá encontrado el Bosón de Higgs que cambiaría el Modelo Estándar de la Física de partículas y…otras cosas.
En aquellos momentos se podían leer comentarios como este:
“Puesto que el super-colisionador no se construirá nunca, y por lo tanto nunca detectará partículas que sean resonancias de baja energía o vibraciones de la supercuerda, otra posibilidad consiste en medir la energía de rayos cósmicos, que son partículas subatómicas altamente energéticas cuyo origen es aún desconocido, pero que debe estar en las profundidades del espacio exterior más allá de nuestra galaxia. Por ejemplo, aunque nadie sabe de dónde vienen, los rayos cósmicos tienen energías mucho mayores que cualquier cosa encontrada en nuestros laboratorios de pruebas.”
Los rayos cósmicos son impredecibles en cuanto a su energía aleatoria. Hace ya aproximadamente un siglo que fueron descubiertos por un padre jesuita de nombre Theodor Wolf en lo alto de la Torre Eiffel en París. Desde entonces, el conocimiento adquirido de estos rayos es bastante aceptable; se buscan y miden mediante el envio de contadores de radiación en cohetes e incluso en satélites a gran altura alrededor del planeta Tierra para minimizar agentes interceptores como los efectos atmosféricos que contaminan las señales. Cuando los rayos energéticos, altamente energéticos, inciden en la atmósfera, rompen los átomos que encuentran a su paso y los fragmentos que se forman caen a tierra donde son detectados por aparatos colocados al efecto en la superficie.
Hercules X-1
El detector de Utah, a unos 140 Km al suroeste de Salt Lake City, es lo suficientemente sensible como para detectar la procedencia, el origen de los rayos cósmicos más energéticos. Hasta el momento, Cygnus X-3 y Hércules X-1 han sido identificados como poderosos emisores de rayos cósmicos. Probablemente son grandes estrellas de neutrones, o incluso agujeros negros en rotación engullendo a sus estrellas vecinas que, inocentes, han osado traspasar el horizonte de sucesos. Cuando el material de la estrella traspasa ese punto de no regreso, crea un gran vórtice de energía y escupe cantidades gigantescas de radiación (por ejemplo, protones) al espacio exterior.
Muchas son las fuentes detectadas de rayos cósmicos a lo largo del Universo. Los rayos cósmicos son partículas que llegan desde el espacio y bombardean constantemente la Tierra desde todas direcciones. La mayoría de estas partículas son protones o núcleos de átomos. Algunas de ellas son más energéticas que cualquier otra partícula observada en la naturaleza. Los rayos cósmicos ultra-energéticos viajan a una velocidad cercana a la de la luz y tienen cientos de millones de veces más energía que las partículas producidas en el acelerador más potente construido por el ser humano.
Hasta la fecha, el rayo cósmico más energético detectado tenía una energía de 1020 electrón voltios. Esta cifra supone una increíble energía diez millones de veces mayor de la que se habría producido en el SSC o ahora el LHC. Dentro de este siglo, seguramente, será difícil alcanzar con nuestras máquinas, energías aproximadas. Aunque esta fantástica energía es todavía cien millones de veces menor que las energías necesarias para sondear la décima dimensión, se espera que energías producidas en el interior profundo de los agujeros negros en nuestra galaxia se acercaran a la energía de Planck. Con grandes naves espaciales en orbita deberíamos ser capaces (seremos) de sondear en lo más profundo de estas estructuras gigantescas de fuentes energéticas que, abundantemente, están repartidas a lo largo y ancho del universo.
Los rayos cósmicos están presentes por todo el Universo allí donde se producen sucesos de grandes energías, como radio-galaxias, explosiones supernovas, e incluso, en colisiones de estrellas de neutrones.
Según una teoría favorita, la mayor fuente de energía dentro de nuestra galaxia (mucho más allá de cualquier cosa imaginable), está en el mismo corazón de la Vía Láctea, en el centro, a 30.000 años luz de nuestro Sistema Solar, y puede constar de millones de agujeros negros.
En física nada se puede descartar, la inaccesibilidad de hoy a la energía de Planck se puede suplir por descubrimientos inesperados que, poco a poco, nos lleve cada vez más cerca de ella, hasta que finalmente tengamos el conocimiento y la tecnología necesarias para poder alcanzarla.
Sabemos exactamente de qué están compuestas las estrellas del cielo que, en las que por cierto, exista una gran variedad de elementos, no todas están hechas de la misma materia dependiendo a qué generación puedan pertenecer. Estudiando las líneas espectrales sabemos qué elementos están allí presentes,
No olvidemos que en el siglo XIX, algunos científicos declararon que la composición de las estrellas estaría siempre fuera del alcance del experimento, y que la única manera que tendríamos de conocerlas sería la de mirar al cielo y verlas allí, inalcanzables como puntos de luz brillantes y lejanos en la oscuridad del vacío del cosmos. Sin embargo, podemos decir hoy, a comienzos del siglo XXI, año 2.008, que no sólo podemos saber la composición de las estrellas, sino también como nacen y mueren, las distancias que los separan de nosotros y un sin fin de datos más.
De la misma manera que sabemos que el Sol será Gigante roja primero y enana blanca después
Particularmente creo que el ser humano es capaz de realizar todo aquello en lo que piensa dentro de unos límites racionales. Podremos, en un futuro no muy lejano, alargar de manera considerable la media de vida. Podremos colonizar otros planetas y explotar recurso mineros en las lunas de nuestro Sistema Solar; los turistas irán al planeta Marte o a las lunas Ganímedes o Europa. Los transportes de hoy serán reliquias del pasado y nos trasladaremos mediante sistemas de transportes más limpios, rápidos y exentos de colisiones. Tendremos computadoras de cifrado cuántico que harán más seguras las comunicaciones y el intercambio de datos será realmente el de la velocidad de c, así en todos los campos del saber humano.
Sí, nuestra Mente está unida al Universo por los hilos invisibles del electromagnetismo. Formamos parte de él, una de las partes que piensan y conscientes tratan de formular preguntas que nos hagan entender.
La mente humana, conectada al Universo del que forma parte, evoluciona sin cesar y, llegado el momento, podría tener una gran cantidad de respuestas que, desde luego, necesitamos conocer para sobrevivir en este complejo y vasto Cosmos.
Estamos inmersos en un avance exponencial, imparable en todos los campos del saber humano
Otro ejemplo de una idea “inverificable” la tenemos en la existencia del átomo. En el siglo XIX, la hipótesis atómica se reveló como el paso decisivo en la comprensión de las leyes de la química y la termodinámica. Sin embargo, muchos físicos se negaban a creer que los átomos existieran realmente, los aceptaban como un concepto o herramienta matemática para operar en su trabajo que, por accidente, daba la descripción correcta del mundo.
Hoy somos todavía incapaces de tomar imágenes directas del átomo debido al principio de incertidumbre de Heisemberg, aunque ahora existen métodos indirectos. En 1.905, Einstein proporcionó la evidencia más convincente, aunque indirecta, de la existencia de átomos cuando demostró que el movimiento browniano (es decir, el movimiento aleatorio de partículas de polvo suspendidas en un líquido) puede ser explicado como colisiones aleatorias entre las partículas y los átomos del líquido.
Albert Einstein, había demostrado la existencia de los átomos. Esto lo hizo gracias al siguiente problema: ¿por qué los granos de polen “saltan” en el agua?. Einstein llegó a la conclusión de que esto sólo podía ser posible si los átomos existían, y esto se comprobó por las exactísimas predicciones que se lograban con los cálculos de Einstein sobre este extraño movimiento: el movimiento Browniano.
Por analogía, podríamos esperar la confirmación experimental de la física de la décima dimensión utilizando métodos indirectos que aún ni se han inventado o descubierto. En lugar de fotografiar el objeto que deseamos, quizá nos conformaríamos, de momento, con fotografiar la “sombra” del mismo.
emilio silvera