Ago
30
¡Cuántas maravillas! Y, nuestra Mente, entre ellas
por Emilio Silvera ~ Clasificado en Física ~ Comments (0)
Parafraseando a Hilbert: ¡Tenemos que saber, y sabremos!
En la tumba de David Hilbert (1862-1943), en el cementerio de Gotinga (Alemania), dice:
“Debemos saber. Sabremos”.
Hilbert nos hacía su planteamiento que era obtener la respuesta a tres importantes preguntas:
- ¿Son las matemáticas completas, es decir cualquier proposición puede ser probada o rechazada?
- ¿Son las matemáticas consistentes, es decir no es posible demostrar algo falso?
- ¿Son las matemáticas decidibles, es decir cualquier proposición se puede demostrar como cierta o falsa tras una secuencia finita de pasos?”
La importancia de la Simetría en la Naturaleza. Y, no digamos de saber emplear la lógica
No sería descabellado decir que las simetrías que vemos a nuestro alrededor, desde un arco iris a las flores y a los cristales, pueden considerarse en última instancia como manifestaciones de fragmentos de la teoría deca-dimensional original. Riemann y Einstein habían confiado en llegar a una comprensión geométrica de por qué las fuerzas pueden determinar el movimiento y la naturaleza de la materia. Por ejemplo, la fuerza de Gravedad generada por la presencia de la materia, determina la geometría del espacio-tiempo.
La teoría de cuerdas plantea que las partículas subatómicas – electrones, fotones, quarks… – no serían puntuales, sino que estados vibracionales en forma de pequeñas cuerdas o filamentos. A veces parece que la ciencia tiene las respuestas a todos los fenómenos que ocurren en nuestro planeta y en el Universo
Dado el enorme poder de sus simetrías, no es sorprendente que la teoría de supercuerdas sea radicalmente diferente de cualquier otro de física. De hecho, fue descubierta casi por casualidad. Muchos físicos han comentado que si este accidente fortuito no hubiese ocurrido, entonces la teoría no se hubiese descubierto hasta bien entrado el siglo XXI. Esto es así porque supone una neta desviación de todas las ideas ensayadas en este siglo. No es una extensión natural de tendencias y teorías populares en este siglo que ha pasado; permanece aparte.
Por el contrario, la teoría de la relatividad general de Einstein tuvo una evolución normal y lógica. En primer lugar, su autor, postula el principio de equivalencia. Luego reformuló principio físico en las matemáticas de una teoría de campos de la gravitación basada en los campos de Faraday y en el tensor métrico de Riemann. Más tarde llegaron las “soluciones clásicas”, tales el agujero negro y el Big Bang. Finalmente, la última etapa es el intento actual de formular una teoría cuántica de la gravedad. Por lo tanto, la relatividad general siguió una progresión lógica, un principio físico a una teoría cuántica.
Geometría → teoría de campos → teoría clásica → teoría cuántica.
Contrariamente, la teoría de supercuerdas ha estado evolucionando hacia atrás su descubrimiento accidental en 1.968. Esta es la razón de que nos parezca extraña y poco familiar, estamos aún buscando un principio físico subyacente, la contrapartida del principio de equivalencia de Einstein.
La teoría nació casi por casualidad en 1.968 cuando dos jóvenes físicos teóricos, Gabriel Veneziano y Mahiko Suzuki, estaban hojeando independientemente libros de matemáticas. Figúrense ustedes que estaban buscando funciones matemáticas que describieran las interacciones de partículas fuertemente interactivas. Mientras estudiaban en el CERN, el Centro Europeo de Física Teórica en Ginebra, Suiza, tropezaron independientemente con la función beta de Euler, una función matemática desarrollada en el S. XIX por el matemático Leonhard Euler. Se quedaron sorprendidos al que la función beta de Euler ajustaba casi todas las propiedades requeridas para describir interacciones fuertes de partículas elementales.
Función beta. Representación de la función valores reales positivos de x e y.
Según he leído, durante un almuerzo en el Lawrence Berkeley Laboratory en California, con una espectacular vista del Sol brillando sobre el puerto de San Francisco, Suzuki le explicó a Michio Kaku mientras almorzaban la excitación de , prácticamente por casualidad, un resultado parcialmente importante. No se suponía que la física se pudiera hacer de ese modo casual.
Tras el descubrimiento, Suzuki, muy excitado, mostró el hallazgo a un físico veterano del CERN. Tras oír a Suzuki, el físico veterano no se impresionó. De hecho le dijo a Suzuki que otro físico joven (Veneziano) había descubierto la misma función unas semanas antes. Disuadió a Suzuki de publicar su resultado. Hoy, esta función beta se conoce con el de modelo Veneziano, que ha inspirado miles de artículos de investigación iniciando una importante escuela de física y actualmente pretende unificar todas las leyes de la física.
Gabriele Veneziano
Mahiko Suzuki
En 1.970, el Modelo de Veneziano-Suzuki (que contenía un misterio), fue parcialmente explicado cuando Yoichiro Nambu, de la Universidad de Chicago, y Tetsuo Goto, de la Nihon University, descubrieron que una cuerda vibrante yace detrás de sus maravillosas propiedades. Así que, como la teoría de cuerdas fue descubierta atrás y por casualidad, los físicos aún no conocen el principio físico que subyace en la teoría de cuerdas vibrantes y sus maravillosas propiedades. El último paso en la evolución de la teoría de cuerdas (y el primer paso en la evolución de la relatividad general) aún está pendiente de que alguien sea capaz de darlo.
Así, Witten dice:
“Los seres humanos en el planeta tierra nunca dispusieron del marco conceptual que les llevara a concebir la teoría de supercuerdas de manera intencionada, surgió por razones del azar, por un feliz accidente. Por sus propios méritos, los físicos c del siglo XX no deberían haber tenido el privilegio de estudiar esta teoría muy avanzada a su tiempo y a su conocimiento. No tenían (ni tenemos mismo) los conocimientos y los prerrequisitos necesarios para desarrollar dicha teoría, no tenemos los conceptos correctos y necesarios.”
¿Se podrá verificar la Teoría de cuerdas? Sicen que se necesitaría la energía de 1019 GeV Lo que no tenemos
Actualmente, como ha quedado dicho en este mismo , Edwar Witten es el físico teórico que, al frente de un equipo de físicos de Princeton, lleva la bandera de la teoría de supercuerdas con aportaciones muy importantes en el desarrollo de la misma. De todas las maneras, aunque los resultados y avances son prometedores, el camino por andar es largo y la teoría de supercuerdas en su conjunto es un edificio con muchas puertas cerradas de las que no tenemos las llaves acceder a su interior y mirar lo que allí nos aguarda.
Ni con colección de llaves podremos abrir la puerta que nos lleve a la Teoría cuántica de la gravedad que, según dicen, subyace en la Teoría M, la más moderna versión de la cuerdas expuesta por E. Witten y que, según contaron los que estuvieron presentes en su presentación, Witten les introdujo en un “universo” fascinante de inmensa belleza que, sin embargo, no puede ser verificado por el experimento.
El problema está en que nadie es lo suficientemente inteligente para resolver la teoría de campos de cuerdas o cualquier otro enfoque no perturbativo de teoría. Se requieren técnicas que están actualmente más allá de nuestras capacidades. Para encontrar la solución deben ser empleadas técnicas no perturbativas, que son terriblemente difíciles. Puesto que el 99 por ciento de lo que conocemos sobre física de altas energías se basa en la teoría de perturbaciones, esto significa que estamos totalmente perdidos a la hora de encontrar la verdadera solución de la teoría.
¿Por qué diez dimensiones?
Uno de los secretos más profundos de la teoría de cuerdas, que aún no es bien comprendido, es por qué está definida sólo en diez, once y veintiséis dimensiones. Si calculamos cómo se rompen y se vuelven a juntar las cuerdas en el espacio N-dimensional, constantemente descubrimos que pululan términos absurdos que destruyen las maravillosas propiedades de la teoría. Afortunadamente, estos términos indeseados aparecen multiplicados por (N-10). Por consiguiente, para hacer que desaparezcan estas anomalías, no tenemos otra elección cuántica que fijar N = 10. La teoría de cuerdas, de hecho, es la única teoría cuántica conocida que exige completamente que la dimensión del espacio-tiempo esté fijada en un único, el diez.
Por desgracia, los teóricos de cuerdas están, por el momento, completamente perdidos explicar por qué se discriminan las diez dimensiones. La respuesta está en las profundidades de las matemáticas, en un área denominada funciones modulares.
Al manipular los diagramas de lazos1 de Kikkawa, Sakita y Virasoro creados por cuerdas en interacción, allí están esas extrañas funciones modulares en las que el 10 aparecen en los lugares más extraños. Estas funciones modulares son tan misteriosas como el hombre que las investigó, el místico del este. Quizá si entendiéramos mejor el trabajo de este genio indio, comprenderíamos por qué vivimos en nuestro universo actual.
Cuando nos asomamos a la Teoría de cuerdas, entramos en un “mundo” lleno de sombras en los que podemos ver brillar, a lo lejos, un resplandor cegador. Todos los físicos coinciden en el hecho de que es una teoría muy prometedora y de la que parece se podrán obtener buenos rendimientos en el futuro pero, de , es imposible verificarla.
El misterio de las funciones modulares podría ser explicado por quien ya no existe, Srinivasa Ramanujan, el hombre más extraño del mundo de los matemáticos. Igual que Riemann, murió antes de cumplir cuarenta años, y Riemann antes que él, trabajó en total aislamiento en su universo particular de números y fue capaz de reinventar por sí mismo lo más valioso de cien años de matemáticas occidentales que, al estar aislado del mundo en las corrientes principales de los matemáticos, le eran totalmente desconocidos, así que los buscó sin conocerlos. Perdió muchos años de su vida en redescubrir matemáticas conocidas.
Dispersas oscuras ecuaciones en sus cuadernos están estas funciones modulares, que figuran entre las más extrañas jamás encontradas en matemáticas. Ellas reaparecen en las ramas más distantes e inconexas de las matemáticas. Una función que aparece una y otra vez en la teoría de las funciones modulares se denomina (como ya he dicho otras veces) hoy día “función de Ramanujan” en su honor. extraña función contiene un término elevado a la potencia veinticuatro.
La magia esconde una realidad
El 24 aparece repetidamente en la obra de Ramanujan. Este es un ejemplo de lo que las matemáticas llaman números mágicos, que aparecen continuamente donde menos se esperan por razones que nadie entiende. Milagrosamente, la función de Ramanujan aparece también en la teoría de cuerdas. El número 24 que aparece en la función de Ramanujan es también el origen de las cancelaciones milagrosas que se dan en la teoría de cuerdas. En la teoría de cuerdas, cada uno de los veinticuatro modos de la función de Ramanujan corresponde a una vibración física de la cuerda. Cuando quiera que la cuerda ejecuta sus movimientos complejos en el espacio-tiempo dividiéndose y recombinándose, deben satisfacerse un gran número de identidades matemáticas altamente perfeccionadas. Estas son precisamente las entidades matemáticas descubiertas por Ramanujan. Puesto que los físicos añaden dos dimensiones más cuando cuentan el número total de vibraciones que aparecen en una teoría relativista, ello significa que el espacio-tiempo debe tener 24 + 2 = 26 dimensiones espacio-temporales.
Comprender este misterioso factor de dos (que añaden los físicos), consideramos un rayo de luz que tiene dos modos físicos de vibración. La luz polarizada puede vibrar, por ejemplo, o bien horizontal o bien verticalmente. Sin embargo, un campo de Maxwell relativista Aµ cuatro componentes, donde µ = 1, 2, 3, 4. Se nos permite sustraer dos de estas cuatro componentes utilizando la simetría gauge de las ecuaciones de Maxwell. Puesto que 4 – 2 = 2, los cuatro campos de Maxwell originales se han reducido a dos. Análogamente, una cuerda relativista vibra en 26 dimensiones. Sin embargo, dos de estos modos vibracionales pueden ser eliminados rompemos la simetría de la cuerda, quedándonos con 24 modos vibracionales que son las que aparecen en la función de Ramanujan.
“En matemática, la función theta de Ramanujan generaliza la forma de las funciones theta de Jacobi, a la vez que conserva sus propiedades generales. En particular, el producto triple de Jacobi se puede escribir elegantemente en términos de la función theta de Ramanujan. La función toma nombre de Srinivasa Ramanujan, y fue su última gran contribución a las matemáticas.”
Como un revoltijo de hilos entrecruzados que son difíciles de seguir, así son las matemáticas de la teoría de cuerdas
Cuando se generaliza la función de Ramanujan, el 24 queda reemplazado por el 8. Por lo tanto, el número crítico para la supercuerda es 8+2=10. Este es el origen de la décima dimensión que exige la teoría. La cuerda vibra en diez dimensiones porque requiere estas funciones de Ramanujan generalizadas para permanecer auto consistente. Dicho de otra manera, los físicos no tienen la menor idea de por qué 10 y 26 dimensiones se seleccionan como dimensión de la cuerda. Es como si hubiera algún tipo de numerología profunda que se manifestara en estas funciones que nadie comprende. Son precisamente estos números mágicos que aparecen en las funciones modulares elípticas los que determinan que la dimensión del espacio-tiempo sea diez.
En el análisis final, el origen de la teoría decadimensional es tan misterioso como el propio Ramanujan. Si alguien preguntara a cualquier físico del mundo por qué la naturaleza debería existir en diez dimensiones, estaría obligado a responder “no lo sé”. Se sabe en términos difusos, por qué debe seleccionarse alguna dimensión del espacio tiempo (de lo contrario la cuerda no puede vibrar de una cuánticamente autoconsistente), pero no sabemos por qué se seleccionan estos números concretos.
Godfrey Harold Hardy
G. H. Hardy, el mentor de Ramanujan, trató de estimar la capacidad matemática que poseía Ramanujan. Concedió a David Hilbert, universalmente conocido y reconocido uno de los mayores matemáticos occidentales del siglo XIX, una puntuación de 80. A Ramanujan le asignó una puntuación de 100. Así mismo, Hardy se concedió un 25.
Por desgracia, ni Hardy ni Ramanujan parecían interesados en la psicología a los procesos de pensamiento mediante los cuales Ramanujan descubría estos increíbles teoremas, especialmente cuando diluvio material brotaba de sus sueños con semejante frecuencia. Hardy señaló:
“Parecía ridículo importunarle sobre como había descubierto o ese teorema conocido, cuando él me estaba mostrando media docena cada día, de nuevos teoremas”.
Hardy recordaba vivamente:
-”Recuerdo una vez que fui a visitarle cuando estaba enfermo en Putney. Yo había tomado el taxi 1.729, y comenté que el numero me parecía bastante feo, y que esperaba que no fuese mal presagio.”
– No. -Replicó Ramanujan postrado en su cama-. Es un número muy interesante; es el número más pequeño expresable una suma de dos cubos en dos formas diferentes.
(Es la suma de 1 x 1 x 1 y 12 x 12 x 12, y la suma de 9 x 9 x 9 y 10 x 10 x 10).
Era capaz de recitar en el acto teoremas complejos de aritmética cuya demostración requeriría un ordenador moderno.
En 1.919 volvió a casa, en la India, donde un año más tarde murió enfermo.
El legado de Ramanujan es su obra, que consta de 4.000 fórmulas en cuatrocientas páginas que llenan tres volúmenes de notas, todas densamente llenas de teoremas de increíble fuerza pero sin ningún comentario o, lo que es más frustrante, sin ninguna demostración. En 1.976, sin embargo, se hizo un nuevo descubrimiento. Ciento treinta páginas de borradores, que contenían los resultados del último año de su vida, fueron descubiertas por casualidad en una caja en el Trinity Collage. Esto se conoce ahora con el de “Cuaderno Perdido” de Ramanujan.
Comentando cuaderno perdido, el matemático Richard Askey dice:
“El de este año, mientras se estaba muriendo, era el equivalente a una vida entera de un matemático muy grande”. Lo que él consiguió era increíble. Los matemáticos Jonathan Borwien y Meter Borwein, en relación a la dificultad y la ardua tarea de descifrar los cuadernos perdidos, dijeron: “Que nosotros sepamos nunca se ha intentado una redacción matemática de este alcance o dificultad”.
Por mi parte creo que, Ramanujan, fue un genio matemático muy adelantado a su tiempo y que pasaran algunos años que podamos descifrar al cien por ciento sus trabajos, especialmente, sus funciones modulares que guardan el secreto de la teoría más avanzada de la física moderna, la única capaz de unir la mecánica quántica y la Gravedad.
Fórmula de Ramanujan determinar los decimales de pi
Las matemáticas de Ramanujan son como una sinfonía, la progresión de sus ecuaciones era algo nunca vísto, él trabajaba otro nivel, los números se combinaban y fluían de su cabeza a velocidad de vértigo y con precisión nunca antes conseguida por nadie. Tenía tal intuición de las cosas que éstas simplemente fluían de su cerebro. Quizá no los veía de una manera que sea traducible y el único lenguaje eran los números.
Como saben los físicos, los “accidentes” no aparecen sin ninguna razón. Cuando están realizando un cálculo largo y difícil, y entonces resulta de repente que miles de términos indeseados suman milagrosamente cero, los físicos saben que esto no sucede sin una razón más profunda subyacente. Hoy, los físicos conocen que estos “accidentes” son una indicación de que hay una simetría en juego. Para las cuerdas, la simetría se denomina simetría conforme, la simetría de estirar y deformar la hoja del Universo de la cuerda.
Nuestro mundo asimétrico contiene hermosas simetrías
Aquí es precisamente donde entra el trabajo de Ramanujan. Para proteger la simetría conforme original contra su destrucción por la teoría cuántica, deben ser milagrosamente satisfechas cierto de identidades matemáticas que, son precisamente las identidades de la función modular de Ramanujan. ¡Increíble! Pero, cierto.
Aunque el perfeccionamiento matemático introducido por la teoría de cuerdas ha alcanzado alturas de vértigo y ha sorprendido a los matemáticos, los críticos de la teoría aún la señalan su punto más débil. Cualquier teoría, afirman, debe ser verificable. Puesto que ninguna teoría definida a la energía de Planck de 1019 miles de millones de eV es verificable, ¡La teoría de cuerdas no es realmente una teoría!
El principal problema, es teórico más que experimental. Si fuéramos suficientemente inteligentes, podríamos resolver exactamente la teoría y encontrar la verdadera solución no perturbativa de la teoría. Sin embargo, esto no nos excusa de encontrar algún medio por el que verificar experimentalmente la teoría, debemos esperar señales de la décima dimensión.
Volviendo a Ramanujan…
Es innegable lo sorprendente de su historia, un muchacho pobre con escasa preparación y arraigado como pocos a sus creencias y tradiciones, es considerado como una de los mayores genios de las matemáticas del siglo XX. Su legado a la teoría de números, a la teoría de las funciones theta y a las series hipergeométricas, además de ser invaluable aún sigue estudiándose por muchos prominentes matemáticos de todo el mundo. Una de sus fórmulas más famosas es la que aparece más arriba en el lugar número 21 de las imágenes expuestas y utilizada para realizar aproximaciones del Pi con más de dos millones de cifras decimales. Otra de las sorprendentes fórmulas descubiertas por Ramanujan es un igualdad en que era “casi” un número entero (la diferencia era de milmillonésimas). De hecho, durante un tiempo se llegó a sospechar que el número era efectivamente entero. No lo es, pero este hallazgo sirvió de base la teoría de los “Cuasi enteros”. A veces nos tenemos que sorprender al comprobar hasta donde puede llegar la mente humana que, prácticamente de “la nada”, es capaz de sondear los misterios de la Naturaleza para dejarlos al descubierto ante nuestros asombros ojos que, se abren como platos ante tales maravillas.
Publica: emilio silvera
Ago
29
Tan sencillo y tan complejo
por Emilio Silvera ~ Clasificado en Física Cuántica ~ Comments (0)
Nunca podremos dejar de maravillarnos ante las “cosas” que puede realizar la Naturaleza para conseguir sus fines. y, como dice Leonard Susskind, para comprender la realidad en sus niveles más elementales, basta con conocer el comportamiento de dos elementos: el electrón y el fotón. Todo el argumento de la Electrodinámica Cuántica gira en torno a un proceso fundamental:
¡La emisión de un único fotón por un único electrón!
Cuando el movimiento de un electrón es alterado súbitamente, puede responder desprendiendo un fotón. La emisión de un fotón es el suceso básico de la mecánica cuántica. Toda la luz visible que vemos, así como las ondas de radio, la radiación infrarroja y los rayos X, está compuesta de fotones que han sido emitidos por electrones, ya sea en el Sol, el filamento de una bombilla, una antena de radio o un aparato de rayos.
Los fotones viajan por todo el Universo
El fotón es la partícula de luz portadora la interacción electromagnética. Un fotón se caracteriza por su energía o, equivalentemente, por su frecuencia. Las partículas elementales responsables de la luz y de la radiación electromagnética. ¿Dónde se producen fotones? Se emiten en varios procesos naturales. Por ejemplo, cuando una carga se acelera, se emite radiación sincrotrón. Durante una transición molecular, atómica o nuclear a un nivel de energía más bajo, se emitirán fotones de varias energías o cuando se aniquila una partícula con su antipartícula. Cuando un electrón cae de n=2 a n=1, el emite un fotón de luz ultravioleta. El fotón es una partícula cuántica elemental, sin masa, encargada de transportar la energía electromagnética entre partículas con carga eléctrica. Cada vez que un electrón pasa de un estado de excitación mayor a uno menor, se genera un fotón. La luz visible está compuesta por fotones (palabra que significa “luz”), un tipo de partículas elementales que carecen de masa. Los fotones se comportan de manera dual: como ondas y como partículas. Esta dualidad dota a la luz de propiedades físicas singulares. Los fotones transportan energía electromagnética. Esta energía incluye la luz visible que podemos ver y muchos otros tipos de formas de energía de menor y mayor energía. Los fotones son las partículas más pequeñas posibles de energía electromagnética y, por tanto, también las partículas de luz más pequeñas posibles. os fotones son emitidos por muchos procesos naturales, como cuando las partículas cargadas se ralentizan durante una transición molecular, atómica o nuclear a un nivel de energía más bajo, o cuando se aniquila una partícula con su antipartícula. Como apuntaba antes por ahí arriba: Un fotón se produce cada vez que un electrón en una órbita más alta de lo normal vuelve a su órbita normal . Durante la caída de energía alta a energía normal, el electrón emite un fotón (un paquete de energía) con características muy específicas.
¿Qué es más pequeño que un fotón?Los quarks son ciertamente unas de las partículas más pequeñas del universo. Son elementales, indivisibles y no se pueden romper en piezas menores. De hecho, se las considera puntuales como el electrón, el fotón, el gluón y el neutrino, entre otras que conforman el modelo estándar de la física de partículas.El Fotón es un Bosón, el que intermedia todas las emisiones de energía electromagnética y, desde luego, es una de las partículas más familiares, gracias a ella podemos disfrutar de los rayos del Sol, se produce la fotosíntesis y es posible la Vida en nuestro planeta.LA PRIMERA IMAGEN DE UNA PARTÍCULASS DE LUZ
Claro que, los electrones no son las únicas partículas que pueden emitir fotones. Cualquier partícula eléctricamente cargada puede hacerlo, incluido el protón. Esto significa que los fotones pueden saltar entre dos protones o incluso entre un protón y un electrón. Este hecho es de enorme importancia para toda la ciencia y la vida en general. El intercambio continuo de fotones entre el núcleo y los electrones atómicos proporciona la fuerza que mantiene unido el átomo.
Sin estos fotones saltarines, el átomo se desharía y toda la materia dejaría de existir, y, no podemos olvidar que, también nosotros, los seres vivos… ¡Somos materia!
Decía que la Naturaleza hace las cosas más inverosímiles y de la manera más económica posible y, ha sabido crear esos objetos pequeñitos (infinitesimales como lo son las partículas subatómicas) que ha agrupado en familias. Los electrones son de la Familia de los Leptones y son fermiones, mientras que los fotones pertenecen a la familia de los Bosones. Los primeros no quieren estar juntos y se repelen cuando andan cerca los unos de los otros, mientras que los segundos, están encantados de la vida cuando se juntan muchos, de hecho, la Luz es un conjunto de fotones que, realmente, ilumina nuestras vidas.
Veamos el Efecto fotoeléctrico
Este trabajo fue el que le dio el Nobel a Einstein
Conceptos de Electroestática, Electrización, conductores, aislantes, Carga, Energía y Tensión Eléctrica
El fenómeno del efecto fotoeléctrico es una forma de mostrar el carácter corpuscular de la radiación electromagnética al interactuar la radiación y la materia, para lo cual se requiere fotoconductividad que hace referencia al aumento de la conductividad eléctrica de la materia o en diodos provocada por la luz y la presencia del efecto fotovoltaico que implica una transformación parcial de la energía luminosa en energía eléctrica.
Para que ocurra el efecto fotoeléctrico descubierto por Heinrich Hertz en 1887 (Que Einstein desarrolló en su famoso trabajo de 1.905 que le valió el Nóbel de Física de 1.923), se observa la liberación de los electrones de enlaces de átomos y moléculas de la sustancia bajo acción de la luz: visible, infrarroja y ultravioleta; en sus experimentos halla un arco que se forma entre dos electrodos conectados a alta tensión alcanzando distancias mayores cuando se ilumina con luz ultravioleta que cuando se deja en la oscuridad.
Se caracteriza por:
El experimento consiste en colocar una placa metálica en un recipiente de vidrio al cual que se ha realizado un vacio, existe otra placa que hace de colectar de partículas cargadas. Al hacer incidir un haz monocromático de radiación electromagnética se produce un desprendimiento de electrones de ella. Si se presenta una diferencia de potencial positivo entre el colector y la placa los electrones serán acelerados hacia él y se registrará una corriente: fotocorriente; sin embargo si se aplica un potencial negativo al colector, los fotoelectrones serán repelidos y llegarán solamente los que alcancen una energía mayor que el potencial.
El potencial de ionización primario de un átomo es la energía mínima necesaria para arrancar un electrón de un átomo neutro aislado en su estado fundamental. Cuando el átomo pierde un electrón se forma un ión con carga positiva. Se representa como PI.
La energía mínima necesaria para arrancar un electrón (trabajo de extracción) de una lámina de plata es 7,52 10-19 J.
Es así que ∅ es la energía mínima necesaria para que un electrón escape del metal.
El electrón absorbe una energía E (energía cinética del electrón emitida).
La energía de un fotón se obtiene:
v = frecuencia de la radiación electromagnética
El trabajo daría para mucho más pero, como simplre referencia, aquí lo dejamos.
Emilio Silvera V.
Ago
29
Todo tiene límite, las teorías… También
por Emilio Silvera ~ Clasificado en Física ~ Comments (0)
Poco a poco vamos pudiendo explicar las cosas que hoy no sabemos y, los adelantos continuados, en todas las disciplinas, del saber humano, hace posible que las teorías de hoy, no sean las del mañana, toda vez que, cuando se descubren nuevos datos y nuevos sucesos, nos hacen tomar también, caminos nuevos que nos llevan a la búsqueda de nuevas teorías. Lo cierto es que siempre andamos a vueltas con las teorías, y, tenemos que ser conscientes que las teorías tienen unos límites que están bien determinados.
Veamos:
Unas nos hablan del “universo” de lo muy pequeño y otras, del “universo” de lo muy grande, pero… ¿Cuáles son los límites de la teoría cuántica y de la teoría de la relatividad general de Einstein? Afortunadamente, hay una respuesta simple y las unidades de Planck nos dicen cuales son.
Supongamos que tomamos toda la masa del universo visible y determinamos su longitud de onda cuántica. Podemos preguntarnos en qué momento esta longitud de onda cuántica del universo visible superará su tamaño. La respuesta es: cuando el universo sea más pequeño en tamaño que la longitud de Planck, es decir, 10-33 centímetros, más joven que el tiempo de Planck 10ˉ⁴³ segundos y supere la temperatura de Planck de 1032 grados. Las unidades de Planck marcan la frontera de aplicación de nuestras teorías actuales. Para comprender en que se parece el mundo a una escala menor que la longitud de Planck tenemos que comprender plenamente cómo se entrelaza la incertidumbre cuántica con la gravedad. Para entender lo que podría haber sucedido cerca del suceso que estamos tentados a llamar el principio del universo, o el comienzo del tiempo, tenemos que penetrar la barrera de Planck. Las constantes de la naturaleza marcan las fronteras de nuestro conocimiento existente y nos dejan al descubierto los límites de nuestras teorías.
En los intentos más recientes de crear una teoría nueva para describir la naturaleza cuántica de la gravedad ha emergido un nuevo significado para las unidades naturales de Planck. Parece que el concepto al que llamamos “información” tiene un profundo significado en el universo. Estamos habituados a vivir en lo que llamamos “la edad de la información”. La información puede ser empaquetada en formas electrónicas, enviadas rápidamente y recibidas con más facilidad que nunca antes. Nuestra evolución en el proceso rápido y barato de la información se suele mostrar en una forma que nos permite comprobar la predicción de Gordon Moore, el fundador de Intel, llamada ley de Moore, en la que, en 1.965, advirtió que el área de un transistor se dividía por dos aproximadamente cada 12 meses. En 1975 revisó su tiempo de reducción a la mitad hasta situarlo en 24 meses. Esta es “la ley de Moore” cada 24 meses se obtiene una circuitería de ordenador aproximadamente el doble, que corre a velocidad doble, por el mismo precio, ya que, el coste integrado del circuito viene a ser el mismo, constante.
Los procesamiento de información vienen impuestos por las constantes de la naturaleza. Día a día la computación cuántica se va acercando a la realidad.
Los límites últimos que podemos esperar para el almacenamiento y los ritmos de procesamiento de la información están impuestos por las constantes de la naturaleza. En 1981, el físico israelí, Jacob Bekenstein, hizo una predicción inusual que estaba inspirada en su estudio de los agujeros negros. Calculó que hay una cantidad máxima de información que puede almacenarse dentro de cualquier volumen. Esto no debería sorprendernos. Lo que debería hacerlo es que el valor máximo está precisamente determinado por el área de la superficie que rodea al volumen, y no por el propio volumen. El número máximo de bits de información que puede almacenarse en un volumen viene dado precisamente por el cómputo de su área superficial en unidades de Planck. Supongamos que la región es esférica. Entonces su área superficial es precisamente proporcional al cuadrado de su radio, mientras que el área de Planck es proporcional a la longitud de Planck al cuadrado, 10-66 cm2. Esto es muchísimo mayor que cualquier capacidad de almacenamiento de información producida hasta ahora. Asimismo, hay un límite último sobre el ritmo de procesamiento de información que viene impuesto por las constantes de la naturaleza.
Stoney Planck
No debemos descartar la posibilidad de que seamos capaces de utilizar las unidades de Planck-Stoney para clasificar todo el abanico de estructuras que vemos en el universo, desde el mundo de las partículas elementales hasta las más grandes estructuras astronómicas. Este fenómeno se puede representar en un gráfico que recree la escala logarítmica de tamaño desde el átomo a las galaxias. Todas las estructuras del universo existen porque son el equilibrio de fuerzas dispares y competidoras que se detienen o compensan las unas a las otras; la atracción y la repulsión. Ese es el equilibrio de las estrellas donde la repulsión termonuclear tiende a expandirla y la atracción (contracción) de su propia masa tiende a comprimirla; así, el resultado es la estabilidad de la estrella. En el caso del planeta Tierra, hay un equilibrio entre la fuerza atractiva de la gravedad y la repulsión atómica que aparece cuando los átomos se comprimen demasiado juntos. Todos estos equilibrios pueden expresarse aproximadamente en términos de dos números puros creados a partir de las constantes e, h, c, G y mprotón.
El valor más preciso de la constante de estructura fina, resultado de las últimas mediciones.
“Tras medir alfa en unas 300 galaxias lejanas, vimos un patrón constante: este número, que nos dice la fuerza del electromagnetismo, no es igual en otras partes que en la Tierra, y parecer variar de forma continua a lo largo de un eje”. Algunos se empeñan en variar la constante de estructura fina y, si eso llegara a producirse… las consecuencias serían funestas para nosotros. Otros estudios nos dicen que esa constante, no ha variado a lo largo de los miles de millones de años del Universo y, así debe ser, o, si varió, lo hizo en una escala ínfima.
α = 2πe2 / hc ≈ 1/137 |
αG = (Gmp2)2 / hc ≈ 10-38 |
Si varian algunas de las dos en sólo una diezmillonésima, muchas de las cosas que conforman el Universo serían imposible y, la consecuencia sería, la ausencia de vida. La identificación de constantes adimensionales de la naturaleza como a (alfa) y aG, junto con los números que desempeñan el mismo papel definitorio para las fuerzas débil y fuerte de la naturaleza, nos anima a pensar por un momentoen mundos diferentes del nuestro. Estos otros mundos pueden estar definidos por leyes de la naturaleza iguales a las que gobiernan el universo tal como lo conocemos, pero estarán caracterizados por diferentes valores de constantes adimensionales. Estos cambios numéricos alterarán toda la fábrica de los mundos imaginarios. Los átomos pueden tener propiedades diferentes. La gravedad puede tener un papel en el mundo a pequeña escala. La naturaleza cuántica de la realidad puede intervenir en lugares insospechados.
La identificación de constantes adimensionales de la naturaleza como a (alfa) y aG, junto con los números que desempeñan el mismo papel definitorio para las fuerzas débil y fuerte de la naturaleza, nos anima a pensar por un momento en mundos diferentes del nuestro. Estos otros mundos pueden estar definidos por leyes de la naturaleza iguales a las que gobiernan el universo tal como lo conocemos, pero estarán caracterizados por diferentes valores de constantes adimensionales. Estos cambios numéricos alterarán toda la fábrica de los mundos imaginarios. Los átomos pueden tener propiedades diferentes. La gravedad puede tener un papel en el mundo a pequeña escala. La naturaleza cuántica de la realidad puede intervenir en lugares insospechados.
Lo único que cuenta en la definición del mundo son los valores de las constantes adimensionales de la naturaleza (así lo creían Einstein y Planck). Si se duplica el valor de todas las masas no se puede llegar a saber, porque todos los números puros definidos por las razones de cualquier par de masas son invariables.
Cuando surgen comentarios de números puros y adimensionales, de manera automática aparece en mi mente el número 137. Ese número encierra más de lo que estamos preparados para comprender; me hace pensar y mi imaginación se desboca en múltiples ideas y teorías. Einstein era un campeón en esta clase de ejercicios mentales que él llamaba “libre invención de la mente”. El gran físico creía que no podríamos llegar a las verdades de la naturaleza sólo por la observación y la experimentación. Necesitamos crear conceptos, teorías y postulados de nuestra propia imaginación que posteriormente deben ser explorados para averiguar si existe algo de verdad en ellos.
Para poner un ejemplo de nuestra ignorancia poco tendríamos que buscar, tenemos a mano miles de millones.
El gran Físico León Lederman nos decía:
“Todos los físicos del mundo, deberían tener un letrero en el lugar más visible de sus casas, para que al mirarlo, les recordara lo que no saben. En el cartel sólo pondría esto: 137. Ciento treinta y siete es el inverso de algo que lleva el nombre de constante de estructura fina”.
Este número puro y adimensional, esconde los secretos del electromagnetismo, el electrón (e˜), de la velocidad de la luz (c), y, de los cuentos de Planck (h).
Este número guarda relación con la posibilidad de que un electrón emita un fotón o lo absorba. La constante de estructura fina responde también al nombre de “alfa” y sale de dividir el cuadrado de la carga del electrón, por el producto de la velocidad de la luz y la constante de Planck. Tanta palabrería y numerología no significan otra cosa sino que ese solo numero, 137, encierra los misterios del electromagnetismo (el electrón, e–), la relatividad (la velocidad de la luz, c), y la teoría cuántica (la constante de Planck, h).
Sus dimensiones y masa le permiten ¡lo imposible! para nosotros. La tensión superficial es una consecuencia de que todas las moléculas y los átomos se atraen unos a otros con una fuerza que nosotros llamamos fuerza de Van der Vaalls. esta fuerza tiene un alcance muy corto. para ser más precisos, diremos que la intensidad de esta fuerza a una distancia r es aproximadamente proporcional a 1/r7. Esto significa que si se reduce la distancia entre dos átomos a la mitad, la fuerza de Van der Vaalls con la que se atraen uno a otro se hace 2 x 2 x 2 x 2 x 2 x 2 x 2 = 128 veces más intensa. Cuando los átomos y las moléculas se acercan mucho unos a otros quedan unidos muy fuertemente a través de esta fuerza.
La mecánica cuántica domina en el micro-mundo de los átomos y de las partículas “elementales”. Nos enseña que en la naturaleza cualquier masa, por sólida o puntual que pueda parecer, tiene un aspecto ondulatorio. Esta onda no es como una onda de agua. Se parece más a una ola de histeria que se expande: es una onda de información. Nos indica la probabilidad de detectar una partícula. La longitud de onda de una partícula, la longitud cuántica, se hace menor cuanto mayor es la masa de esa partícula.
Por el contrario, la relatividad general era siempre necesaria cuando se trataba con situaciones donde algo viaja a la velocidad de la luz, o está muy cerca o donde la gravedad es muy intensa. Se utiliza para describir la expansión del universo o el comportamiento en situaciones extremas, como la formación de agujeros negros.
Sin embargo, la gravedad es muy débil comparada con las fuerzas que unen átomos y moléculas y demasiado débil para tener cualquier efecto sobre la estructura del átomo o de partículas subatómicas, se trata con masas tan insignificantes que la incidencia gravitatoria es despreciable. Todo lo contrario que ocurre en presencia de masas considerables como planetas, estrellas y galaxias, donde la presencia de la gravitación curva el espacio y distorsiona el tiempo.
Como resultado de estas propiedades antagónicas, la teoría cuántica y la teoría relativista gobiernan reinos diferentes, muy dispares, en el universo de lo muy pequeño o en el universo de lo muy grande. Nadie ha encontrado la manera de unir, sin fisuras, estas dos teorías en una sola y nueva de Gravedad-Cuántica.
La velocidad de la luz en el vacío es por definición una constante universal de valor 299.792.458 m/s (suele aproximarse a 3·108 m/s), o lo que es lo mismo 9,46·1015 m/año; la segunda cifra es la usada para definir al intervalo llamado año luz. La información se transmitirá a esa velocidad como máximo, nuestro Universo, no permite mayor rapidez, al menos, por los métodos convencionales. Lo cierto es que algún día nos daremos cuenta y descubriremos que la luz tiene más importancia de la que ahora le podemos dar, toda vez que no conocemos, la realidad de su naturaleza y todo lo que significa en nuestro Universo. Nosotros mismos, en última instancia… ¡Somos luz!
Estamos hechos de polvo de estrellas, somos Seres de LUZ
De átomos que se juntan para formar moléculas y sustancias que tienen sus origen en las estrellas, y, que por unas inexplicables transformaciones, ese conjunto evolucionada y puede llegar, a convertirse en pensamientos.
El año 2.015 fue el Año Internacional de la Luz, ese fenómeno natural del que tenemos muchos secretos que desvelar. Creo que, el día que sepamos, lo es realmente la luz,la inmensa ignorancia que llevamos acuesta, será más llevadera.
¡Sabemos aun tan poco!
Emilio Silvera V.
Ago
20
Todo lo grande está hecho de cosas pequeñas
por Emilio Silvera ~ Clasificado en Física ~ Comments (0)
“De acuerdo a la física el menor intervalo de tiempo es el Cronón o tiempo de Planck, que equivale a 10-44 segundos y se mide como el tiempo que tarda un fotón viajando a la velocidad de la luz en atravesar una distancia igual a la longitud de Planck.”
El tiempo de Planck o cronón (término acuñado en 1926 por Robert Lévi) es una unidad de tiempo, considerada como el intervalo temporal más pequeño que puede ser medido. Se denota mediante el símbolo tP. En cosmología, el tiempo de Planck representa el instante de tiempo más pequeño en el que las leyes de la física pueden ser utilizadas para estudiar la naturaleza y evolución del Universo. Se determina como combinación de otras constantes físicas en la forma siguiente:
- segundos
donde:
- es la constante de Planck reducida (conocida también como la constante de Dirac).
- G es la constante de Gravitación Universal;
- c es la velocidad de la luz en el vacío.
Los números entre paréntesis muestran la desviación estándar.
Nombre | Dimensión | Valor (SI unidades) |
---|---|---|
Longitud Planck | longitud (L) | 1.616255(18)×10−35 m |
Masa de Planck | masa (M) | 2.176434(24)×10−8 kg |
Tiempo de Planck | tiempo (T) | 5.391247(60)×10−44 s |
Temperatura de Planck | temperatura (Θ) | 1.416784(16)×1032 K |
Hablamos de las cosas muy pequeñas, las que no se ven
Es el tiempo que necesita el fotón (viajando a la velocidad de la luz, c, para moverse a través de una distancia igual a la longitud de Planck. Está dado por , donde G es la constante gravitacional (6, 672 59 (85) x 10-11 N m2 kg-2), ħ es la constante de Planck racionalizada (ħ = h/2л = 1,054589 x 10-34 Julios segundo), c, es la velocidad de la luz (299.792.458 m/s).
El valor del tiempo del Planck es del orden de 10-44 segundos. En la cosmología del Big Bang, hasta un tiempo Tp después del instante inicial, es necesaria usar una teoría cuántica de la gravedad para describir la evolución del Universo. Todo, desde Einstein, es relativo. Depende de la pregunta que se formule y de quién nos de la respuesta.
¿El Tiempo? Muchos Filósofos lo quisieron explicar pero… ¡No pudieron!
Si preguntamos ¿Qué es el tiempo?, tendríamos que ser precisos y especificar si estamos preguntando por esa dimensión temporal que no deja de fluir desde el Big Bang y que nos acompaña a lo largo de nuestras vidas, o nos referimos al tiempo atómico, ese adoptado por el SI, cuya unidad es el segundo y se basa en las frecuencias atómicas, definida a partir de una línea espectral particular de átomo de cesio 133, o nos referimos a lo que se conoce como tiempo civil, tiempo coordinado, tiempo de crecimiento, tiempo de cruce, tiempo de integración, tiempo de relajación, tiempo dinámico o dinámico de Baricéntrico, dinámico terrestre, tiempo terrestre, tiempo de Efemérides, de huso horario, tiempo estándar, tiempo local, tiempo luz, tiempo medio, etc. etc. Cada una de estas versiones del tiempo, tiene una respuesta diferente, ya que, no es lo mismo el tiempo propio que el tiempo sidéreo o el tiempo solar, o solar aparente, o solar medio, o tiempo terrestre, o tiempo Universal. Como se puede ver, la respuesta dependerá de cómo hagamos la pregunta.
… Y que el mismo tiempo suele borrar
En realidad, para todos nosotros el único tiempo que rige es el que tenemos a lo largo de nuestras vidas, los otros tiempos, son inventos del hombre para facilitar sus tareas de medida, de convivencia o de otras cuestiones técnicas o astronómicas pero, sin embargo, el tiempo es solo uno; ese que comenzó cuando nació el Universo y que finalizará cuando este llegue a su final.
Lo cierto es que, para las estrellas supermasivas, cuando llegan al final de su ciclo y deja de brillar por agotamiento de su combustible nuclear, en ese preciso instante, el tiempo se agota para ella. Cuando una estrella pierde el equilibrio existente entre la energía termonuclear (que tiende a expandir la estrella), y, la fuerza de gravedad (que tiende a comprimirla), al quedar sin oposición esta última, la estrella supermasiva se contrae aplastada bajo su propia masa. Queda comprimida hasta tal nivel que llega un momento que desaparece, para convertirse en un Agujero Negro, una singularidad, donde dejan de existir el “tiempo” y el espacio. A su alrededor nace un horizonte de sucesos que, si se traspasa, se es engullido por la enorme gravedad del Agujero Negro.
En la singularidad no se distorsiona, se para (Se refiere al Tiempo)
El tiempo, de ésta manera, deja de existir en estas regiones del Universo que conocemos como singularidad. El mismo Big Bang -dicen- surgió de una singularidad de energía y densidad infinitas que, al explotar, se expandió y creó el tiempo, el espacio y la materia.
Como contraposición a estas enormes densidades de las enanas blancas, estrellas de neutrones y Agujeros Negros, existen regiones del espacio que contienen menos galaxias que el promedio o incluso ninguna galaxia; a estas regiones las conocemos como vacío cósmico. Han sido detectados vacíos con menos de una décima de la densidad promedio del Universo en escalas de hasta 200 millones de años luz en exploraciones a gran escala. Estas regiones son a menudo esféricas. El primer gran vacío en ser detectado fue el de Boötes en 1.981; tiene un radio de unos 180 millones de años luz y su centro se encuentra aproximadamente a 500 millones de años luz de la Vía Láctea. La existencia de grandes vacíos no es sorprendente, dada la existencia de cúmulos de galaxias y supercúmulos a escalas muy grandes.
Mientras que en estas regiones la materia es muy escasa, en una sola estrella de neutrones, si pudiéramos retirar 1 cm3 de su masa, obtendríamos una cantidad de materia increíble. Su densidad es de 1017 kg/m3, los electrones y los protones están tan juntos que se combinan y forman neutrones que se degeneran haciendo estable la estrella de ese nombre que, después del agujero negro, es el objeto estelar más denso del Universo.
Es interesante ver cómo a través de las matemáticas y la geometría, han sabido los humanos encontrar la forma de medir el mundo y encontrar las formas del Universo. Pasando por Arquímedes, Pitágoras, Newton, Gauss o Riemann (entre otros), siempre hemos tratado de buscar las respuestas de las cosas por medio de las matemáticas.
“Magia es cualquier tecnología suficientemente avanzada”
Arthur C. Clarke
Pero también es magia el hecho de que, en cualquier tiempo y lugar, de manera inesperada, aparezca una persona dotada de condiciones especiales que le permiten ver, estructuras complejas matemáticas que hacen posible que la Humanidad avance considerablemente a través de esos nuevos conceptos que nos permiten entrar en espacios antes cerrados, ampliando el horizonte de nuestro saber.
Georg Friedrich Bernhard Riemann
Recuerdo aquí uno de esos extraños casos que surgió el día 10 de Junio de 1.854 con el nacimiento de una nueva geometría: La teoría de dimensiones más altas que fue introducida cuando Georg Friedrich Bernhard Riemann dio su célebre conferencia en la facultad de la Universidad de Gotinga en Alemania. Aquello fue como abrir de golpe, todas las ventanas cerradas durante 2.000 años, de una lóbrega habitación que, de pronto, se ve inundada por la luz cegadora de un Sol radiante. Riemann regaló al mundo las sorprendentes propiedades del espacio multidimensional.
Su ensayo de profunda importancia y elegancia excepcional, “sobre las hipótesis que subyacen en los fundamentos de la geometría” derribó pilares de la geometría clásica griega, que habían resistido con éxito todos los asaltos de los escépticos durante dos milenios. La vieja geometría de Euclides, en la cual todas las figuras geométricas son de dos o tres dimensiones, se venía abajo, mientras una nueva geometría riemanniana surgía de sus ruinas. La revolución riemanniana iba a tener grandes consecuencias para el futuro de las artes y las ciencias.
El Tensor métrico de Riemann y sus Espacios Curvos, le dieron otro sentido a la geometría del Universo. Einstein lo podría certificar, ya que, con el Tensor métrico de Riemann pudo(al fin) publicar la Teoría General de la Relatividad.
En menos de tres decenios, la “misteriosa cuarta dimensión” influiría en la evolución del arte, la filosofía y la Literatura en toda Europa. Antes de que hubieran pasado seis decenios a partir de la conferencia de Riemann, Einstein utilizaría la geometría riemanniana tetradimensional para explicar la creación del Universo y su evolución mediante su asombrosa teoría de la relatividad general Ciento treinta años después de su conferencia, los físicos utilizarían la geometría deca-dimensional para intentar unir todas las leyes del Universo. El núcleo de la obra de Riemann era la comprensión de las leyes físicas mediante su simplificación al contemplarlas en espacios de más dimensiones.
Riemann nació en 1.826 en Hannover, Alemania
Contradictoriamente, Riemann era la persona menos indicada para anunciar tan profunda y completa evolución en el pensamiento matemático y físico. Era huraño, solitario y sufría crisis nerviosas. De salud muy precaria que arruinó su vida en la miseria abyecta y la tuberculosis.
Riemann nació en 1.826 en Hannover, Alemania, segundo de los seis hijos de un pobre pastor luterano que trabajó y se esforzó como humilde predicador para alimentar a su numerosa familia que, mal alimentada, tendrían una delicada salud que les llevaría a una temprana muerte. La madre de Riemann también murió antes de que sus hijos hubieran crecido.
A edad muy temprana, Riemann mostraba ya los rasgos que le hicieron famoso: increíble capacidad de cálculo que era el contrapunto a su gran timidez y temor a expresarse en público. Terriblemente apocado era objeto de bromas de otros niños, lo que le hizo recogerse aún más en un mundo matemático intensamente privado que le salvaba del mundo hostil exterior.
Para complacer a su padre, Riemann se propuso hacerse estudiante de teología, obtener un puesto remunerado como pastor y ayudar a su familia. En la escuela secundaria estudió la Biblia con intensidad, pero sus pensamientos volvían siempre a las matemáticas. Aprendía tan rápidamente que siempre estaba por delante de los conocimientos de sus instructores, que encontraron imposible mantenerse a su altura. Finalmente, el director de la escuela dio a Riemann un pesado libro para mantenerle ocupado. El libro era la Teoría de números de Adrien-Marie Legendre, una voluminosa obra maestra de 859 páginas, el tratado más avanzado del mundo sobre el difícil tema de la teoría de números. Riemann devoró el libro en seis días.
Cuando el director le preguntó: “¿Hasta dónde has leído?”, el joven Riemann respondió: “Este es un libro maravilloso. Ya me lo sé todo”.
Sin creerse realmente la afirmación de su pupilo, el director le planteó varios meses después cuestiones complejas sobre el contenido del libro, que Riemann respondió correctamente.
Con mil sacrificios, el padre de Riemann consiguió reunir los fondos necesarios para que, a los 19 años pudiera acudir a la Universidad de Gotinga, donde encontró a Carl Friedrich Gauss, el aclamado por todos “Príncipe de las Matemáticas”, uno de los mayores matemáticos de todos los tiempos. Incluso hoy, si hacemos una selección por expertos para distinguir a los matemáticos más grandes de la Historia, aparecerá indudablemente Euclides, Arquímedes, Newton y Gauss.
Hannover, Alemania
Los estudios de Riemann no fueron un camino de rosas precisamente. Alemania sacudida por disturbios, manifestaciones y levantamientos, fue reclutado en el cuerpo de estudiantes para proteger al rey en el palacio real de Berlín y sus estudios quedaron interrumpidos.
En aquel ambiente el problema que captó el interés de Riemann, fue el colapso que, según el pensaba, suponía la geometría euclidiana, que mantiene que el espacio es tridimensional y “plano” (en el espacio plano, la distancia más corta entre dos puntos es la línea recta; lo que descarta la posibilidad de que el espacio pueda estar curvado, como en una esfera).
Para Riemann, la geometría de Euclides era particularmente estéril cuando se la comparaba con la rica diversidad del mundo. En ninguna parte vería Riemann las figuras geométricas planas idealizadas por Euclides. Las montañas, las olas del mar, las nubes y los torbellinos no son círculos, triángulos o cuadrados perfectos, sino objetos curvos que se doblan y retuercen en una diversidad infinita. Riemann, ante aquella realidad se rebeló contra la aparente precisión matemática de la geometría griega, cuyos fundamentos., descubrió el, estaban basados en definitiva sobre las arenas movedizas del sentido común y la intuición, no sobre el terreno firme de la lógica y la realidad del mundo.
Euclides nos habló de la obviedad de que un punto no tiene dimensión. Una línea tiene una dimensión: longitud. Un plano tiene dos dimensiones: longitud y anchura. Un sólido tiene tres dimensiones: longitud, anchura y altura. Y allí se detiene. Nada tiene cuatro dimensiones, incluso Aristóteles afirmó que la cuarta dimensión era imposible. En Sobre el cielo, escribió: “La línea tiene magnitud en una dirección, el plano en dos direcciones, y el sólido en tres direcciones, y más allá de éstas no hay otra magnitud porque los tres son todas.” Además, en el año 150 d. C. el astrónomo Ptolomeo de Alejandría fue más allá de Aristóteles y ofreció, en su libro sobre la distancia, la primera “demostración” ingeniosa de que la cuarta dimensión es imposible.
En realidad, lo único que Ptolomeo demostraba era que, era imposible visualizar la cuarta dimensión con nuestros cerebros tridimensionales (de hecho, hoy sabemos que muchos objetos matemáticos no pueden ser visualizados, aunque puede demostrarse que en realidad, existen). Ptolomeo puede pasar a la Historia como el hombre que se opuso a dos grandes ideas en la ciencia: el sistema solar heliocéntrico y la cuarta dimensión.
La ruptura decisiva con la geometría euclidiana llegó cuando Gauss pidió a su discípulo Riemann que preparara una presentación oral sobre los “fundamentos de la geometría”. Gauss estaba muy interesado en ver si su discípulo podía desarrollar una alternativa a la geometría de Euclides.
Riemann desarrolló su teoría de dimensiones más altas.
Parte real (rojo) y parte imaginaria (azul) de la línea crítica Re(s) = 1/2 de la función zeta de Riemann. Pueden verse los primeros ceros no triviales en Im(s) = ±14,135, ±21,022 y ±25,011. La hipótesis de Riemann, por su relación con la distribución de los números primos en el conjunto de los naturales, es uno de los problemas abiertos más importantes en la matemática contemporánea.
Finalmente, cuando hizo su presentación oral en 1.854, la recepción fue entusiasta. Visto en retrospectiva, esta fue, sin discusión, una de las conferencias públicas más importantes en la historia de las matemáticas. Rápidamente se entendió por toda Europa la noticia de que Riemann había roto definitivamente los límites de la geometría de Euclides que había regido las matemáticas durante los milenios.
Riemann creó el tensor métrico para que, a partir de ese momento, otros dispusieran de una poderosa herramienta que les hacía posible expresar a partir del famoso teorema de Pitágoras (uno de los grandes descubrimientos de los griegos en matemáticas que establece la relación entre las longitudes de los tres lados de un triángulo rectángulo: afirma que la suma de los cuadrados de los lados menores es igual al cuadrado del lado mayor, la hipotenusa; es decir, si a y b son los longitudes de los dos catetos, y c es la longitud de la hipotenusa, entonces a2 + b2 = c2. El teorema de Pitágoras, por supuesto, es la base de toda la arquitectura; toda estructura construida en este planeta está basada en él. Claro que, es una herramienta para utilizar en un mundo tridimensional.)
Formatos del tensor de Einstein
El tensor métrico de Riemann, o N dimensiones, fue mucho más allá y podemos decir que es el teorema para dimensiones más altas con el que podemos describir fenómenos espaciales que no son planos, tales como un remolino causado en el agua o en la atmósfera, como por ejemplo también la curvatura del espacio en presencia de grandes masas. Precisamente, el tensor de Riemann, permitió a Einstein formular su teoría de la gravedad y, posteriormente lo utilizo Kaluza y Klein para su teoría en la quinta dimensión de la que años más tarde se derivaron las teorías de super-gravedad, supersimetría y, finalmente las supercuerdas.
Para asombro de Einstein, cuando tuvo ante sus ojos la conferencia de Riemann de 1.854, que le había enviado su amigo Marcel Grossman, rápidamente se dio cuenta de que allí estaba la clave para resolver su problema. Descubrió que podía incorporar todo el cuerpo del trabajo de Riemann en la reformulación de su principio. Casi línea por línea, el gran trabajo de Riemann encontraba su verdadero lugar en el principio de Einstein de a relatividad general. Esta fue la obra más soberbia de Einstein, incluso más que su celebrada ecuación E=mc2. La reinterpretación física de la famosa conferencia de Riemann se denomina ahora relatividad general, y las ecuaciones de campo de Einstein se sitúan entre las ideas más profundas de la historia de la ciencia.
Emilio Silvera V.
Ago
18
¡La Luz! Uno de los grandes misterios del Universo
por Emilio Silvera ~ Clasificado en Física Cuántica ~ Comments (1)
Los fotones, las partículas de las que está hecha la luz, no se comportan como muchas otras partículas porque no tienen masa. Esto hace que no interaccionen entre ellas y por tanto no se unan unas a otras para formar elementos mayores y más complejos, como sí hacen otras partículas fundamentales.
Algo sabemos sobre la luz, de qué está conformada y su velocidad en el vacío y otras peculiaridades. Sin embargo, de esas pequeñas y luminosas partículas de la familia de los Bosones… ¡Nos queda mucho que aprender!
Sin embargo, en los últimos años varios equipos científicos de todo el mundo han logrado jugar con esta característica y, de alguna forma, burlarla, deteniendo la luz y congelándola, convirtiéndola en un sólido. Se trata de un fenómeno que nos recuerda a las películas de ciencia ficción (piensen en los sables láser de La guerra de las galaxias), pero en cuyo conocimiento los investigadores avanzan cada día más. Los últimos, un equipo de la Universidad de Princeton que ha logrado convertir la luz en cristal, según sus conclusiones.
Logran almacenar luz en fibra óptica
Nos interesa explorar, y eventualmente controlar y dirigir, los flujos de energía a nivel atómico. Lo han conseguido interconectando fotones, las partículas elementales de la luz, de forma que se quedasen fijos en un lugar como si estuviesen congelados. Los resultados de sus experimentos podrían servir para desarrollar nuevos y exóticos meta-materiales, además de ayudar a avanzar en el conocimiento sobre el estudio fundamental de la materia.
“Es algo que nadie había visto antes, un nuevo comportamiento de la luz”, explica Andrew Houck, profesor asociado de ingeniería eléctrica y uno de los investigadores. “Nos interesa explorar, y eventualmente controlar y dirigir, los flujos de energía a nivel atómico”, dice Hakan Türeci, uno de los miembros del equipo.
Imagen de la luz congelada
Para lograrlo, construyeron una estructura hecha de materiales superconductores con más de cien mil millones de átomos ensamblados para funcionar como uno solo y la situaron junto a un cable superconductor por el que transitaban fotones. Esos fotones, debido a mecanismos propios de la física cuántica, adoptaron algunas de las propiedades del átomo, como por ejemplo las interacciones entre ellos, algo que normalmente no ocurre con los fotones. Así, el equipo logró que fluyesen como si fuesen parte de un líquido o que se congelasen como si fuesen un cristal sólido.
Los científicos han estudiado el comportamiento de la luz durante años, que a veces corresponde al de una onda y otras al de una partícula. Con este experimento, han podido inventarle uno nuevo. “Hemos provocado una situación en la que la luz se comporta efectivamente como una partícula, en el sentido de que dos fotones pueden interaccionar con fuerza. En un momento oscila de delante hacia atrás como si fuera un líquido, y en otro directamente se congela”, explica Türeci.
Los ordenadores actuales no ‘entienden’ la física cuántica
Se está muy cerca de poder construir al completo un ordenador cuántico y, nuestro mundo, se verá revolucionado como cuando llegó la relatividad especial de Einstein y el cuanto de acción de Planck
Esta investigación es parte del esfuerzo que científicos de todo el mundo están poniendo para intentar responder algunas preguntas fundamentales del comportamiento de las partículas subatómicas, cuestiones que no es posible contestar ni siquiera utilizando los ordenadores más potentes de los que disponemos hoy en día.
Es como resolver preguntas sobre aerodinámica observando un modelo de aeroplano en un túnel de viento, es decir, a través de una simulación física en vez de con cálculos digitalesLos equipos de computación con los que trabajan los científicos no sirven porque funcionan siguiendo la mecánica tradicional, que describe cómo es el mundo de los objetos cotidianos en una escala muy amplia, desde los planetas hasta los átomos y moléculas. Pero el mundo de los fotones y otras partículas de tamaño inferior al átomo funciona siguiendo las reglas de la mecánica cuántica, que incluye propiedades en apariencia imposibles e incomprensibles, como por ejemplo que varias partículas estén relacionadas en cuanto a su comportamiento a pesar de estar distanciadas por cientos de kilómetros.
Esa diferencia en cuanto a sus características limita la capacidad de los ordenadores de trabajar con estos componentes subatómicos. Simplemente, no puede calcular qué harán ante unos u otros estímulos. De forma que la comunidad científica lleva tiempo intentando crear un nuevo tipo de ordenador basado en las normas de la física cuántica, con el convencimiento de que así podrán responder a muchas de las preguntas que les intrigan de esta rama del conocimiento. Para crear esa nueva computadora, sin embargo, hace falta tiempo y profundizar en la investigación de estos fenómenos, creándose así un círculo que retrasa las respuestas.
Otra corriente dentro del estudio de la física cuántica, dentro de la que se enmarca el trabajo de los científicos de Princeton, apuesta por dejar de lado los ordenadores y desarrollar nuevas herramientas que imiten el comportamiento de las subpartículas. El inconveniente es que estas herramientas tendrán una utilidad más limitada que la de un ordenador cuántico, pero la ventaja está en que en teoría podrán crearse sin necesidad de responder previamente a cuestiones más complejas y avanzadas.
“Es como resolver preguntas sobre aerodinámica observando un modelo de aeroplano en un túnel de viento, es decir, a través de una simulación física en vez de con cálculos digitales”, explica una entrada en el blog Scienceblog.
También la luz, está presente en nuestros cerebros
En este caso, la herramienta desarrollada es muy pequeña y sus posibilidades son limitadas, pero los investigadores confían en poder ampliarla, así como aumentar el número de interacciones entre fotones, aumentando su capacidad de simular situaciones complejas. En el futuro esperan poder observar la luz en estados aún más extraños, como por ejemplo un superfluido o un aislante.”
Cuando sepamos lo que es la luz… ¡Sabremos lo que es el Universo… y nosotros!
Emilio Silvera V.