Jun
24
Cada vez sabemos más de nuestro “Barrio”
por Emilio Silvera ~
Clasificado en Planetas imposibles para la vida ~
Comments (0)
‘Júpiter caliente’, el planeta más caliente hallado hasta el momento


- Con una temperatura en el día que alcanza un máximo de 4.327 grados
- Es 2,8 veces más masivo que Júpiter, pero sólo la mitad de denso
- Está ubicado a 650 años luz de la Tierra en la constelación Cygnus
Un equipo de investigación internacional liderado por astrónomos de las universidades de Ohio State y Vanderbilt cree haber encontrado un planeta como Júpiter que rodea su estrella anfitriona cada día y medio, sobrecalentándose a temperaturas más altas que la mayoría de las estrellas y con una gigantesca y brillante cola de gas como un cometa. Este nuevo mundo, al que han denominado KELT-9b, se encuentra en órbita alrededor de una estrella masiva (KELT-9) que está ubicada a 650 años luz de la Tierra en la constelación Cygnus.
El descubrimiento se describe esta semana en un artículo titulado Un planeta gigante sometido a la irradiación ultravioleta extrema por su huésped caliente de estrellas masivas, publicado por la revista Nature y presentado en la reunión de primavera de la Sociedad Americana de Astronomía (American Astronomical Society, ASS, por sus siglas en inglés) en Austin, Texas.
Con una temperatura en el día que alcanza un máximo de 4.600 grados kelvin (4.327 grados centígrados), el recién descubierto exoplaneta es más caliente que la mayoría de las estrellas y sólo 1.200 kelvin más fresco que el Sol (927 grados centígrados). De hecho, la radiación ultravioleta de la estrella que orbita es tan grande que el planeta puede literalmente evaporarse lejos bajo el deslumbramiento intenso, produciendo una cola de gas brillante.
El planeta tiene otras características inusuales. Por ejemplo, es un gigante gaseoso 2,8 veces más masivo que Júpiter, pero sólo la mitad de denso, porque la radiación extrema de su estrella anfitriona ha provocado que su atmósfera se hinche como un globo.
Debido a que está cerrado a su estrella -como la Luna a la Tierra- el lado del día del planeta es bombardeado de manera perpetua por la radiación estelar y, como resultado, es tan caliente que las moléculas como el agua, el dióxido de carbono y el metano no pueden formarse allí.
“Es un planeta por cualquiera de las definiciones típicas basadas en la masa, pero su atmósfera es casi seguramente diferente a cualquier otro planeta que hemos visto sólo por la temperatura de su lado del día”, señala el profesor de astronomía en la Universidad de Ohio, Scott Gaudi, uno de los autores principales del estudio.
La razón por la que el exoplaneta es tan caliente es porque la estrella que orbita es más del doble de grande y casi el doble de caliente que el Sol. “KELT-9 irradia tanta radiación ultravioleta que puede evaporar completamente el planeta -asegura el profesor de Física y Astronomía en la Universidad de Vanderbilt, Keivan Stassun, quien dirige el estudio junto con Gaudi-. O, si los planetas gigantes de gas como KELT-9b poseen núcleos rocosos sólidos como algunas teorías sugieren, el planeta puede ser reducido a una roca estéril, como Mercurio”.
Sin posibilidad de que haya vida
Por otro lado, la órbita del planeta está muy cerca de la estrella, por lo que si esta empieza a expandirse, la engullirá. “KELT-9 se hinchará para convertirse en una estrella gigante roja en alrededor de mil millones de años”, afirma Stassun, que considera que las perspectivas a largo plazo para la vida en KELT-9b “no son buenas”.
No obstante, los científicos aseguran que hay una razón para estudiar mundos que son inhabitables en el extremo. “La comunidad astronómica está claramente centrada en encontrar planetas como la Tierra alrededor de estrellas pequeñas y más frías como nuestro Sol -relata Gaudi-. Son objetivos fáciles y hay mucho que se puede aprender sobre los planetas potencialmente habitables que orbitan estrellas de muy baja masa, en general. Por otro lado, como la estrella anfitriona de KELT-9b es más grande y más caliente que el Sol, complementa esos esfuerzos y proporciona un referente para entender cómo los sistemas planetarios se forman alrededor de estrellas calientes y masivas”. En este sentido, Stassun añade que “es importante saber no sólo cómo los planetas se forman y evolucionan, sino también cuándo y bajo qué condiciones son destruidos”.
Según explica la coautora del estudio, Karen Collins, becaria post-doctoral en Vanderbilt, el hallazgo se debió a la “suerte”, tras captar el planeta mientras su órbita transitaba por la cara de la estrella. “Debido a su periodo extremadamente corto, la órbita casi polar y el hecho de que su estrella de acogida es oblata, en vez de esférica, calculamos que la precesión orbital llevará al planeta fuera de vista en unos 150 años y no volverá a aparecer en aproximadamente tres milenios y medio”, agrega.
Jun
23
¡La Física Avanza! Y, se reconoce
por Emilio Silvera ~
Clasificado en Noticias ~
Comments (1)

LIGO abre una nueva comprensión del universo

Oviedo, 14 jun (EFE).- El astrofísico Álvaro Giménez Cañete ha considerado hoy “muy merecido” el Premio Princesa de Asturias de Investigación Científica y Técnica otorgado a la Colaboración Científica LIGO y a tres de los físicos que la impulsaron porque “abre una nueva ventana para comprender el universo”.
Giménez Cañete ha formado parte del jurado que ha fallado hoy en Oviedo este galardón con el que se reconoce el éxito alcanzado hace un año con el experimento de ondas gravitacionales que consiguió ratificar la teoría de la relatividad que hace un siglo formuló Albert Einsten.
“Es un premio muy merecido a un hallazgo científico perseguido durante mucho tiempo y que ha tenido éxito muy recientemente”, ha señalado tras el fallo este investigador, que forma parte de la Academia Internacional de Astronáutica.
En su opinión, hay que reconocer los pasos “que aseguran cómo comprender el universo que nos rodea”, como en este caso, que abre una “ventana nueva para comprender el universo, que por primera vez no pasa por medir la luz que recibimos de los objetos sino por las variaciones del espacio-tiempo que antes no sabíamos que se podían medir”.
Vista de los gráficos de datos del proyecto LIGO durante la rueda de prensa sobre la demostración de la existencia de las ondas gravitacionales buscadas desde hace muchos años para confirmar la relatividad especial de Einsten, en otra de sus formas.
“Esta nueva tecnología permite poder explorar los fenómenos que se dan en el universo y puede ser trascendente para el mundo entero y nuestra historia”, ha subrayado.
El presidente del jurado, el físico Pedro Miguel Echenique, ha destacado la importancia que supone poder observar regiones del espacio-tiempo del universo inicial que otras ondas no permitían y que se haya podido ratificar la teoría de la relatividad, “uno de los grandes desafíos de la historia de la física”.
“Es un instrumento mágico en el que llevan años trabajando y que arroja una precisión espectacular”, ha subrayado.
Cazadas de nuevo: el observatorio LIGO capta por segunda vez ondas gravitacionales.
La Colaboración Científica LIGO y tres de los físicos que la impulsaron Rainer Weiss, Kip S. Thorne y Barry C. Barish, han sido distinguidos con el Premio Princesa de Asturias de Investigación Científica y Técnica por sus aportaciones en la detección de directa de ondas gravitacionales, en las que se basa la nueva astronomía.
El Laboratorio de Ondas Gravitacionales con Interferómetro Láser (LIGO son sus siglas en inglés) cuenta con la colaboración de un millar de científicos de docenas de instituciones y universidades de veinte países que trabajan en la detección de ondas gravitacionales que puedan ser empleadas en la exploración de las leyes fundamentales de la gravedad.
Jun
23
¿Y si el paso del tiempo no fuera más que una ilusión?
por Emilio Silvera ~
Clasificado en El Tiempo pasa...¿O somos nosotros? ~
Comments (1)
ABC – Ciencia
Los investigadores creen que la unidad mínima de tiempo posible puede superar al tiempo de Planck
¿Hasta dónde es posible subdividir el tiempo? O, dicho de otro modo, ¿cuál es la unidad mínima de tiempo que permite la Naturaleza? La respuesta tiene profundas implicaciones tanto para la Ciencia como para la Filosofía, y un equipo internacional de investigadores acaba de demostrar que la unidad mínima de tiempo posible va mucho más allá de lo que se pensaba. El trabajo acaba de publicarse en The European Physical Journal.
Pero veamos. Aunque a simple vista puede parecer posible dividir el tiempo en intervalos cada vez más pequeños, incluso hasta el infinito, la Física nos dice que que no es así, y que el menor intervalo temporal físicamente representativo posible es el llamado tiempo de Planck, que equivale a 10-43 segundos, es decir, a la diez septillonésima parte de un segundo. Este es, pues, en intervalo temporal más breve en el que las leyes de la Física pueden seguir usándose para estudiar la Naturaleza del Universo. El límite implica que dos eventos cualesquiera no pueden estar separados por un intervalo temporal inferior a éste.
O por lo menos esto es lo que se pensaba hasta ahora. Pero Mir Faizal, de las Universidades de Waterloo y Lethbridge en Canadá, Mohammed M. Khali, de la Universidad de Alejandría en Egipto y Saurya Das, también de la Universidad de Lethbridge, proponen, en efecto, que el menor intervalo de tiempo posible podría superar, incluso en varios órdenes de magnitud, al tiempo de Planck. Además, los físicos han demostrado que la mera existencia de este nuevo “tiempo mínimo” puede alterar las ecuaciones básicas de la Mecánica Cuántica. Y dado que la Mecánica Cuántica describe los sistemas físicos a una escala muy pequeña (la de las partículas subatómicas), el resultado sería un cambio profundo en la descripción de la realidad tal y como la conocemos.
“Podría ser -explica Faizal- que la escala mínima de tiempo posible en el Universo vaya mucho más allá del tiempo de Planck. Y esto, además, puede ser probado experimentalmente”.
Pero volvamos, por ahora, al tiempo de Planck, que de por sí es tan corto que nadie, en ningún laboratorio del mundo, ha conseguido aún examinarlo directamente. Y es que en Ciencia, y más en las ciencias básicas, la práctica va siempre muy por detrás de la teoría. Las mediciones más precisas, en efecto, apenas han logrado resultados con intervalos de cerca 10−17 de segundos, muy lejos de los 10-43 del tiempo de Planck, y lograr avanzar una sola escala más de magnitud puede suponer décadas de esfuerzo, investigación y desarrollo tecnológico.
Sin embargo, a nivel teórico nada impide considerar el tiempo de Planck como algo muy real, una magnitud que funciona muy bien en varios campos de estudio, como la gravedad cuántica o la teoría de cuerdas. Y resulta que todas esas teorías sugieren que no es posible medir una longitud menor que la longitud de Planck, y por extensión un tiempo más breve que el tiempo de Planck. El tiempo de Planck se define como el tiempo que tarda un fotón, en el vacío, en recorrer la longitud de Planck a la velocidad de la luz.
La estructura del tiempo
Pasa el Tiempo y todo evoluciona
Motivados por una serie de estudios teóricos recientes, los investigadores decidieron profundizar más en la cuestión de la estructura del tiempo, en particular en la largamente debatida cuestión de si el tiempo es “discreto” o “continuo”. La diferencia entre ambas posibilidades es enorme. Si el tiempo fuera “discreto”, significaría que estaríamos ante una sucesión de momentos “fijos” e inmóviles, como si se tratara de los fotogramas de una película. En este caso, nuestra percepción del devenir del tiempo sería solo una ilusión, provocada por el paso de los fotogramas uno detrás de otro.
Por el contrario, si el tiempo fuera “continuo”, significaría que entre dos puntos cualquiera de la línea temporal sería posible colocar un número infinito de otros puntos temporales. En este caso, el tiempo no constaría de “fotogramas fijos”, sino que fluiría continuamente.
“En nuestro estudio -asegura Faizal- proponemos que el tiempo es discreto, e incluso hemos sugerido varias formas de demostrarlo experimentalmente”.
Uno de los experimentos propuestos por el equipo de científicos consiste en medir las emisiones espontáneas de un átomo de hidrógeno. Las ecuaciones de la Mecánica Cuántica modificadas con las nuevas ideas de los científicos predicen, en efecto, una sutil diferencia en la tasa de emisiones espontáneas con respecto a las ecuaciones sin modificar. Y los efectos observados en esas mediciones pueden ser observados en las tasas de desintegración de esas partículas y de los núcleos inestables.
Basándose en sus análisis de las emisiones espontáneas del hidrógeno, los investigadores pudieron estimar que el mínimo intervalo de tiempo posible está varias órdenes de magnitud por encima del tiempo de Planck. Faizal y sus colegas sugieren, además, que los cambios que han propuesto en las ecuaciones básicas de la Mecánica Cuántica podrían modificar nuestro concepto mismo de tiempo, así como su definición. Y explican que la estructura temporal podría considerarse similar a una estructura cristalina, que consiste en segmentos discretos que se repiten de forma regular.
En términos más filosóficos, el argumento de que la estructura temporal es “discreta” sugiere que nuestra percepción del tiempo como algo que fluye constantemente no sería más que una ilusión.
“El Universo físico -explica Faizal- es en realidad como una película de imágenes en movimiento, en la que una serie de fotogramas fijos proyectados sucesivamente en una pantalla crean la ilusión de estar ante imágenes que se mueven. Por lo tanto, si este punto de vista se toma en serio, entonces nuestra percepción consciente de la realidad física basada en el movimiento continuo se convierte en una ilusión producida por una estructura matemática discreta subyacente”.
“La propuesta -continúa el investigador- convierte en una realidad la física platónica en la naturaleza”, en referencia al argumento de Platón de que existe una verdadera realidad que es independiente de nuestros sentidos. “Sin embargo, y a diferencia de las teorías del idealismo platónico, nuestra propuesta puede ser probada experimentalmente, y no solo argumentada filosóficamente”.
Noticias Prensa
Jun
22
Los núcleos, la masa, la energía…¡La Luz!
por Emilio Silvera ~
Clasificado en Física ~
Comments (1)
Hay veces en las que nos cuentan cosas y hechos de los que nunca hemos tenido noticias y, resultan del máximo interés. Nuestra curiosidad nos llama a desentrañar los misterios y secretos que, tanto a nuestro alrededor, como en las regiones más lejanas del Universo, puedan haber ocurrido, puedan estar sucediendo ahora, o, en el futuro pudieran tener lugar, ya que, de alguna manera, todas ellas tienen que ver con nosotros que, de alguna manera, somos parte de la Naturaleza, del Universo y, lo que sucedió, lo que sucede y lo que sucederá… ¡Nos importa!
El saber ocupa un lugar en nuestras mentes
Algunos hablan de una nueva Humanidad, una nueva Conciencia
No podemos saber si la Humanidad como tal, estará aquí mucho tiempo más y, si con el tiempo y los cambios que se avecinan, nosotros los humanos, mutaremos hacia seres más completos y de mayor poder de adaptación al medio. Y, desde luego, nuestros descendientes, llegara un dia lejano en el futuro en el cual, habrán dejado la Tierra antes de que se convierta en Gigante Roja y calcine el Planeta y, habrán colonizado otros mundos. Para eso faltan mucho miles de millones de años. En la actualidad, solo estamos dando los inseguros primeros pasos por los alrededores de nuestro hogar, plantearnos ir mucho mas allá, es impensable. No tenemos ni la capacidad tecnológica ni la inteligencia necesaria para desarrollar los medios que se necesitan para poder desplazarnos a otros mundos lejanos que, posiblemente, estando situados en zona habitable como la misma Tierra, nos podrían dar el cobijo necesario para su colonización y hacer de ellos nuestros futuros hogares.
El futuro: Siempre será incierto
Pero, hablemos de Física
La partícula emitida por un núcleo radiactivo, por lo general lleva una considerable cantidad de energía. Y, ¿de dónde procede esa energía? Es el resultado de la conversión en energía de una pequeña parte del núcleo (E = mc2); en otras palabras, el núcleo siempre pierde un poco de masa en el acto de expeler la partícula.
Los físicos se vieron durante mucho tiempo turbados por el hecho de que, a menudo, la partícula beta emitida en una desintegración del núcleo no alberga energía suficiente para compensar la masa perdida por el núcleo. En realidad, los electrones no eran igualmente deficitarios. Emergían con un amplio espectro de energías, y el máximo (corregido por muy pocos electrones) era casi correcto, pero todos los demás no llegaban a alcanzarlo en mayor o menos grado. Las partículas alfa emitidas por un nucleido particular poseían iguales energías en cantidades inesperadas. En ese caso, ¿qué era erróneo en la emisión de partículas beta?, ¿qué había sucedido con la energía perdida?
En 1.922, Lise Maitner se hizo por primera vez esta pregunta, y hacia 1.936 Niels Bohr estaba dispuesto a abandonar el gran principio de conservación de la energía, al menos en lo concerniente a partículas subatómicas. En 1.931 Wolfgang Pauli sugirió una solución para el enigma de la energía desaparecida. Tal solución era muy simple: junto con la partícula beta del núcleo se desprendía otra, que se llevaba la energía desaparecida. Esa misteriosa segunda partícula tenía propiedades bastante extrañas; no poseía carga ni masa. Lo único que llevaba mientras se movía a la velocidad de la luz era cierta cantidad de energía. A decir verdad, aquello parecía un cuerpo ficticio creado exclusivamente para equilibrar el contraste de energías.
Habitualmente aceptamos que la física es la ciencia que estudia la estructura y propiedades de la materia y la energía, las formas de existencia de las mismas en el espacio y el tiempo, así como las leyes de rigen sus interacciones. En este definición no hay limitaciones precisas entre la naturaleza viviente e inanimada, y aunque ello no implica la reducción de todas las ciencias a la física, se deduce que las bases teóricas finales de cualquier dominio de las ciencias naturales tienen una naturaleza física.
Pero, sigamos…
Sin embargo, tan pronto como se propuso la posibilidad de su existencia, los físicos creyeron en ella ciegamente. Y esta certeza se incrementó al descubrirse el neutrón y al saberse que se desintegraba en un protón y liberaba un electrón que, como en la decadencia beta, portaba insuficientes cantidades de energía. Enrico Fermi dio a esta partícula putativa el nombre de neutrino, palabra italiana que significa “pequeño neutro”.
El neutrón dio a los físicos otra prueba palpable de la existencia del neutrino. Como ya he comentado en otra página de este trabajo, casi todas las partículas describen un movimiento rotatorio. Esta rotación se expresa, más o menos, en múltiplos de una mitad, según la dirección del giro. Ahora bien, el protón, el neutrón y el electrón tienen rotación de una mitad. Por tanto, si el neutrón con rotación de una mitad origina un protón y un electrón, cada uno con rotación de una mitad, ¿qué sucede con la ley sobre conservación del momento angular? Aquí hay algún error. El protón y el electrón totalizan una mitad con sus rotaciones (si ambas rotaciones siguen la misma dirección) o cero (si sus rotaciones son opuestas); pero sus rotaciones no pueden sumar jamás una mitad. Sin embargo, por otra parte, el neutrino viene a solventar la cuestión. Supongamos que la rotación del neutrón sea +½, y admitamos también que la rotación del protón sea +½ y la del electrón -½, para dar un resultado neto de cero. Demos ahora al neutrino una rotación de +½ y la balanza quedará desequilibrada.
+½ (n) = +½ (p) – ½ (e) + ½ (neutrino)
Detectando Neutrinos
En otras palabras, la existencia de neutrinos y antineutrinos debería salvar no una, sino tres, importantes leyes de conservación: la conservación de la energía, la de conservación del espín y la de conservación de partícula/antipartícula.
Pero aún queda algo por desequilibrar. Una sola partícula (el neutrón) ha formado dos partículas (el protón y el electrón), y si incluimos el neutrino, tres partículas. Parece más razonable suponer que el neutrón se convierte en dos partículas y una antipartícula. En otras palabras: lo que realmente necesitamos equilibrar no es un neutrino, sino un antineutrino.
El propio neutrino surgiría de la conversión de un protón en un neutrón. Así pues, los productos serían un neutrón (partícula), un positrón (antipartícula) y un neutrino (partícula). Esto también equilibra la balanza.
Impresionante vista de la Vía Láctea desde el Manua Kea. La Galaxia, el Universo…Todo es energía.
Es importante conservar esas leyes puesto que parece estar presentes en toda clase de relaciones nucleares que no impliques electrones o positrones, y sería muy útil si también se hallasen presentes en reacciones que incluyesen esas partículas. Las más importantes conversiones protón-neutrón son las relacionadas con las reacciones nucleares que se desarrollan en el Sol y en los astros. Por consiguiente, las estrellas emiten radiaciones rápidas de neutrinos, y se calcula que tal vez pierdan a causa de esto el 6 u 8% de su energía. Pero eso sería meternos en otra historia y, por mi parte, con la anterior explicación sólo trataba de dar una muestra del ingenio del hombre que, como habréis visto, no es poco.
Desde que puedo recordar, he sido un amante de la física. Me asombran cuestiones como la luz, su naturaleza de un conglomerado de colores, ondas y partículas, su velocidad que nos marca el límite del máximo que podemos correr en nuestro universo, y en fin, muchos otros misterios que encierra esa cosa tan cotidiana que nos rodea y lo inunda todo haciendo posible que podamos ver por donde vamos, que las plantas vivan y emitan oxígeno o que nos calentemos. Realmente, sin luz, nuestra vida no sería posible. Entonces, ¿qué es realmente la luz?
Muchos (casi todos) opinan que es algo inmaterial. Los objetos materiales grandes o muy pequeños como las galaxias o los electrones, son materia. La luz, sin embargo, se cree que es inmaterial; dos rayos de luz se cruzan sin afectarse el uno al otro. Sin embargo, yo creo que la luz es simplemente una forma de energía lumínica, una más de las diversas formas en las que puede presentarse la materia. Nosotros mismos, en última instancia, somos luz.
Está claro que los estudiosos de la época antigua y medieval estaban por completo a oscuras acerca de la naturaleza de la luz. Especulaban sobre que consistía en partículas emitidas por objetos relucientes o tal vez por el mismo ojo. Establecieron el hecho de que la luz viajaba en línea recta, que se reflejaba en un espejo con un ángulo igual a aquel con el que el rayo choca con el espejo, y que un rayo de luz se inclina (se refracta) cuando pasa del aire al cristal, al agua o a cualquier otra sustancia transparente.
Cuando la luz entra en un cristal o en alguna sustancia transparente, de una forma oblicua (es decir, en un ángulo respecto de la vertical), siempre se refracta en una dirección que forma un ángulo menor respecto de la vertical. La exacta relación entre el ángulo original y el ángulo reflejado fue elaborada por primera vez en 1.621 por el físico neerlandés Willerbrord Snell. No publicó sus hallazgos y el filósofo francés René Descartes descubrió la ley, independientemente, en 1.637.
¿Nos suplirán un día? Seguro que en el futuro, serán otros los que hagan experimentos con la luz y busquen su verdadera naturaleza.
Los primeros experimentos importantes acerca de la naturaleza de la luz fueron llevados a cabo por Isaac Newton en 1.666, al permitir que un rayo de luz entrase en una habitación oscura a través de una grieta de las persianas, cayendo oblicuamente sobre una cara de un prisma de cristal triangular. El rayo se refracta cuando entra en el cristal y se refracta aún más en la misma dirección cuando sale por una segunda cara del prisma (las dos refracciones en la misma dirección se originan porque los lados del prisma se encuentran en ángulo en vez de en forma paralela, como sería el caso de una lámina ordinaria de cristal).
Newton dedujo que la luz blanca corriente era una mezcla de varias luces que excitaban por separado nuestros ojos para producir las diversas sensaciones de colores. La amplia banda de sus componentes se denominó spectrum (palabra latina que significa “espectro” fantasma).
Newton atrapó el rayo emergente sobre una pantalla blanca para ver el efecto de la refracción reforzada. Descubrió que, en vez de formar una mancha de luz blanca, el rayo se extendía en una gama de colores: rojo, anaranjado, amarillo verde, azul y violeta, en este orden. Newton dedujo de ello que la luz blanca corriente era una mezcla de varias luces que excitaban por separado nuestros ojos para producir las diversas sensaciones de colores. La amplia banda de sus componentes se denominó spectrum (palabra latina que significa espectro o fantasma). Newton llegó a la conclusión de que la luz se componía de diminutas partículas (“corpúsculos”), que viajaban a enormes velocidades. Le surgieron y se planteó algunas inquietantes cuestiones: ¿por qué se refractaban las partículas de luz verde más que las de luz amarilla? ¿Cómo se explicaba que dos rayos de luz se cruzaran sin perturbarse mutuamente, es decir, sin que se produjeran colisiones entre partículas?
En 1.678, el físico neerlandés Christian Huyghens (un científico polifacético que había construido el primer reloj de péndulo y realizado importantes trabajos astronómicos) propuso una teoría opuesta: la de que la luz se componía de minúsculas ondas. Y si sus componentes fueran ondas, no sería difícil explicar las diversas difracciones de los diferentes tipos de luz a través de un medio refractante, siempre y cuando se aceptara que la luz se movía más despacio en ese medio refractante que en el aire. La cantidad de refracción variaría con la longitud de las ondas: cuanto más corta fuese tal longitud, tanto mayor sería la refracción. Ello significaba que la luz violeta (la más sensible a este fenómeno) debía de tener una longitud de onda más corta que la luz azul; ésta, más corta que la verde, y así sucesivamente.
Lo que permitía al ojo distinguir los colores eran esas diferencias entre longitudes de onda. Y como es natural, si la luz estaba integrada por ondas, dos rayos podrían cruzarse sin dificultad alguna (las ondas sonoras y las del agua se cruzan continuamente sin perder sus respectivas identidades).
Pero la teoría de Huyghens sobre las ondas tampoco fue muy satisfactoria. No explicaba por qué se movían en línea recta los rayos luminosos, ni por qué proyectaban sombras recortadas, ni aclaraba por qué las ondas luminosas no podían rodear los obstáculos, del mismo modo que pueden hacerlo las ondas sonoras y de agua. Por añadidura, se objetaba que si la luz consistía en ondas, ¿cómo podía viajar por el vacío, ya que cruzaba el espacio desde el Sol y las estrellas? ¿Cuál era esa mecánica ondulatoria?
Con el éxito de Newton de su ley de la Gravitación Universal, no es extraño que afirmara de forma tajante que la luz es corpuscular. Newton se opuso violentamente a la naturaleza ondulatoria de la luz, ya que no veía cómo se podía explicar con ella la propagación rectilínea de la misma. Por otro lado estaba Christian Huygens, 13 años mayor que Newton que defendía la naturaleza ondulatoria con algunas ventajas.
Ambas teorías explicaban perfectamente la reflexión y refracción de la luz. Pero diferían en una cosa. La teoría corpuscular afirmaba que las partículas de luz se acelerarían al pasar por un material de mayor densidad óptica y las ondas a menor. Esto no era comprobable por aquella época. Debido a la influencia de Newton y a la poca habilidad de Huygens para desarrollarla matemáticamente, la teoría ondulatoria quedó descartada durante un siglo.
Aproximadamente durante un siglo, contendieron entre sí estas teorías. La teoría corpuscular de Newton fue, con mucho, la más popular, en parte porque la respaldó el famoso nombre de su autor. Pero hacia 1.801, un físico y médico inglés, de nombre Thomas Young, llevó a cabo un experimento que arrastró la opinión pública al campo opuesto. Proyectó un fino rayo luminoso sobre una pantalla, haciéndolo pasar antes por dos orificios casi juntos; si la luz estuviera compuesta por partículas, cuando los dos rayos emergieran de ambos orificios, formarían presuntamente en la pantalla una región más luminosa donde se superpusieran, y regiones menos brillantes, donde no se diera tal superposición. La pantalla mostró una serie de bandas luminosas, separadas entre sí por bandas oscuras; pareció incluso que en esos intervalos de sombra, la luz de ambos rayos contribuía a intensificar la oscuridad.
Sería fácil explicarlo mediante la teoría ondulatoria; la banda luminosa representaba el refuerzo prestado por las ondas de un rayo a las ondas del otro, dicho de otra manera, entraban “en fase” dos trenes de ondas, es decir, ambos nodos, al unirse, se fortalecían el uno al otro. Por otra parte, las bandas oscuras representaban puntos en los que las ondas estaban “desfasadas” porque el vientre de una neutralizaba el nodo de la otra. En vez de aunar sus fuerzas, las ondas se interferían mutuamente, reduciendo la energía luminosa neta a las proximidades del punto cero.
Considerando la anchura de las bandas y la distancia entre los dos orificios por lo que surgen ambos rayos, se pudo calcular la longitud de las ondas luminosas, por ejemplo, de la luz roja a la violeta o de los colores intermedios. Las longitudes de onda resultaron ser muy pequeñas. Así, la de la luz roja era de unos 0’000075 cm. Hoy se expresan las longitudes de las ondas luminosas mediante una unidad muy práctica ideada por Ángstrom; esta unidad, denominada igualmente Ángstrom (Å) en honor a su autor, es la cienmillonésima parte de un centímetro. Así pues, la longitud de onda de la luz roja equivale más o menos a 7.500 Å, y la de la luz violeta a 3.900 Å, mientras que las de colores visibles en el espectro oscilan entre ambas cifras.
La cortedad de estas ondas es muy importante. La razón de que las ondas luminosas se desplacen en línea recta y proyecten sombras recortadas se debe a que todas son incomparablemente más pequeñas que cualquier objeto; pueden contornear un obstáculo sólo si este no es mucho mayor que la longitud de onda. Hasta las bacterias, por ejemplo, tienen un volumen muy superior al de una onda luminosa, y por tanto, la luz puede definir claramente sus contornos bajo el microscopio. Sólo los objetos cuyas dimensiones se asemejan a la longitud de onda luminosa (por ejemplo, los virus y otras partículas subatómicas) son lo suficientemente pequeños como para que puedan ser contorneados por las ondas luminosas.
Un físico francés, Agustin-Jean Fresnel, fue quien demostró por vez primera en 1.818 que si un objeto es lo suficientemente pequeño, la onda luminosa lo contorneará sin dificultad. En tal caso, la luz determina el llamado fenómeno de “difracción”. Por ejemplo, las finísimas líneas paralelas de una “reja de difracción” actúan como una serie de minúsculos obstáculos, que se refuerzan entre sí. Puesto que la magnitud de la difracción va asociada a la longitud de onda, se produce el espectro. A la inversa, se puede calcular la longitud de onda midiendo la difracción de cualquier color o porción del espectro, así como la separación de las marcas sobre el cristal.
La mano del Universo juguetea con unos puntos luminosos que quieren llegar a ser cegadores…Son nuestras Mentes, productos de la evolución del Universo que, a partir de la materia inerte, ha podido alcanzar el estadio bio-químico de la consciencia y, al ser conscientes, hemos podido descubrir que existen “números misteriosos” dentro de los cuales subyacen mensajes que tenemos que desvelar.
Fraunhofer exploró dicha reja de difracción con objeto de averiguar sus finalidades prácticas, progreso que suele olvidarse, pues queda eclipsado por su descubrimiento más famoso, los rayos espectrales. El físico americano Henry Augustus Rowland ideó la reja cóncava y desarrolló técnicas para regularlas de acuerdo con 20.000 líneas por pulgada. Ello hizo posible la sustitución del prisma por el espectroscópio.
Ante tales hallazgos experimentales, más el desarrollo metódico y matemático del movimiento ondulatorio, debido a Fresnel, pareció que la teoría ondulatoria de la luz había arraigado definitivamente, desplazando y relegando para siempre a la teoría corpuscular.
No sólo se aceptó la existencia de ondas luminosas, sino que también se midió su longitud con una precisión cada vez mayor. Hacia 1.827, el físico francés Jacques Babinet sugirió que se empleara la longitud de onda luminosa (una cantidad física inalcanzable) como unidad para medir tales longitudes, en vez de las muy diversas unidades ideadas y empleadas por el hombre. Sin embargo, tal sugerencia no se llevó a la práctica hasta 1.880 cuando el físico germano-americano Albert Abraham Michelson inventó un instrumento denominado “interferómetro”, que podía medir las longitudes de ondas luminosas con una exactitud sin precedentes. En 1.893, Michelson midió la onda de la raya roja en el espectro del cadmio y determinó que su longitud era de 1/1.553.164 m.
Tubo de descarga lleno de kriptón puro
Pero la incertidumbre reapareció al descubrirse que los elementos estaban compuestos por isótopos diferentes, cada uno de los cuales aportaba una raya cuya longitud de inda difería ligeramente de las restantes. En la década de 1.930 se midieron las rayas del criptón 86. Como quiera que este isótopo fuera gaseoso, se podía abordar con bajas temperaturas, para frenar el movimiento atómico y reducir el consecutivo engrosamiento de la raya.
En 1.960, el Comité Internacional de Pesos y Medidas adoptó la raya del criptón 86 como unidad fundamental de la longitud. Entonces se reestableció la longitud del metro como 1.650.763’73 veces la longitud de onda de dicha raya espectral. Ello aumentó mil veces la precisión de las medidas de longitud. Hasta entonces se había medido el antiguo metro patrón con un margen de error equivalente a una millonésima, mientras que en lo sucesivo se pudo medir la longitud de onda con un margen de error equivalente a una milmillonésima.
emilio silvera
Jun
21
Dos verdades incompatibles
por Emilio Silvera ~
Clasificado en Física ~
Comments (3)
Trabajo presentado en la XIX Edición del Carnaval de la Física
El mundo de la Física tiene planteado un gran problema y los físicos son muy conscientes de ello, conocen su existencia desde hace décadas. El problema es el siguiente:
La realtividad general nos dice que en presencia de masa, se curva el espacio y se distorsiona el Tiempo
Existen dos pilares fundamentales en los cuales se apoya toda la física moderna. Uno es la relatividad general de Albert Einstein, que nos proporciona el marco teórico para la comprensión del universo a una escala máxima: estrellas, galaxias, cúmulos (o clusters) de galaxias, y aún más allá, hasta la inmensa expansión del propio universo.
El otro pilar es la mecánica cuántica, que en un primer momento vislumbro Max Planck y posteriormente fue desarrollada por W. Heisemberg, Schrödinger, el mismo Einstein, Dirac, Niels Bohr y otros, que nos ofrece un marco teórico para comprender el universo en su escala mínima: moléculas, átomos, y así hasta las partículas subatómicas, como los electrones y quarks.
Durante años de investigación, los físicos han confirmado experimentalmente, con una exactitud casi inimaginable, la practica totalidad de las predicciones que hacen las dos teorías. Sin embargo, estos mismos instrumentos teóricos nos llevan a una conclusión inquietante: tal como se formulan actualmente, la relatividad general y la mecánica cuántica no pueden ser ambas ciertas a la vez.
Nos encontramos con que las dos teorías en las que se basan los enormes avances realizados por la física durante el último siglo (avances que han explicado la expansión de los cielos y la estructura fundamental de la materia) son mutuamente incompatibles. Cuando se juntan ambas teorías, aunque la formulación propuesta parezca lógica, aquello explota; la respuesta es un sinsentido que nos arroja un sin fin de infinitos a la cara.
Así que si tú, lector, no has oído nunca previamente hablar de este feroz antagonismo, te puedes preguntar a que será debido. No es tan difícil encontrar la respuesta. Salvo en algunos casos muy especiales, los físicos estudian cosas que son o bien pequeñas y ligeras (como los átomos y sus partes constituyentes), o cosas que son enormes y pesadas (como estrellas de neutrones y agujeros negros), pero no ambas al mismo tiempo. Esto significa que sólo necesitan utilizar la mecánica cuántica, o la relatividad general, y pueden minimizar el problema que se crea cuando las acercan demasiado; las dos teorías no pueden estar juntas. Durante más de medio siglo, este planteamiento no ha sido tan feliz como la ignorancia, pero ha estado muy cerca de serlo.
“… de Estados Unidos (NASA, registraron las ráfagas de viento más rápidas nunca antes detectadas alrededor de un agujero negro.”
No obstante, el universo puede ser un caso extremo. En las profundidades centrales de un agujero negro se aplasta una descomunal masa hasta reducirse a un tamaño minúsculo. En el momento del Bing Bang, la totalidad del universo salió de la explosión de una bolita microscópica cuyo tamaño hace que un grano de arena parezca gigantesco. Estos contextos son diminutos y, sin embargo, tienen una masa increíblemente grande, por lo que necesitan basarse tanto en la mecánica cuántica como en la relatividad general.
Por ciertas razones, las fórmulas de la relatividad general y las de la mecánica cuántica, cuando se combinan, empiezan a agitarse, a traquetear y a tener escapes de vapor como el motor de un viejo automóvil. O dicho de manera menos figurativa, hay en la física preguntas muy bien planteadas que ocasionan esas respuestas sin sentido, a que me referí antes, a partir de la desafortunada amalgama de las ecuaciones de las dos teorías.
Aunque se desee mantener el profundo interior de un agujero negro y el surgimiento inicial del universo envueltos en el misterio, no se puede evitar sentir que la hostilidad entre la mecánica cuántica y la relatividad general está clamando por un nivel más profundo de comprensión.
¿Puede ser creíble que para conocer el universo en su conjunto tengamos que dividirlo en dos y conocer cada parte por separado? Las cosas grandes una ley, las cosas pequeñas otra.
Einstein que con sus trabajos (algunos maravillosos), como el Efecto Fotoeléctrico que le valió el Nóbel, fue uno de los padres de la Mecánica cuántica y, sin embargo, pasó gran parte de su vida combatiéndola, a él no le entraba en la cabeza que aquella teoría de lo muy pequeño, fuese incompatible con la suya de la Relatividad General. Aquellos dons “mundos” de lo muy grande y lo muy pequeño aparecían incompatibles y, cuando los físicos trataban de unirlos, aunque el planteamiento fuese racional y muy bien conformado, el resultado era como una gran explosión de indinitos sin sentido… ¿Por qué sería?
No creo que eso pueda ser así. Mi opinión es que aún no hemos encontrado la llave que abre la puerta de una teoría cuántica de la gravedad, es decir, una teoría que unifique de una vez por todas las dos teorías más importantes de la física: mecánica cuántica + relatividad general.
Allí, en esa lejana región donde dicen que están las cuerdas vibrantes de la Teoría M, según nos dicen, subyace esa teoría cuántica de la Gravedad, toda vez que, ambas teorías, la de Einstein y la de Planck, la de lo muy grande y lo muy pequeño, conviven sin problemas y, no sólo no se rechazan sino que, se complementan en un todo armonioso.
Si es así, la teoría de supercuerdas ha venido a darme la razón. Los intensos trabajos de investigación llevada a cabo durante los últimos 20 años demuestran que puede ser posible la unificación de las dos teorías cuántica y relativista a través de nuevas y profundas matemáticas topológicas que han tomado la dirección de nuevos planteamientos más avanzados y modernos, que pueden explicar la materia en su nivel básico para resolver la tensión existente entre las dos teorías.
En esta nueva teoría de supercuerdas se trabaja en 10, 11 ó en 26 dimensiones, se amplía el espacio ahora muy reducido y se consigue con ello, no sólo el hecho de que la mecánica cuántica y la relatividad general no se rechacen, sino que por el contrario, se necesitan la una a la otra para que esta nueva teoría tenga sentido. Según la teoría de supercuerdas, el matrimonio de las leyes de lo muy grande y las leyes de lo muy pequeño no sólo es feliz, sino inevitable.
Esto es sólo una parte de las buenas noticias, porque además, la teoría de las supercuerdas (abreviando teoría de cuerdas) hace que esta unión avance dando un paso de gigante. Durante 30 años, Einstein se dedicó por entero a buscar esta teoría de unificación de las dos teorías, no lo consiguió y murió en el empeño; la explicación de su fracaso reside en que en aquel tiempo, las matemáticas de la teoría de supercuerdas eran aún desconocidas. Sin embargo, hay una curiosa coincidencia en todo esto, me explico:
Cuando los físicos trabajan con las matemáticas de la nueva teoría de supercuerdas, Einstein, sin que nadie le llame, allí aparece y se hace presente por medio de las ecuaciones de campo de la relatividad general que, como por arte de magia, surgen de la nada y se hacen presentes en la nueva teoría que todo lo unifica y también todo lo explica; posee el poder demostrar que todos los sorprendentes sucesos que se producen en nuestro universo (desde la frenética danza de una partícula subatómica que se llama quark hasta el majestuoso baile de las galaxias o de las estrellas binarias bailando un valls, la bola de fuego del Big Bang y los agujeros negros) todo está comprendido dentro de un gran principio físico en una ecuación magistral.
Esta nueva teoría requiere conceptos nuevos y matemáticas muy avanzados y nos exige cambiar nuestra manera actual de entender el espacio, el tiempo y la materia. Llevará cierto tiempo adaptarse a ella hasta instalarnos en un nivel en el que resulte cómodo su manejo y su entendimiento. No obstante, vista en su propio contexto, la teoría de cuerdas emerge como un producto impresionante pero natural, a partir de los descubrimientos revolucionarios que se han realizado en la física del último siglo. De hecho, gracias a esta nueva y magnifica teoría, veremos que el conflicto a que antes me refería existente entre la mecánica cuántica y la relatividad general no es realmente el primero, sino el tercero de una serie de conflictos decisivos con los que se tuvieron que enfrentar los científicos durante el siglo pasado, y que fueron resueltos como consecuencia de una revisión radical de nuestra manera de entender el universo.
El primero de estos conceptos conflictivos, que ya se había detectado nada menos que a finales del siglo XIX, está referido a las desconcertantes propiedades del movimiento de la luz.
Isaac Newton y sus leyes del movimiento nos decía que si alguien pudiera correr a una velocidad suficientemente rápida podría emparejarse con un rayo de luz que se esté emitiendo, y las leyes del electromagnetismo de Maxwell decían que esto era totalmente imposible. Einstein, en 1.905, vino a solucionar el problema con su teoría de la relatividad especial y a partir de ahí le dio un vuelco completo a nuestro modo de entender el espacio y el tiempo que, según esta teoría, no se pueden considerar separadamente y como conceptos fijos e inamovibles para todos, sino que por el contrario, el espacio-tiempo era una estructura maleable cuya forma y modo de presentarse dependían del estado de movimiento del observador que lo esté midiendo.
1.080 Km/h
La velocidad de la luz es una constante universal y, cuado es emitida por un cuerpo celeste de forma isotrópica, corre en todas las direcciones a la misma velocidad de 299.792.458 metros por segundo. No importa si la fuente emisora está en movimiento o en reposo, la velocidad es invariante.
El escenario creado por el desarrollo de la relatividad especial construyó inmediatamente el escenario para el segundo conflicto. Una de las conclusiones de Einstein es que ningún objeto (de hecho, ninguna influencia o perturbación de ninguna clase) puede viajar a una velocidad superior a la de la luz. Einstein amplió su teoría en 1915 – relatividad general – y perfeccionó la teoría de la gravitación de Newton, ofreciendo un nuevo concepto de la gravedad que estaba producida por la presencia de grandes masas, tales como planetas o estrellas, que curvaban el espacio y distorsionaban el tiempo.
Tales distorsiones en la estructura del espacio y el tiempo transmiten la fuerza de la gravedad de un lugar a otro. La luna no se escapa y se mantiene ahí, a 400.000 Km de distancia de la Tierra, porque está influenciada por la fuerza de gravedad que ambos objetos crean y los mantiene unidos por esa cuerda invisible que tira de la una hacia la otra y viceversa. Igualmente ocurre con el Sol y la Tierra que, separados por 150 millones de kilómetros, están influidos por esa fuerza gravitatoria que hace girar a la Tierra (y a los demás planetas del Sistema Solar) alrededor del Sol.
Así las cosas, no podemos ya pensar que el espacio y el tiempo sean un telón de fondo inerte en el que se desarrollan los sucesos del universo, al contrario; según la relatividad especial y la relatividad general, son actores que desempeñan un papel íntimamente ligado al desarrollo de los sucesos.
El descubrimiento de la relatividad general, aunque resuelve un conflicto, nos lleva a otro. Durante tres décadas desde 1.900, en que Max Planck publicó su trabajo sobre la absorción o emisión de energía de manera discontinua y mediante paquetes discretos a los que él llamo cuantos, los físicos desarrollaron la mecánica cuántica en respuesta a varios problemas evidentes que se pusieron de manifiesto cuando los conceptos de la física del siglo XIX se aplicaron al mundo microscópico. Así que el tercer conflicto estaba servido, la incompatibilidad manifiesta entre relatividad general y mecánica cuántica.
La forma geométrica ligeramente curvada del espacio que aparece a partir de la relatividad general, es incompatible con el comportamiento microscópico irritante y frenético del universo que se deduce de la mecánica cuántica, lo cual era sin duda alguna el problema central de la física moderna.
Las dos grandes teorías de la física, la relatividad general y la mecánica cuántica, infalibles y perfectas por separado, no funcionaban cuando tratábamos de unirlas resulta algo incomprensible, y, de todo ello podemos deducir que, el problema radica en que debemos saber como desarrolar nuevas teorías que modernicen a las ya existentes que, siendo buenas herramientas, también nos resultan incompletas para lo que, en realidad, necesitamos.
emilio silvera