jueves, 21 de noviembre del 2024 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




¡La Física! Siempre nos sorprende

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (2)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 «

                        Foto: COSMIN BLAGA, OHIO STATE UNIVERSITY.
Investigadores de la Universidad Estatal de Ohio (Estados Unidos), han registrado, utilizando una nueva cámara ultrarrápida, la primera imagen en tiempo real de dos átomos vibrando en una molécula. La clave del experimento, que ha sido publicado en la revista ‘Nature’, fue la utilización de la energía del propio electrón de una molécula.  El equipo usó pulsos láser ultrarrápidos para expulsar un electrón fuera de su órbita natural en una molécula; el electrón retrocedió, entonces, hacia la molécula, dispersándose, de forma análoga a la manera en que un destello de luz se dispersa alrededor de un objeto, o una onda expansiva de agua se dispersa en un estanque.
Podemos comprobar que cada día estamos más cerca de saber, sobre la verdadera naturaleza de la materia al poder acceder a ese microscópico “mundo” de lo muy pequeño, allí donde residen los cuantos, esos infinitesimales objetos que se unen para conformar todo lo que podemos ver en nuestro universo, desde la más pequeña mota de polvo hasta la galaxia más grande.

 

 

 

Diagrama de un microscopio de fuerza atómica

 

Las veloces computadoras cuánticas hechas con átomos atrapados por haces de luz pueden estar un poco más cerca, gracias a las primeras imágenes de átomos individuales obtenidas en una de estas grillas.

 

 

 

 

La velocidad de las computadoras cuánticas tiene que ver con el hecho de que sus componentes pueden ocupar una serie de estados en lugar de sólo dos como ocurre en una computadora binaria. Ciertos algoritmos especiales podrían explotar estos estados cuánticos para resolver problemas que derrotarían a una computadora convencional.

 

 

Resultado de imagen de La velocidad de las computadoras cuánticas

 

 

Una candidata a computadora de este tipo es la llamada “rejilla óptica”, en la que haces de rayos láser estratégicamente ubicados hacen que los átomos ultrafríos se coloquen en forma de grilla, como si fueran huevos en su envase de cartón. Pero antes de que uno pudiera leer o escribir sobre estos átomos, algo indispensable si la rejilla fuera a actuar como una computadora cuántica, haría falta determinar las posiciones exactas de los mismos.

Ahora dos equipos de investigadores, uno conducido por Stefan Kuhr del Instituto Max Planck de Óptica Cuántica de Garching, Alemania, y el otro por Markus Greiner de la Universidad de Harvard, han dado el primer paso al obtener imágenes de átomos individuales de rubidio en una rejilla óptica. Este es un reto no sólo porque los átomos son pequeños, sino también porque los fotones de los átomos cercanos pueden interferir unos con otros, enturbiando cualquier patrón.

 

 

 

 

Para superar esto, los equipos estudiaron el patrón de luz de un solo átomo. Luego crearon un algoritmo capaz de generar una combinación de este patrón a partir de diferentes disposiciones de una grilla de átomos. Cotejando estas simulaciones con el modelo real observado, el algoritmo podía determinar cuál era la distribución de los átomos.

Cada átomo en la grilla actúa como un bit cuántico. Kuhr dice que la rejilla óptica tiene muchos más de estos “qubits” que otros sistemas enfocados en la computación cuántica, por lo que puede ofrecer mayor velocidad.

 

 

Imagen

 

 

Los láseres pueden volver reales las partículas virtuales. Los láseres de última generación tienen el poder de crear materia por medio de la captura de partículas fantasmales que, de acuerdo a la mecánica cuántica, permean el espacio aparentemente vacío

 

El principio de incertidumbre de la mecánica cuántica implica que el espacio nunca puede estar realmente vacío. En cambio, las fluctuaciones aleatorias causan el nacimiento de un caldero hirviente de partículas, como electrones y sus homólogos de antimateria, los positrones.

Las llamadas “partículas virtuales” normalmente se aniquilan entre sí demasiado rápido para que las veamos. Pero los físicos predijeron en los años 30 que un campo eléctrico muy fuerte transformaría las partículas virtuales en reales, y entonces las podríamos observar. El campo las impulsa en direcciones opuestas, porque tienen cargas eléctricas que se oponen, y las separándolos de modo que no puede destruirse mutuamente.

 

 

Los rayos láser del futuro funcionan con muy cortos destellos de luz y son tan versátiles que revolucionarán la producción industrial. Un avance logrado por científicos alemanes. No hay otro instrumento que pueda cortar o perforar metal con tan alta precisión como los rayos láser de destellos ultracortos. Con estos se puede grabar un mapa del mundo en la cabeza de un alfiler en el que – incluso – pueden identificarse las más pequeñas islas del Caribe.

Main Control Center

 

 

Los láseres son ideales para esta tarea, porque su luz posee campos eléctricos fuertes. En 1997, los físicos del Stanford Linear Accelerator Center (SLAC), en Menlo Park, California, utilizaron luz láser para crear unas pocas parejas de electrón-positrón. Ahora, nuevos cálculos indican que los láser de nueva generación serán capaces de crear pares por millones.

 

Reacción en cadena

 

 

Resultado de imagen de En el experimento de SLAC, sólo se creó un par electrón-positrón a la vez

 

 

En el experimento de SLAC, sólo se creó un par electrón-positrón a la vez. Pero con los láseres más potentes, es probable que se produzca una reacción en cadena.

El primer par es acelerado a gran velocidad por el láser, haciendo que emita luz. Esta luz, junto con la del láser, genera aún más pares, dice Alexander Fedotov de la Dirección Nacional de Investigaciones Nucleares de la Universidad de Moscú y sus colegas en un estudio que aparecerá en Physical Review Letters.

“Surgirá una gran cantidad de partículas del vacío”, dice John Kirk del Instituto Max Planck de Física Nuclear en Heidelberg, Alemania, que no participó en el estudio.

En los láseres que pueden concentrar cerca de 1026 vatios en un centímetro cuadrado, esta reacción desatada debería convertir de manera eficiente la luz del láser en millones de pares de electrones positrones, calcula el equipo.

 

Fábrica de antimateria

 

 

 

 

Ese nivel de intensidad lo podría alcanzar un láser que será construido por el proyecto Extreme Light Infrastructure en Europa. La primera versión del láser se podría construir en 2015, pero podría llevar un año más completar las actualizaciones necesarias para llegar a 1026 vatios por centímetro cuadrado, dice el coautor del estudio Georg Korn del Instituto Max Planck de Óptica Cuántica en Garching , Alemania.

La capacidad de generar una gran cantidad de positrones podría ser útil para los colisionadores de partículas, como el propuesto del Colisionador Lineal Internacional, que impactará electrones y positrones, dice Kirk McDonald de la Universidad de Princeton en Nueva Jersey.

Pero Pisin Chen, de la Universidad Nacional de Taiwan en Taipei, dice que el costo de los poderosos láseres puede hacer que este método sea más caro que el alternativo. En la actualidad, la manera estándar de crear una gran cantidad de positrones es disparar un haz de electrones de alta energía a una pieza de metal, para producir pares electrón-positrón. Vean la publicación siguiente:


La materia supera a la antimateria en un experimento que imita a la creación

 

 

 

El desequilibrio en el acelerador de partículas de Illinois podría presagiar grandes avances en Física

 

A menos de una billonésima de segundo después del Big Bang ocurrió otro evento tumultuoso. Aunque el Cosmos nació con partes iguales de materia y antimateria, que se destruyeron una a la otra al entrar en contacto, de alguna forma la materia comenzó a predominar. Los físicos han descubierto una nueva pista sobre la causa de este desequilibrio fortuito, que condujo a la existencia de galaxias, planetas y personas.

 

 

 

 

 

Circunferencia de 4 kilómetros de diámetro del Acelerador de Partículas del Laboratorio Fermi de Chicago

 

El nuevo hallazgo se basa en ocho años de estudio de la desintegración de partículas de vida corta, llamadas mesones B, que se produce durante las colisiones de alta energía en el acelerador de partículas Tevatrón del Laboratorio Fermi (Fermilab), ubicado en Batavia, Illinois. Los científicos del experimento DZero del Tevatrón han descubierto que los mesones B, cuando se desintegran, producen cerca del 1 % más de pares de muones (una versión pesada del electrón) que de pares de sus antipartículas, los antimuones. Los físicos se refieren a este fenómeno como una violación CP.

El desequilibrio, reportado el 14 de mayo en un seminario del Fermilab y publicado en Internet el 18 de mayo, podría servir para entender cómo fue que la materia superó a la antimateria en el Universo. También aumenta las posibilidades de que el Gran Colisionador de Hadrones, el acelerador de Suiza que sustituyó al Tevatrón como el colisionador de partículas más poderoso del mundo, encuentre nuevas partículas elementales o una nueva física. Hablamos del LHC que, de hecho, las ha encontrado.

 

 

feature photo

 

El acelerador de partículas Tevatróndel Laboratorio Fermi (Fermilab),ubicado en Batavia, Illinois. Fue el primero en producir antimateria

 

“Aunque pequeño, este excedente del 1% es 50 veces más grande que la asimetría entre materia y antimateria prevista para la desintegración de mesones B por el modelo estándar de la Física de Partículas”, señala el portavoz del DZero, Stefan Söldner-Rembold, de la Universidad de Manchester en Inglaterra.

“Se nos puso la piel de gallina”, cuenta Söldner-Rembold acerca del momento en el que él y los 500 colaboradores del DZero comprendieron lo que habían descubierto. “Estábamos muy contentos porque significa que hay una nueva Física más allá del modelo estándar que tiene que estar a nuestro alcance para que la asimetría sea tan grande”.

“Aunque hay una probabilidad de menos del 0,1 % de que los resultados del DZero sean una casualidad, de acuerdo con las normas de la Física de Partículas hay que considerarlos como indicios aún por confirmar”, advierte el teórico Yuval Grossman de la Universidad de Cornell. Söldner-Rembold señala que los hallazgos del DZero son similares a una asimetría en la producción de materia-antimateria descubierta hace un año por otro experimento llevado a cabo en el Tevatrón, el CDF, pero los nuevos resultados tienen una precisión mayor.

 

 

 

 

“Las teorías que podrían explicar las observaciones del DZero incluyen la supersimetría, que supone que cada partícula elemental en el modelo estándar de la Física de Partículas tiene una superpareja más pesada todavía por descubrir”, explica la teórica del Fermilab Marcela Carena, que no pertenece al equipo descubridor. “Otras teorías posibles incluyen un modelo en el que la gravedad y otras fuerzas operan en otras dimensiones ocultas, y la noción de que hay una cuarta familia de quarks más allá de las tres generaciones (arriba y abajo, encanto y extraño, y cima y fondo) que sirven como bloques de construcción de los núcleos atómicos y otras partículas.

“En los modelos que consideran una cuarta familia de quarks, la presencia de quarks nuevos y pesados y su interacción con las tres familias conocidas podrían dar lugar a un desequilibrio mayor entre materia y antimateria que el que se encuentra en el modelo estándar”, señala Carena. Y agrega: “En la teoría de la supersimetría, las superparejas pesadas jugarían un rol similar al de los quarks pesados, creando interacciones que podrían favorecer la producción de materia sobre la antimateria”.

 

 

 

 

No siempre la física lo puede explicar todo. Sin embargo… ¡Lo va consiguiendo!

 

En la teoría de las dimensiones extra, nuevas partículas mensajeras (portadoras de fuerzas previamente desconocidas) se moverían en dimensiones ocultas. Estas partículas transportadoras podrían alterar la carga y otra propiedad, llamada “sabor”, de las partículas elementales, causando el desequilibrio adicional entre materia y antimateria.

Carena añade: “Sin embargo, es difícil encontrar una teoría que pueda explicar esta asimetría sin contradecir otros resultados experimentales”.

 

 

 

La materia superó a la antimateria en el comienzo

 

Ulrich Nierste, de la Universidad de Karlsruhe en Alemania, advierte: “La conexión del resultado del DZero con el excedente de materia que existe en el Universo es vaga. Si bien el hallazgo insinúa una nueva fuente de asimetría en las propiedades del mesón B y de su antipartícula, el proceso que creó más partículas que antipartículas en el Universo primitivo podría involucrar un mecanismo físico muy diferente”.

“Sin embargo”, dice Carena, “hace falta alguna nueva fuente de asimetría para explicar el desequilibrio que hay entre la materia y la antimateria en el Universo, y, por lo tanto, nuestra existencia”. En cualquiera de los modelos propuestos “el Gran Colisionador de Hadrones debería ser la ventana directa para observar nuevas partículas”.

Uno de los experimentos más pequeños del Colisionador, diseñado para estudiar los mesones B, podría confirmar los hallazgos del DZero dentro de uno o dos años”, dice Yuval Grossman. Y agrega: “Los experimentos más grandes podrían entonces buscar nuevas partículas que serían el origen del desequilibrio cósmico entre materia y antimateria y determinar sus masas”.

 

 

 

 

El experimento Beauty (Belleza) es la matriz de investigación para la creación de antimateria. El choque de dos protones contra otro a la velocidad de la luz, ha tenido como resultado una partícula con 5 veces más masa que sus protones originales. A esa exótica partícula se le ha llamado B+ y está compuesta por un quark b-anti y un quark u. La partícula B+ se desintegra a una altísima velocidad pero le da tiempo a recorrer ¡¡2 mm!! antes de desintegrarse en dos partículas, el mesón J / ? y el Kaon K+. Esta distancia, comparada con los minúsculos tamaños que estamos tratando, es una auténtica pasada. Hemos tenido antimateria pura moviéndose a lo largo de dos extensos milímetros de “nuestro” espacio. Impresionante.

Lo revolucionario sin embargo es que de esta forma, los investigadores habrían demostrado la teoría de Albert Einstein. “Sí, podemos crear masa a partir de energía usando la famosa fórmula de Einstein, E=mc2, dicen los responsables del CERN. Aunque también hay que destacar que la confirmación de que existe la antimateria plantea muchas preguntas de difícil resolución puesto que esa sustancia no existe en nuestro universo. “Ya que la desaparición de antimateria primordial no puede ser explicada por el modelo tradicional, tendremos que comenzar a pensar en algo nuevo”, afirman los investigadores. “Los científicos están evaluando diferentes posibilidades pero, dado que sólo podemos observar un 4% de la energía y materia total del universo, podemos inferir que la respuesta al misterio de la antimateria se encuentra en la parte desconocida del mismo”, concluyen.

 

 

 

 

Como podéis ver, las preguntas son muchas y, las respuestas, son más escasas. Sin embargo, no dejamos de insistir y buscar con todos medios a nuestro alcance para saber sobre la Naturaleza no ya de la materia y la antimateria, sino sobre los muchos enigmas que tenemos planteados y a los que no sabemos dar una adecuada explicación. Parece que a lo lejos vemos una luz cegadora que nos inyecta la esperanza necesaria para seguir la búsqueda y tratar de llegar al corazón de todos esos secretos que el Universo esconde.

 

 

Dibujo20130308 oldest known star hd140283 backyard view

 

Hay cosas que… más que sorprendentes son… ¡Inclreibles! He leído por ahí que…

 

“Un grupo de astrónomos, usando datos del telescopio espacial Hubble, ha determinado la edad de la que es la estrella más vieja cuya edad puede medirse con precisión. El resultado ha sido que la edad de la estrella es de 14.500 ± 800 millones de años, mayor que la estimación de la edad del universo, unos 13.800 millones de años. La estrella en cuestión (HD 140283), también llamada “estrella Matusalén,” una gigante roja que se encuentra a una distancia de 190,1 años luz en la constelación de Libra (distancia medida con precisión mediante la técnica de paralaje). En el año 2000 se dató su edad en 16.000 millones de años. Sin embargo, existen algunas cuestiones que podrían aclarar la extrema edad de esta estrella. Nuevos modelos sobre la difusión de helio en el núcleo indican que la penetración del mismo podría ser mayor de la que se piensa, lo que provocaría un menor ritmo de combustión. También la relación oxígeno-hierro en esta estrella es anómala, demasiado grande, por lo que se cree que futuras observaciones que puedan determinar con mayor grado de precisión la abundancia de oxígeno podrían reducir nuevamente la estimación de la edad de la estrella.”

 

 

Resultado de imagen de Proyectos espaciales con éxito

 

 

 

Lo cierto amigos míos es que, como el ciego que adelanta su bastón de apoyo, vamos tanteando sobre estos misteriosos temas que deseamos conocer y, por medio de la física con la ayuda de ingentes ingenios de la mejor tecnología que hemos podido construir, vamos día a día despejando incógnitas de todos esos problemas de cuya complejidad, nos habla la Naturaleza que no quiere ponernos nada fácil el acceso a conocimientos para los que, seguramente, no estamos aún preparados.
Algunas veces tengo la impresión de que, la misma Naturaleza que nos creó, cuida de nosotros y no nos deja manejar, ciertos “juguetes” que podrían ser demasiado peligrosos para nosotros dado que, no tenemos ni el entendimiento, ni la capacidad necesaria para poder asimilar ciertas realidades que no sabríamos utilizar con la necesaria racionalidad para impedir sucesos irreparables para nosotros mismos.
emilio silvera
Fuentes diversas.

El futuro está aquí, y, no se si me gusta

Autor por Emilio Silvera    ~    Archivo Clasificado en General    ~    Comentarios Comments (1)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

La próxima frontera de la inteligencia artificial: sistemas que dudan de sí mismos
La próxima frontera de la inteligencia artificial: sistemas que dudan de sí mismos

La comunicación del “deep learning” y modelos probabilísticos permiten diseñar algoritmos capaces de lidias con la incertidumbre
Resultado de imagen de Máquinas que tomarán decisiones en el futuro

 

 

Avanzamos sin darnos cuenta hacia una sociedad en la que las máquinas tomarán decisiones cada vez más complicadas. De su presencia en tareas altamente automatizables hasta su introducción en las llamadas compañías data driven —gobernadas por datos informatizados—, el potencial de los algoritmos para sustituir el control humano es tan enorme que asusta.

 

 

Al margen de los miedos que despierta la posibilidad de que sistemas de inteligencia artificial nos quiten el trabajo —y si permitimos sus virtudes en la medida en que nos simplifiquen la vida—, es vital que, al menos, respondan correctamente y de forma eficiente si les vamos a dejar tomar cierto tipo de decisiones. Porque las máquinas también son susceptibles de equivocarse.

Quienes diseñan sus algoritmos parten de suposiciones basadas en sus propios datos sobre cómo deberían hacerlos funcionar, y estas suposiciones no son siempre acertadas. “Como hemos aprendido de los grandes bancos durante el colapso financiero, los modelos matemáticos basados en suposiciones equivocadas  pueden ser peligrosos cuando depositamos demasiada confianza en sus predicciones sin considerar lo que podría ir mal”, afirma Jennifer Wortman, investigadora senior en Microsoft especializada en aprendizaje automático y economía algorítmica.

 

  • Afrontando el problema
Fotograma de la película 'Yo, robot'
Fotograma de la película ‘Yo, robot’

Pero, ¿qué pasaría si estos sistemas fueran conscientes de ello? ¿Si supieran que pueden haber cometido un error y fueran capaces de enmendarlo? Una de las ramas más interesantes que se están desarrollando actualmente en aprendizaje automático está destinada a este propósito: que las máquinas puedan lidiar con la incertidumbre. Compañías como Uber o Google ya trabajan en modificar los marcos tradicionales de aprendizaje profundo —más conocido por su denominación inglesa, deep learning— para construir programas de inteligencia artificial que midan su confianza en una decisión para saber cuándo deberían dudar de sí mismos y sean menos propensos a fallar.

“Si un automóvil que se conduce solo no sabe que es capaz de equivocarse, puede cometer un error fatal, y eso puede ser catastrófico”, afirmaba durante un congreso en California Dustin Tran, que trabaja en el desarrollo de este tipo de sistemas en Google. Normalmente, el vehículo reconoce objetos en las imágenes que captura por sus cámaras y estima la distancia a la que se encuentran. Con esta nueva aproximación, calcularía la probabilidad de que sus estimaciones fueran correctas y la de cada una de las posibles consecuencias de sus decisiones, y lo tendría en cuenta antes de actuar.

 

 

 

En este sentido, la aplicación de dichas mecánicas también es relevante en ámbitos como la salud, donde los algoritmos podrían determinar la posibilidad de acierto en el diagnóstico de un paciente y sus potenciales respuestas al aplicarle un determinado tratamiento.

Para alcanzar este ideal, que se enmarca como la próxima frontera de la inteligencia artificial —máquinas capaces de realizar labores complejas teniendo en cuenta parámetros de incertidumbre a la hora de establecer sus predicciones— es necesaria la combinación de modelos de aprendizaje profundo con sistemas probabilísticos.

 

  • La unión hace la fuerza

“El aprendizaje profundo es un tipo de machine learning que utiliza redes neuronales. Además de aplicarse en el campo de la investigación, lo emplean Google, Facebook, Microsoft, Amazon, Netflix, Spotify y Uber para describir con lenguaje natural el contenido de una imagen o para el reconocimiento de voz”, ilustra Francisco Rodríguez Ruiz, investigador en las universidades de Columbia y Cambridge con experiencia en estos sistemas. “Su principal ventaja es que permite modelar relaciones complejas entre entradas y salidas (inputs y outputs)”.

 

 

 

 

Por su parte, los sistemas probabilísticos son modelos estadísticos que introducen una serie de parámetros para estimar la incertidumbre. “Esto es particularmente útil a la hora de entender lo que puede pasar. Si el modelo duda de sí mismo, este hecho se reflejará en sus predicciones para que puedan tenerlo en cuenta”, aclara Rodríguez.

Pero estos sistemas no encajan tan fácilmente y su combinación presenta varios retos técnicos en el medio plazo. La complejidad que añade el aprendizaje automático cuando se aplica a modelos probabilísticos dificulta que el cálculo sobre la incertidumbre de los parámetros fijados sea preciso. “Esto representa un problema en aplicaciones en tiempo real donde sea necesaria una respuesta en un período limitado de tiempo”, expone Rodríguez. “Por ejemplo, un vehículo autónomo necesitaría responder a determinados estímulos en cuestión de una fracción de segundo”.

El camino a recorrer se antoja largo y empinado. El tiempo determinará si este enfoque permitirá disfrutar de las ventajas de ambos modelos y desarrollar sistemas cuyas dudas les ayuden a ser más eficientes.