jueves, 19 de diciembre del 2024 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




¿Qué habrá más allá del Modelo Estándar de la Física de Partículas?

Autor por Emilio Silvera    ~    Archivo Clasificado en General    ~    Comentarios Comments (1)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

  

Algún maestro decía:
“Inicialmente, se presenta, de modo simplificado, el Modelo Estándar como una teoría sofisticada que identifica las partículas elementales y sus interacciones. Después, en el ámbito de esa teoría, se enfocan aspectos – el vacuo no es vacío; partículas desnudas y vestidas; materia oscura y viento oscuro; materia y antimateria; el campo y el bosón de Higgsneutrinos oscilantes – que pueden ser motivadores desde el punto de vista de la enseñanza y del aprendizaje de la Física. Finalmente, se discute la probable superación de esa teoría por otra más completa.”
Leptón - Wikipedia, la enciclopedia libre
Los leptones sólo interaccionan entre sí mediante fuerzas débiles y/o electromagnéticas. Los quarks, sin embargo, interaccionan por cualquiera de las tres fuerzas indicadas. Y, en todo esto, la gravedad está ausente y hace que la teoría esté incompleta. De todas las maneras, no debemos quitar mérito a tan compleja construcción de la mente humana que tan buenos resultados nos ha dado.
Gordon L. Kane - Wikipedia
Gordon Kane, un físico teórico de la Universidad de Michigan nos dice:
Hadrón, partícula subatómica — Astronoo
De acuerdo con el Modelo Estándar, leptones y quarks son partículas verdaderamente elementales, en el sentido de que no poseen estructura interna. Las partículas que tienen estructura interna se llaman hadrones; están constituidas por quarksbariones cuando están formadas por tres quarks o tres anti-quarks, o mesones cuando están constituidas por un quark y un anti-quark.
Pero ¿Cómo se da la interacción? ¿Quién “transmite el mensaje” de la fuerza entre las partículas que interactúan? Eso nos lleva a las partículas mediadoras o partículas de fuerza o, también, partículas virtuales.
Se ha descubierto una quinta fuerza fundamental del universo? | EnterarseEl universo de las partículas - ppt descargar
                                        Estos son los Bosones que intermedian en las fuerzas
Las interacciones fundamentales tienen lugar como si las partículas que interactúan “intercambiasen” otras partículas entre sí. Esas partículas mediadoras serían los fotones en la interacción electromagnética, los gluones en la interacción fuerte, las partículas W y Z en la interacción débil y los gravitones (aún no detectados) en la interacción gravitacional. Es decir, partículas eléctricamente cargadas interactuarían intercambiando fotones, partículas con carga color interactuarían intercambiando gluones, partículas con carga débil intercambiarían partículas W y Z, mientras que partículas con masa intercambiarían gravitones.
Las partículas mediadoras pueden no tener masa, pero tienen energía, o sea, son pulsos de energía. Por eso, se llaman virtuales. De los cuatro tipos de partículas mediadoras8, las del tipo W y Z tienen masa, pero es común que todas sean llamadas partículas virtuales.
Cuánto es la gravedad de la Tierra? - Curiosoando10. Campo eléctrico-concepto y explicación - YouTube
                                    En el primero actúa el gravitón y en el segundo el Fotón
¡Pero faltan los campos! Los cuatro campos. Sabemos que un cuerpo con masa crea alrededor de sí un campo gravitacional, un campo de fuerza que ejerce una fuerza sobre otro cuerpo masivo y viceversa. Análogamente, un cuerpo cargado eléctricamente, crea un campo electromagnético (si está en reposo, se percibe sólo su componente eléctrico, si está en movimiento se manifiesta también el componente magnético) y ejerce una fuerza electromagnética sobre otro cuerpo electrizado y viceversa.
El problema en esa bella simetría de cuatro cargas, cuatro interacciones, cuatro fuerzas, cuatro tipos de partículas mediadoras y cuatro campos es que aún no hemos podido detectar ningún gravitón y la gravedad, en sí, no encaja bien en esa teoría llamada Modelo Estándar.
Cuando un modelo es estándar (1/3) | Cuentos CuánticosLos orígenes de la teoría de supercuerdas II: la primera revolución | La  física en el tiempo | SciLogs | Investigación y Ciencia
            La primera ha dado muy buenos resultados y, la segunda, está por verificar

La Física actual busca una teoría más amplia que el modelo estándar . Una teoría que dé una descripción completa, unificada y consistente de la estructura fundamental del universo. ¿Será la compleja Teoría de cuerdas, que integra también la interacción gravitatoria?

Modelo estándar de la física de partículas - Wikipedia, la enciclopedia  libreDel modelo estándar — Cuaderno de Cultura Científica

El modelo estándar es una poderosa herramienta pero no cumple todas las expectativas; no es un modelo perfecto. En primer lugar, podríamos empezar por criticar que el modelo tiene casi veinte constantes que no se pueden calcular. Desde luego, se han sugerido numerosas ideas para explicar el origen de todos estos parámetros o números inexplicables y sus valores, pero el problema de todas estas teorías es que los argumentos que dan nunca han sido enteramente convincentes. ¿Por qué se iba a preocupar la naturaleza de una fórmula mágica si en ausencia de tal fórmula no hubiera contradicciones? Lo que realmente necesitamos es algún principio fundamental nuevo, tal como el principio de la relatividad, pero no queremos abandonar todos los demás principios que ya conocemos. Ésos, después de todo, han sido enormemente útiles en el descubrimiento del modelo estándar. El mejor lugar para buscar un nuevo principio es precisamente donde se encuentran los puntos débiles de la presente teoría y, construímos máquinas como el LHC para que nos diga lo que no sabemos.

 

Una regla universal en la física de partículas es que para partículas con energías cada vez mayores, los efectos de las colisiones están determinados por estructuras cada vez más pequeñas en el espacio y en el tiempo. El modelo estándar es una construcción matemática que predice sin ambigüedad cómo debe ser el mundo de las estructuras aún más pequeñas. Pero existen varias razones para sospechar que sus predicciones pueden, finalmente (cuando podamos emplear más energía en un nivel más alto), resultar equivocadas.

Vistas a través del microscopio, las constantes de la naturaleza parecen estar cuidadosamente ajustadas sin ninguna otra razón aparente que hacer que las partículas parezcan lo que son. Hay algo muy erróneo aquí. Desde un punto de vista matemático no hay nada que objetar, pero la credibilidad del modelo estándar se desploma cuando se mira a escalas de tiempo y longitud extremadamente pequeñas, o lo que es lo mismo, si calculamos lo que pasaría cuando las partículas colisionan con energías extremadamente altas. ¿Y por qué debería ser el modelo válido hasta aquí? Podrían existir muchas clases de partículas súper pesadas que no han nacido porque se necesitan energías aún inalcanzables. ¿Dónde está la partícula de Higgs? ¿Cómo se esconde de nosotros el gravitón?

Parece que el Modelo estándar no admite la cuarta fuerza y tendremos que buscar más profundamente, en otras teorías que nos hablen y describan además de las partículas conocidas de otras nuevas que están por nacer y que no excluya la Gravedad. Ese es el Modelo que necesitamos para conocer mejor la Naturaleza.

Claro que las cosas no son tan sencilla y si deseamos evitar la necesidad de un delicado ajuste de las constantes de la naturaleza, creamos un nuevo problema: ¿cómo podemos modificar el modelo estándar de tal manera que el ajuste fino no sea necesario? Está claro que las modificaciones son necesarias, lo que implica que muy probablemente haya un límite más allá del cual el modelo tal como está deja de ser válido. El modelo estándar no será nada más que una aproximación matemática que hemos sido capaces de crear, de forma que todos los fenómenos que hemos observado hasta el presente están reflejados en él, pero cada vez que se pone en marcha un aparato más poderoso, tenemos que estar dispuestos a admitir que puedan ser necesarias algunas modificaciones del modelo para incluir nuevos datos que antes ignorábamos.

Más allá del modelo estándar habrá otras respuestas que nos lleven a poder hacer otras preguntas que en este momento, no sabemos ni plantear por falta de conocimientos.  Si no conociéramos que los protones están formados por Quarks, ¿Cómo nos podríamos preguntar si habrá algo más allá de los Quarks?

El gobierno de Estados Unidos, después de llevar gastados miles de millones de dólares, suspendió la construcción del super-colisionador superconductor de partículas asestando un duro golpe a la física de altas energías, y se esfumó la oportunidad para obtener nuevos datos de vital importancia para el avance de este modelo, que de momento es lo mejor que tenemos.

Supersimetría… ¿ande andas? | Cuentos CuánticosFisica: La fuerza technicolor (Francesco Sannino) - Vídeo Dailymotion

{\displaystyle (1)\qquad M_{W^{\pm }}={\frac {1}{2}}gF_{EW}\quad {\rm {and}}\quad M_{Z}={\frac {1}{2}}{\sqrt {g^{2}+g^{\prime \,2}}}F_{EW}\equiv {\frac {M_{W}}{\cos \theta _{W}}}\,.}

“Esta relación del modelo estándar se consigue con bosones de Higgs elementales en dobletes electrodébiles; está verificado experimentalmente a más del 1%. Aquí, g y g′ son acoplamientos gauge SU(2) y U(1) y tanθW = g′/g define el ángulo de mezcla débil.

La importante idea de una nueva interacción fuerte de gauge de fermiones sin masa en la escala electrodébil FEW que conducen a la ruptura espontánea de su simetría quiral, de la cual un sugrupo SU(2) ⊗ U(1) es de gauge débil, fue propuesta por primera vez en 1979 por S. Weinberg​ and L. Susskind.​ Este mecanismo “technicolor” es natural ya que no necesita ajuste fino de parámetros.”

Se han estado inventando nuevas ideas, como la supersimetría y el technicolor. Los astrofísicos estarán interesados en tales ideas porque predicen una gran cantidad de nuevas partículas superpesadas, y también varios tipos de partículas que interaccionan ultra-débilmente, los technipiones. Éstas podrían ser las WIMP’s (Weakly Interacting Massive Particles, o Partículas Masivas Débilmente Interactivas) que pueblan los huecos entre las galaxias, y serían así las responsables de la masa perdida que los astrofísicos siguen buscando y llaman materia oscura”.

Que aparezcan “cosas” nuevas y además, imaginarlas antes, no es fácil. Recordemos cómo Paul Dirac se sintió muy incómodo cuando en 1931 dedujo, a partir de su ecuación del electrón, que debería existir una partícula con carga eléctrica opuesta.

Enroque de ciencia: Importancia de la ecuación de Dirac (y 2)

Esa partícula no había sido descubierta y le daba reparo perturbar la paz reinante en la comunidad científica con una idea tan revolucionaria, así que disfrazó un poco la noticia: “Quizá esta partícula cargada positivamente, tan extraña, sea simplemente el protón”, sugirió. Cuando poco después se identificó la auténtica antipartícula del electrón (el positrón) se sorprendió tanto que exclamó: “¡Mi ecuación es más inteligente que su inventor!”. Este último comentario es para poner un ejemplo de cómo los físicos trabajan y buscan caminos matemáticos mediante ecuaciones de las que, en cualquier momento (si están bien planteadas), surgen nuevas ideas y descubrimientos que ni se podían pensar. Así pasó también con las ecuaciones de Einstein de la relatividad general, donde Schwarzschild dedujo la existencia de los agujeros negros.

File:Evolución Universo WMAP.jpg

Se piensa que al principio del comienzo del tiempo, cuando surgió el Big Bang, las energías eran tan altas que allí reinaba la simetría total; sólo había una sola fuerza que todo lo englobaba. Más tarde, a medida que el universo se fue expandiendo y enfriando, surgieron las cuatro fuerzas que ahora conocemos y que todo lo rigen. Tenemos los medios, en los supercolisionadores de partículas, para viajar comenzando por 1.000 MeV, hasta finalizar en cerca de 1019 MeV, que corresponde a una escala de longitudes de aproximadamente 1030 cm. Howard Georgi, Helen Quinn y Steven Weinberg descubrieron que ésta es la región donde las tres constantes de acoplamiento gauge se hacen iguales (U(1), SU(2) y SU(3)); resultan ser lo mismo. ¿Es una coincidencia que las tres se hagan iguales simultáneamente? ¿Es también una coincidencia que esto suceda precisamente en esa escala de longitud? Faltan sólo tres ceros más para alcanzar un punto de retorno. Howard Georgi y Sheldon Glashow descubrieron un modelo genuinamente unificado en el dominio de energías de 1019 MeV tal que, cuando se regresa de allí, espontáneamente surgen las tres fuerzas gauge tal como las conocemos. De hecho, ellos encontraron el modelo; la fórmula sería SU(5), que significa que el multiplote más pequeño debe tener cinco miembros.

http://cmcagustinos.files.wordpress.com/2010/10/circulo.jpg

Materia y Energía Oscura… Un Misterio…Sin resolver.

Y, a todo esto, ¿dónde está esa energía oculta? ¿Y donde la materia? Podemos suponer que la primera materia que se creo en el Universo fue la que llamamos (algún nom,bre había que ponerle) “Materia Oscura”, esa clase de Ilem o sustancia primera del Universo que mejor sería llamarla invisible, ya que, de no ser así, difícil sería explicar cómo se pudieron formar las primeras estrellas y galaxias de nuestro Universo, ¿dónde está el origen de la fuerza de Gravedad que lo hizo posible, sino en esa materia escondida?

¡Lo dicho! Necesitamos saber, y, deseo que de una vez por todas, se cumpla lo que dejó dicho Hilbert en su tumba de Gotinga (Alemania): “Tenemos que saber, ¡sabremos!. Pero…

¡Que sea pronto!

emilio silvera

Los pros y los contras de las máquinas más listas

Autor por Emilio Silvera    ~    Archivo Clasificado en General    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 Inteligencia artificial

Tendencias de Inteligencia Artificial que están arrasando en 2019Inteligencia Artificial: mitos y leyendas urbanas que son falsos

 

                      El aprendizaje automático es uno de los campos con más proyección  en inteligencia artificial.

Cómo seleccionar el procesador Intel que mejor se ajuste a tus necesidades  - Movilidad Profesional HP

 

Tenemos la clave para fabricar máquinas listas. Intel

Reportaje de Pablo G. Bejerano
 

Los miles de millones de dispositivos que se conectan a internet cada día generan una cantidad abrumadora de información. Son montones de terabytes de datos que aparecen de la nada diariamente.

Esto abre el apetito por obtener valor de la información. Y la inteligencia artificial es clave aquí. El término se suele asociar con la robótica, una herencia cultural de la ciencia ficción, pero lo cierto es que la inteligencia artificial es algo mucho más abstracto que robots humanoides caminando o que los dilemas del superordenador Hall en 2001: una odisea del espacio.

 

 

 

 

Inteligencia artificial en '2001: Una odisea del espacio', cuando el padre  de la 'Singularidad' creó el primer computador asesinoKubrick: 2001, una odisea del espacio (1968) – Aula de Filosofía de Eugenio  Sánchez Bravo

 

Ojo cámara (con lente fish eye es decir con una visual muy panóptica) de color rojo (para detectar por filtro cromático incluso la “luz” IR no perceptible por el ser humano), usado para representar a HALL 9000 en uno de sus aspectos de control prácticamente orweliano.

Podría decirse que la inteligencia artificial asoma la cabeza por primera vez en los años 60 con sistemas predictivos y a partir de ahí evoluciona a velocidad de crucero. Hoy se usa para evitar fraudes bancarios, en el reconocimiento de voz, en el filtro anti spam del correo electrónico, incluso en el etiquetado de fotos automático de Facebook o en los videojuegos.

Lo que está por venir en inteligencia artificial –ya se ha investigado mucho sobre ello– son los coches autónomos, la medicina de alta precisión o el procesamiento del lenguaje natural que le pediremos a los Siri, Google Now o Cortana en los próximos años. Son algunas de las áreas para las que el aprendizaje automático o machine learning es necesario.

 

 

Creada una máquina que aprende como una persona

 

 

Que las máquinas aprendan es fundamental porque es uno de los elementos que retrasará su obsolescencia prematura, reforzando su autonomía. Este aprendizaje es uno de los temas que han sobrevolado la Conferencia Internacional de Desarrolladores (IDF) de Intel.

Hoy el 7% de todos los servidores presentes en el mundo están dedicados a tareas de aprendizaje automático. Y más del 97% de estos servidores funcionan con procesadores de Intel. Si bien en campos como los coches autónomos la compañía se ve amenazada por los productos de su competidora Nvidia.

En todo caso, esta rama de la inteligencia artificial es la que tiene mayor proyección. Intel proporciona el hardware sobre el que los desarrolladores pueden programar sus algoritmos de inteligencia artificial. Para entrenar a los algoritmos la compañía ofrece el procesador Xeon Phi, mientras que para ejecutar una tarea determinada, ya aprendida, cuenta con el Xeon.

 

Intel prepara un salto cualitativo en data centersNuevo almacenamiento para centros de datos de Intel - DCD

 

                                                                        Un centro de datos de Intel. Intel

 

“Trabajamos con instituciones académicas y desarrolladores para asegurarnos de que pueden usar el hardware optimizado”, comenta Nidhi Chappell, responsable de aprendizaje automático en la división de centros de datos de Intel. “Hay muchos beneficios en tener el software y el hardware optimizado. ¿Podrías trabajar con procesamiento del lenguaje natural en un Xeon no optimizado? Sí, pero cuanto más optimices los elementos, tanto en software como en el hardware, más rápido harás los trabajos”.

Se necesita que el rendimiento del hardware sea muy alto, pero también que sea fácil de poner en marcha. Y otra de las claves para optimizar este aspecto es la compatibilidad con diferentes tipos de algoritmos. “Queremos habilitar nuestros productos para soluciones que estén basadas en código abierto”, indica Chappell. “Pues muchas de las cargas de trabajo en deep learning, como el procesamiento del lenguaje natural o el etiquetado de imágenes, están basadas en frameworks (marcos de trabajo para desarrollar software) de código abierto”.

 

Los algoritmos del ‘Deep learning’

 

 

Qué es Deep Learning o Aprendizaje profundo - ▷ Cursos de Programación de 0  a Experto © GarantizadosInteligencia Artificial, Machine Learning y Aprendizaje profundo, Claves y  usos IoT - News America Digital

Qué es Deep Learning o Aprendizaje profundo - ▷ Cursos de Programación de 0  a Experto © GarantizadosDeep Learning: la revolución humana de las máquinas » MuyLinux

 

El Deep learning o aprendizaje profundo, considerado una parte del aprendizaje automático, se basa en redes neuronales artificiales, inspiradas en el funcionamiento de sistemas biológicos. Muchos algoritmos que usan deep learning proceden de empresas o universidades, como Google o Berkeley, y una parte de ellos están bajo código abierto. Lo que hace Intel es asegurarse de que la arquitectura de sus productos está optimizada para estos algoritmos.

El conocimiento que los nutre proviene de compañías privadas, de centros académicos y también de instituciones públicas. No todo se pone a disposición del público, pero compartir la información y los progresos técnicos es uno de los motores para el aprendizaje de las máquinas.

Cloudera, una de las empresas presentes en el IDF, trabaja en big data con plataformas de código abierto. Su portavoz en el congreso de Intel, Johnny Pak, cree que la colaboración es necesaria para no estancarse. “El código abierto ayudará al desarrollo rápido de la inteligencia artificial. La posibilidad de construir sobre el trabajo de otros es lo que va a ayudar a avanzar”, reflexiona.

El conocimiento proviene de múltiples fuentes. Intel

 

Aprender bien la lección

Guía de procesadores Intel y AMD; modelos, gamas y equivalencias -  MuyComputer

El aprendizaje automático tiene otra cara. Se puede descontrolar, como le ocurrió al bot Tay, programado por Microsoft para aprender de la gente a través de sus interacciones en Twitter. Su cuenta en la red social pronto empezó a lanzar mensajes xenófobos tras el troleo de algunos usuarios y la compañía tuvo que suspender este experimento social.

“Siempre se necesitará un marco para limitar al algoritmo”, es la opinión de Pak. “Una máquina no es más que un conjunto de algoritmos. Lo que significa que las máquinas no tienen la libertad que las personas tenemos”. Así, esa especie de libertad social que Tay tuvo para aprender acabó por volverse en su contra. “Si vas a usar algoritmos en un entorno social creo que tienes que poner unos límites, de la misma forma que nosotros tenemos límites sociales”, sentencia Pak.

Es una forma de controlar la toma de decisiones. Por cierto, para una persona estas decisiones no siempre están basadas en el razonamiento lógico y no siempre se obtiene así el mejor resultado. La intuición a veces es un factor determinante y no es algo que se aprenda de forma lógica. ¿Pueden los algoritmos actuales dotar a una máquina de intuición?

Paliza de AlphaGO a Lee Sedol en el primera partida - La Ciencia de la Mula  FrancisGo: La inteligencia artificial conquista el último tablero de los humanos |  Ciencia | EL PAÍS

                                  Paliza de AlphaGO a Lee Sedol en la primera partida

El caso que más se acerca a una toma de decisiones intuitiva por una máquina es el del sistema Alpha Go, desarrollado por Google y que venció Lee Sedol, el campeón mundial del Go, un juego mucho más complejo de aprender para una máquina que por ejemplo el ajedrez.

Pak apunta que la toma de decisiones de Alpha Go a veces no partía de la lógica. “No estaba calculando, como sí hacen en ajedrez, millones de interacciones para determinar qué es lo que va a hacer el jugador. Tenía que vislumbrar cuál era el mejor movimiento. Y ganó. Lee solo gano una partida”. Y es que ni siquiera los científicos detrás de Alpha Go predecían cómo se iba a comportar su programa.

Se podrán igualar alguna vez la I.A. y la Humana

Autor por Emilio Silvera    ~    Archivo Clasificado en General    ~    Comentarios Comments (1)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Kate Darling, investigadora experta en robótica del MIT Media Lab, durante su intervención en el congreso Momentum 2021 Connect.

Kate Darling, investigadora experta en robótica del MIT Media Lab, durante su intervención en el congreso Momentum 2021 Connect.

INVESTIGACIÓN

Darling (MIT): “Comparar la inteligencia artificial con la humana no tiene sentido”

 

La investigadora recalca que para integrar a las máquinas en espacios fuera de las fábricas hay que entender que “no están vivas ni pueden sentir. Nosotros sentimos por ellas”.

 

 

Noticias relacionadas

 

 

Los mayores retos de los robots de cara al futuro - Las leyes de la robótica

… Si dejamos que ocupen nuestro lugar…

 

“El verdadero potencial de la robótica y la inteligencia artificial no es recrear lo que ya tenemos, sino asociarnos con la tecnologíaNo se trata de reemplazar a las personas, sino de complementarlas”.

Los Co-robots o Robots de Servicio y la nueva especialización de la PRL -  PrevenControlCómo fueron los primeros momentos de la sonda Insight en Marte? - National  Geographic en Español

Si limpian el suelo de la casa o nos mandan datos de Marte…

Estas palabras de Kate Darling, investigadora experta en robótica del MIT Media Lab, condensan sus ideas sobre el modo en el que personas y máquinas deberían interactuar. “Sin embargo, la retórica que se emplea en los últimos años cuando se habla de estas cuestiones puede llevar a engaño”.

Darling ha sido una de las ponentes del congreso Momentum 2021 Connect, celebrado la semana pasada en formato online y organizado por Manhattan Associates, empresa especializada en soluciones para la cadena de suministro y comercio omnicanal. “Deberíamos enfocar el uso de la tecnología en cómo puede ayudar a las personas a hacer mejor su trabajo y no en automatizarlo todo. Desechemos ya la idea de que los robots nos van a quitar el trabajo”, ha remarcado.

Despertando emociones

 

Pregunta ¿seres humanos y robots, podrán coexistir? | Digitall Post :  Digitall Post
Algunos quieren darle emociones y sentimientos

Esta investigadora ha desarrollado sus trabajos estableciendo paralelismos entre los robots y los animales, y la relación que los humanos mantienen con ellos. “Las personas tenemos tendencia inherente a ‘antropomorfizarnos’: proyectamos rasgos, cualidades, emociones y comportamientos humanos en los no humanos”. Lo hacemos con nuestras mascotas, pero también con objetos con los que establecemos lazos emocionales.

Entre las razones, explica, está que cuando somos bebés aprendemos muy pronto a reconocer un rostro, de ahí esa tendencia a proyectar un reflejo de nosotros mismos en los demás. “Lo hacemos desde la niñez para relacionarnos y dar sentido al mundo que nos rodea”. Por cuestiones evolutivas, nuestro cerebro también reacciona ante los movimientos. “En el pasado, la especie humana ha tenido que estar atenta a lo que ocurría a su alrededor para evitar a los depredadores”.

La importancia del vínculo entre la Mamá y su Hijorobot babysitter y madre o niñera caminando con el bebé en el robot de  cochecito frente a humanos juntos tecnología de inteligencia artificial  concepto plano de longitud completa horizontal vector ilustración Imagen

Las personas tenemos tendencia a proyectar rasgos, cualidades, emociones y comportamientos humanos en los no humanos. La segunda imagen nos lanza un rechazo frontal insoportable

 

Esto explica, según Darling, por qué sentimos cierta empatía hacia robots tan simples como un aspirador Roomba. “No se trata de la máquina más sofisticada del mundo, simplemente se desplaza por el suelo limpiándolo. Aun así, el 80 % tiene nombre propio y, según cuentan desde iRobot [la empresa fabricante], cuando tienen una avería la mayoría de la gente prefiere que lo reparen a reemplazarlo por otro”.

Boston Dynamics pone a la venta a 'Spot', su perro-robot, mientras que  'Atlas' aprende nuevas e impresionantes rutinas de gimnasiaHyundai, interesada en comprar Boston Dynamics, creadora del perro robot  más popular

Sobre ese vínculo que establecemos con las máquinas, la investigadora del MIT Media Lab hace referencia a varios ejemplos y estudios que ponen en evidencia cómo empatizamos con aquellos robots que, sobre todo, están inspirados en la naturaleza. “Los primeros desarrollos de Boston Dynamics llamaron tanto la atención que organizaciones que defienden los derechos animales en Estados Unidos recibieron llamadas de ciudadanos expresando su preocupación sobre lo que estaba ocurriendo. Tuvieron que emitir un comunicando explicando que lo que aparecía en la imagen no era un perro de verdad”.

El 80 % de los aspiradores Roomba tienen nombre propio. Cuando tienen una avería, sus propietarios prefieres arreglarlos a reemplazarlos por otro.

 

Kate Darling: AI and Human Development - YouTube

 

Kate Darling admite que, incluso ella, ha experimentado esas sensaciones. En 2007 compró un Pleo, un dinosaurio robot de juguete, “porque tiene motores, sensores táctiles y una cámara de infrarrojos. Pensé que era realmente interesante porque reproducía muy bien determinados comportamientos”.

Cuenta que, cuando se lo mostró a sus amigos, estos le cogían de la cola y se la retorcían hasta que conseguían el efecto esperado: que llorara. “Aun sabiendo que se trataba de un robot, me entraba cierta angustia y se lo quitaba de las manos”.

Inteligencias complementarias

 

 

Robótica Social, una actividad más humana. - Magazine Community of InsuranceRobótica social: el impacto de la inteligencia artificial

Una máquina al cuidado de mayores o de niños me produce escalofríos

 

A raíz de esta experiencia, la investigadora se interesó por el campo de la robótica social. Aquí los robots sí están diseñados específicamente para imitar señales, movimientos o sonidos que, automática y subconscientemente, asociamos con seres vivos, estados mentales y criaturas sociales.

“Estamos en un momento muy interesante. Durante décadas hemos tenido robots en fábricas y almacenes, y ahora están llegando a otros espacios”, afirma Darling. “Pueden pensar y tomar decisiones autónomas y aprender, pero no están vivas y no pueden sentir. Nosotros sentimos por ellos”. Recalca que es importante tener esto en cuenta para poder integrar la tecnología en nuestra vida.

Estamos en un momento muy interesante. Durante décadas hemos tenido robots en fábricas y almacenes, y ahora están llegando a otros espacios.

 

 

Robótica para la atención médica -canalSALUDEl desafío de la Inteligencia Artificial en la medicina: ¿Será un robot tu  próximo doctor?

 

Entender que un robot es un dispositivo al que hay que tratar de forma diferente a una persona permitirá desarrollar interesantes casos de uso. “Ya los estamos en campos como la salud con nuevos métodos de terapia. Por ejemplo, con robots trabajando con niños autistas y tratando de tender un puente entre un terapeuta o un padre y un niño. El robot es un facilitador realmente bueno para la comunicación”.

El error está, según la investigadora del MIT Media Lab, en comparar la inteligencia artificial con la humana. “Es una analogía no tiene sentido para mí. Es verdad que ya hay máquinas que son mucho más inteligentes que nosotros, que pueden hacer cálculos infinitos, ganarnos al ajedrez e identificar patrones que no reconoceríamos. Sin embargo, no son capaces de percibir el mundo ni aprender del modo en el que lo hace un humano. Es un tipo de inteligencia diferente”. Por eso, defiende, han de verse como un complemento y no como un reemplazo.

La maravilla de… ¡los cuantos!

Autor por Emilio Silvera    ~    Archivo Clasificado en General    ~    Comentarios Comments (2)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

  

La Física del siglo XX empezó exactamente en el año 1900, cuando el físico alemán Max Planck propuso una posible solución a un problema que había estado intrigando a los físicos durante años. Es el problema de la luz que emiten los cuerpos calentados a una cierta temperatura, y también la radiación infrarroja emitida, con menos intensidad, por los objetos más fríos. Planck escribió un artículo de ocho páginas y el resultado fue que cambió el mundo de la física y aquella páginas fueron la semilla de la futura ¡mecánica cuántica! que, algunos años más tardes, desarrollarían físicos como Einstein (Efecto fotoeléctrico), Heisenberg (Principio de Incertidumbre), Feynman, Bhor, Schrödinger, Dirac…

 

 La expresión radiación se refiere a la emisión continua de energía de la superficie de todos los cuerpos. Los portadores de esta energía son las ondas electromagnéticas  producidas por las vibraciones de las partículas cargadas  que forman parte de los átomos y moléculas de la materia. La radiación electromagnética que se produce a causa del movimiento térmico de los átomos y moléculas de la sustancia se denomina radiación térmica o de temperatura.

 Ley de Planck para cuerpos a diferentes temperaturas.

Curvas de emisión de cuerpos negros a diferentes temperaturas comparadas con las predicciones de la física clásica anteriores a la ley de Planck.

Estaba bien aceptado entonces que esta radiación tenía un origen electromagnético y que se conocían las leyes de la naturaleza que regían estas ondas electromagnéticas. También se conocían las leyes para el frío y el calor, la así llamada “termodinámica”, o al menos eso parecía.

Pero si usamos las leyes de la termodinámica para calcular la intensidad de la radiación, el resultado no tiene ningún sentido. Los cálculos nos dicen que se emitiría una cantidad infinita de radiación en el ultravioleta más lejano, y, desde luego, esto no es lo que sucede. Lo que se observa es que la intensidad de la radiación muestra un pico o una cierta longitud de onda característica, y que la intensidad disminuye tanto para longitudes mayores como para longitudes menores. Esta longitud característica es inversamente proporcional a la temperatura absoluta del objeto radiante (la temperatura absoluta se define por una escala de temperatura que empieza a 273 ºC bajo cero). Cuando a 1.000 ºC un objeto se pone al “rojo vivo”, el objeto está radiando en la zona de la luz visible.

            Acero al  “rojo vivo”, el objeto está radiando en la zona de la luz visible.

Lo que Planck propuso fue simplemente que la radiación sólo podía ser emitida en paquetes de un tamaño dado. La cantidad de energía de uno de esos paquetes, o cuantos, es inversamente proporcional a la longitud de onda y, por lo tanto, proporcional a la frecuencia de la radiación emitida. La sencilla fórmula es:

E = hv

Donde es la energía del paquete, v es la frecuencia y h es una nueva constante fundamental de la naturaleza, la constante de Planck. Cuando Planck calculó la intensidad de la radiación térmica imponiendo esta nueva condición, el resultado coincidió perfectamente con las observaciones.

Poco tiempo después, en 1905, Einstein formuló esta teoría de una manera mucho más tajante: el sugirió que los objetos calientes no son los únicos que emiten radiación en paquetes de energía, sino que toda la radiación consiste en múltiplos del paquete de energía de Planck.

El príncipe francés Louis Victor de Broglie, dándole otra vuelta a la teoría, que no sólo cualquier cosa que oscila tiene una energía, sino que cualquier cosa con energía se debe comportar como una “onda” que se extiende en una cierta dirección del espacio, y que la frecuencia, v, de la oscilación verifica la ecuación de Planck. Por lo tanto, los cuantos asociados con los rayos de luz deberían verse como una clase de partículas elementales: el fotón. Todas las demás clases de partículas llevan asociadas diferentes ondas oscilatorias de campos de fuerza.

Es curioso el comportamiento de los electrones en el interior del átomo, descubierto y explicado por el famoso físico danés Niels Bohr, se pudo atribuir a las ondas de De Broglie. Poco después, en 1926, Edwin Schrödinger descubrió como escribir la teoría ondulatoria de De Broglie con ecuaciones matemáticas exactas. La precisión con la cual se podían realizar los cálculos era asombrosa, y pronto quedó claro que el comportamiento de todos los objetos pequeños quedaba exactamente determinado por las recién descubiertas “ecuaciones de onda cuántica”.

No hay duda de que la Mecánica Cuántica funciona maravillosamente bien. Sin embargo, surge una pregunta muy formal: ¿qué significan realmente esas ecuaciones?, ¿qué es lo que están describiendo? Cuando Isaac Newton, allá por el año 1687, formuló cómo debían moverse los planetas alrededor del Sol, estaba claro para todo el mundo lo que significaban sus ecuaciones: que los planetas están siempre en una posición bien definida en el espacio y que sus posiciones y sus velocidades en un momento concreto determinan inequívocamente cómo evolucionarán las posiciones y las velocidades con el tiempo.

Pero para los electrones todo esto es muy diferente. Su comportamiento parece estar envuelto en la bruma. Es como si pudieran “existir” en diferentes lugares simultáneamente, como si fueran una nube o una onda, y esto no es un efecto pequeño. Si se realizan experimentos con suficiente precisión, se puede determinar que el electrón parece capaz de moverse simultáneamente a lo largo de trayectorias muy separadas unas de otras. ¿Qué puede significar todo esto?

Niels Bohr consiguió responder a esta pregunta de forma tal que con su explicación se pudo seguir trabajando y muchos físicos siguen considerando su respuesta satisfactoria. Se conoce como la “interpretación de Copenhague” de la Mecánica Cuántica. En vez de decir que el electrón se encuentra en el punto x o en el punto y, nosotros hablamos del estado del electrón. Ahora no tenemos el estado “x” o el estado “y”, sino estados “parcialmente x” o “parcialmente y. Un único electrón puede encontrarse, por lo tanto, en varios lugares simultáneamente. Precisamente lo que nos dice la Mecánica Cuántica es como cambia el estado del electrón según transcurre el tiempo.

Un “detector” es un aparato con el cual se puede determinar si una partícula está o no presente en algún lugar pero, si una partícula se encuentra con el detector su estado se verá perturbado, de manera que sólo podemos utilizarlo si no queremos estudiar la evolución posterior del estado de la partícula. Si conocemos cuál es el estado, podemos calcular la probabilidad de que el detector registre la partícula en el punto x.

Las leyes de la Mecánica Cuántica se han formulado con mucha precisión. Sabemos exactamente como calcular cualquier cosa que queramos saber. Pero si queremos “interpretar” el resultado, nos encontramos con una curiosa incertidumbre fundamental: que varias propiedades de las partículas pequeñas no pueden estar bien definidas simultáneamente. Por ejemplo, podemos determinar la velocidad de una partícula con mucha exactitud, pero entonces no sabremos exactamente dónde se encuentra; o, a la inversa. Si una partícula tiene “espín” (rotación alrededor de su eje), la dirección alrededor de la cual está rotando (la orientación del eje) no puede ser definida con gran precisión.

No es fácil explicar con sencillez de dónde viene esta incertidumbre, pero hay ejemplos en la vida cotidiana que tienen algo parecido. La altura de un tono y la duración en el tiempo durante el cual oímos el tono tienen una incertidumbre mutua similar.

Dualidad onda-partícula (o el electrón como onda en el espacio de momentos)  - La Ciencia de la Mula Francis

           ¿Onda o partícula? ¡Ambas a la vez! ¿Cómo es eso?

Para que las reglas de la Mecánica Cuántica funcionen, es necesario que todos los fenómenos naturales en el mundo de las cosas pequeñas estén regidos por las mismas reglas. Esto incluye a los virus, bacterias e incluso a las personas. Sin embargo, cuanto más grande y más pesado es un objeto más difícil es observar las desviaciones de las leyes del movimiento “clásicas” debidas a la mecánica cuántica.

Me gustaría referirme a esta exigencia tan importante y tan peculiar de la teoría con la palabra “holismo”. Esto no es exactamente lo mismo que entienden algunos filósofos por “holismo”, y que se podría definir como “el todo es más que la suma de las partes”.

Bien, si la Física nos ha enseñado algo, es justamente lo contrario: un objeto compuesto de un gran número de partículas puede ser entendido exactamente si se conocen las propiedades de sus partes (las partículas): basta que uno sepa sumar correctamente (¡y esto no es nada fácil en mecánica cuántica!). Lo que yo entiendo por holismo es que, efectivamente, el todo es la suma de las partes, pero sólo se puede hacer la suma si todas las partes obedecen a las mismas leyes.

Por ejemplo, la constante de Planck, h = 6,626075…x 10 exp. -34 julios segundo, debe ser exactamente la misma para cualquier objeto en cualquier sitio, es decir, debe ser una constante universal.

Las reglas de la mecánica cuántica funcionan tan bien que refutarlas resulta realmente difícil. Los trucos ingeniosos descubiertos por Werner Heisenberg, Paul Dirac y muchos otros mejoraron y completaron las reglas generales. Pero Einstein y otros pioneros tales como Edwin Schrödinger, siempre presentaron serias objeciones a esta interpretación.

Quizá funcione bien, pero ¿dónde está exactamente el electrón, en el punto x o en el punto y? Em pocas palabras, ¿dónde está en realidad?, ¿cuál es la realidad que hay detrás de nuestras fórmulas? Si tenemos que creer a Bohr, no tiene sentido buscar tal realidad. Las reglas de la mecánica cuántica, por sí mismas, y las observaciones realizadas con detectores son las únicas realidades de las que podemos hablar.

Hasta hoy, muchos investigadores coinciden con la actitud pragmática de Bohr. Los libros de historia dicen que Bohr demostró que Einstein estaba equivocado. Pero no son pocos,  incluyéndome a mí, los que sospechamos que a largo plazo el punto de vista de Einstein volverá: que falta algo en la interpretación de Copenhague. Las objeciones originales de Einstein pueden superarse, pero aún surgen problemas cuando uno trata de formular la mecánica cuántica para todo el Universo (donde las medidas no se pueden repetir) y cuando se trata de reconciliar las leyes de la mecánica cuántica con las de la Gravitación… ¡Infinitos!

La mecánica cuántica y sus secretos han dado lugar a grandes controversias, y la cantidad de disparates que ha sugerido es tan grande que los físicos serios ni siquiera sabrían por donde empezar a refutarlos. Algunos dicen que “la vida sobre la Tierra comenzó con un salto cuántico”, que el “libre albedrío” y la “conciencia” se deben a la mecánica cuántica: incluso fenómenos paranormales han sido descritos como efectos mecano-cuánticos.

Yo sospecho que todo esto es un intento de atribuir fenómenos “ininteligibles” a causas también “ininteligibles” (como la mecánica cuántica) dónde el resultado de cualquier cálculo es siempre una probabilidad, nunca una certeza.

Claro que, ahí están esas teorías más avanzadas y modernas que vienen abriendo los nuevos caminos de la Física y que, a mi no me cabe la menor duda, más tarde o más temprano, podrá explicar con claridad esas zonas de oscuridad que ahora tienen algunas teorías y que Einstein señalaba con acierto.

El estado actual de la teoría M - La Ciencia de la Mula FrancisRelatividad General cumple 100 años | Conexión causal

¿No es curioso que, cuando se formula la moderna Teoría M, surjan, como por encanto, las ecuaciones de Einstein de la Relatividad General? ¿Por qué están ahí? ¿Quiere eso decir que la Teoría de Einstein y la Mecánica Cuántica podrán al fin unirse en pacifico matrimonio sin que aparezcan los dichosos infinitos?

Bueno, eso será el origen de otro comentario que también, cualquier día de estos, dejaré aquí para todos ustedes.

emilio silvera

Espacio-Tiempo

Autor por Emilio Silvera    ~    Archivo Clasificado en General    ~    Comentarios Comments (1)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

  

 »

Pequeños saltos en el espacio-tiempo, posible explicación para la energía  oscuraSoy el espacio-tiempo - Naukas

           No existía antes del comienzo y aparecieron juntos Espacio y Tiempo, “nacieron y crecieron al mismo ritmo, y, fueron “testigos” de todo lo que allí pudo pasar. Lástima que no nos lo puedan contar.

 

Hay que entender que el espacio-tiempo es la descripción en cuatro dimensiones del universo en la que la posición de un objeto se especifica por tres coordenadas en el espacio y una en el tiempo.

Pin en hellow

De acuerdo con la relatividad especial, no existe un tiempo absoluto que pueda ser medido con independencia del observador, de manera que eventos simultáneos para un observador ocurren en instantes diferentes vistos desde otro lugar. El tiempo puede ser medido, por tanto, de manera relativa, como lo son las posiciones en el espacio (Euclides) tridimensional, y esto puede conseguirse mediante el concepto de espacio-tiempo. La trayectoria de un objeto en el espacio-tiempo se denomina por el nombre de línea de universo. La relatividad general nos explica lo que es un espacio-tiempo curvo con las posiciones y movimientos de las partículas de materia. La relatividad especial nos explica otras cosas, complementando así, una teoría completa y precisa de la Naturaleza del Universo.

 

Nuestra línea de universo resume toda nuestra historia, desde que nacemos hasta que morimos.  Cuanto más rápido nos movemos más se inclina la línea de Universo.  Sin embargo, la velocidad más rápida a la que podemos viajar es la velocidad de la luz.  Por consiguiente, una parte de este diagrama  espacio – temporal está “prohibida”; es decir, tendríamos que ir a mayor velocidad que la luz para entrar en esta zona prohibida por la relatividad especial de Einstein que, nos dice que nada en nuestro Universo puede viajar a velocidades superiores a C.

 

Soy el espacio-tiempo - Naukas

 

La presencia de grandes masas curva el espacio. En la imagen la analogía bidimensional de la distorsión del espacio-tiempo debido a un objeto de gran masa.

 

La curvatura del espacio-tiempo es la propiedad del espacio-tiempo en la que las leyes familiares de la geometría no son aplicables en regiones donde los campos gravitatorios son intensos. La relatividad general de Einstein, nos explica y demuestra que el espacio-tiempo está íntimamente relacionado con la distribución de materia en el universo, y nos dice que el espacio se curva en presencia de masas considerables como planetas, estrellas o galaxias (entre otros).

{\displaystyle {\text{G}}_{\mu \nu }={8\pi {\text{G}} \over {\text{c}}^{4}}T_{\mu \nu }}

 
Símbolo Nombre
{\displaystyle G_{\mu \nu }} Tensor de curvatura de Einstein, que se forma a partir de derivadas segundas del tensor métrico g_{\mu\nu}
{\displaystyle T_{\mu \nu }} Tensor momento-energía
c Velocidad de la luz
G Constante de la gravitación universal

Einstein lo dedujo en una fórmula matemática que relaciona la geometría del espacio-tiempo con la distribución de masa y energía: esta fórmula se conoce como ecuación de Einstein y es el centro medular de la teoría de la relatividad general.

{\displaystyle R_{\mu \nu }-{1 \over 2}Rg_{\mu \nu }+\Lambda g_{\mu \nu }={8\pi {\text{G}} \over {\text{c}}^{4}}T_{\mu \nu }}

donde {\displaystyle g_{\mu \nu }\,} es un tensor simétrico 4 x 4, así que tiene diez componentes independientes. Dada la libertad de elección de las cuatro coordenadas del espacio-tiempo, las ecuaciones independientes se reducen en número a seis. Estas ecuaciones son la base de la formulación matemática de la relatividad general. Nótese que considerando la contracción sobre los dos índices de la última relación se encuentra que el escalar de curvatura se relaciona con la traza del tensor energía impulso y la constante cosmológica

La equivalencia aceleración-gravitación llevó a Einstein, de forma genial, a la concepción de la fuerza de la gravedad como una curvatura del espacio-tiempo. La visualización de este hecho la podemos observar en la figura: una superficie elástica (semejante al espacio-tiempo) se curva bajo la acción de objetos pesados (las grandes masas, de intensos campos gravitatorios), de forma que las trayectorias (geodésicas) que pueden seguir los objetos pequeños cuando están cerca de los grandes se acercan a los mismos. Einstein formuló una ecuación que muestra el grado de curvatura del espacio-tiempo en función de la cantidad de masa, relaciona masa con curvatura: materia (o energía) con deformación del espacio-tiempo.

 

Así, en un espacio de sólo dos dimensiones, como una lámina de goma plana, la geometría de Euclides se aplica de manera que la suma de los ángulos internos de un triángulo en la lámina es de 180°. Si colocamos un objeto masivo sobre la lámina de goma, la lámina se distorsionará y los caminos de los objetos que se muevan sobre ella se curvaran. Esto es, en esencia, lo que ocurre en relatividad general.

métricas de Friedman-Robertson-Walker (FRW)métricas de Friedman-Robertson-Walker (FRW)métricas de Friedman-Robertson-Walker (FRW)

métricas de Friedman-Robertson-Walker (FRW)

En los modelos cosmológicos más sencillos basados en los modelos de Friedmann, la curvatura de espacio-tiempo está relacionada simplemente con la densidad media de la materia, y se describe por una función matemática denominada métrica de Robertson-Walker. Si un universo tiene una densidad mayor que la densidad crítica, se dice que tiene curvatura positiva, queriendo decir que el espacio-tiempo está curvado sobre sí mismo, como la superficie de una esfera; la suma de los ángulos de un triángulo que se dibuje sobre la esfera es entonces mayor que 180°. Dicho universo sería infinito y se expandiría para siempre, es el universo abierto. Un universo de Einstein-de Sitter tiene densidad crítica exacta y es, por consiguiente, espacialmente plano (euclideo) infinito en el espacio y en el tiempo.

  • universo de Einstein-de Sitter Wm= 1, Wl= 0
  • Universo cerrado Wm= 2, Wl= 0
  • modelo favorito actualmente con Wl= 0.75, Wm= 0.25
  •  Wl= 0, Wm= 0
  • universo de de Sitter sin Big Bang Wl= 1, Wm= 0

Representación gráfica de los espacios que dan lugar a los tres posibles formas de universo antes referida en función de la densidad crítica que hará un universo plano, un universo abierto o un universo curvo y cerrado.

Forma del universo - Wikiwand

Hemos mencionado antes la relatividad del tiempo que para el mismo suceso será distinto en función de quién sea el que cronometre; por ejemplo, el tiempo transcurre más despacio para el astronauta que en nave espacial viaja a velocidades próximas a c, la velocidad de la luz. Según la teoría de la relatividad especial de Einstein, en el caso antes señalado, el tiempo del astronauta viajero avanza más lentamente en un factor que denotamos con la ecuación , cuando lo mide un sistema de referencia que viaja a una velocidad v relativa al otro sistema de referencia; c es la velocidad de la luz. Este principio ha sido verificado de muchas maneras; por ejemplo, comparando las vidas medias de los muones rápidos, que aumentan con la velocidad de las partículas en una cantidad predicha en este factor de la anterior ecuación.

Un ejemplo sencillo de la dilatación del tiempo es la conocida paradoja de los gemelos. Uno viaja al espacio y el otro lo espera en la Tierra. El primero hace un viaje a la velocidad de la luz hasta Alfa de Centauri y regresa. Cuando baja de la nave espacial, tiene 8’6 años más que cuando partió de la Tierra. Sin embargo, el segundo gemelo que esperó en el planeta Tierra, al regreso de su hermano, era ya un viejo jubilado. El tiempo transcurrido había pasado más lento para el gemelo viajero.

Se despiden los dos hermanos jovenes. Al regreso, el viajero es joven y el que quedo en la Tierra está jubilado

Otra curiosidad de la relatividad especial es la que expresó Einstein mediante su famosa fórmula de E = mc2, que nos viene a decir que masa y energía son dos aspectos de una misma cosa. Podríamos considerar que la masa (materia), es energía congelada. La bomba atómica demuestra la certeza de esta ecuación.

El Universo es infinito?Encuentra aquí información de Big bang para tu escuela ¡Entra ya! | Rincón  del Vago

Uno de los gráficos anteriores, que es una muestra de las tres posibles maneras en que puede estar conformado nuestro universo, dependerá finalmente, de la densidad critica, es decir, de la masa que realmente contenga el universo. Claro que, según dicen, hay por ahí una materia desconocida que denominamos “oscura” y que, al parecer, confroma la mayor parte de la materia del universo.

“Es un tipo de masa invisible que posee gran atracción gravitatoria. El “descubrimiento” lo realizó, por medios de rayos X, el laboratorio Chandra perteneciente a la NASA. (Pongamos en cuarentena lo de “descubrimiento”).

Los astrónomos dicen que han encontrado las mejores pruebas hasta la fecha sobre la “Materia Oscura”, la misteriosa sustancia invisible que se cree constituye la mayor parte de la masa del universo. En la imagen de arriba han querido significar, diferenciándola en colores, las dos clases de materia, la bariónica y la oscura que, en este caso, sería la azulada -según dicen-. Sin embargo, la imagen no refleja la proporción que dicen existe entre la una y la otra.

 

      En el Universo, como ocurre en los átomos, casi todo son espacios vacíos

La densidad crítica está referida a la densidad media de materia requerida para que la gravedad detenga la expansión de nuestro universo. Así que si la densidad es baja se expandirá para siempre, mientras que una densidad muy alta colapsará finalmente. Si tiene exactamente la densidad crítica ideal, de alrededor de 10-29 g/cm3, es descrito por el modelo al que antes nos referimos conocido como de Einstein-de Sitter, que se encuentra en la línea divisoria de estos dos extremos. La densidad media de materia que puede ser observada directamente en nuestro universo representa sólo el 20% del valor crítico. Puede haber, sin embargo, una gran cantidad de materia oscura que elevaría la densidad hasta el valor crítico. Las teorías de universo inflacionario predicen que la densidad presente debería ser muy aproximada a la densidad crítica; estas teorías requieren la existencia de materia oscura.

JReynaUnADMDensity Parameter, OmegaMiden la cantidad total de materia del UniversoDensidad Crítica : Blog de Emilio Silvera V.

“Composición. El universo observable actual parece tener un espacio-tiempo geométricamente plano, conteniendo una densidad masa-energía equivalente a 9,9 × 1030 gramos por centímetro cúbico.”

Conforme a lo antes dicho, la densidad media de materia está referida al hecho de distribuir de manera uniforme toda la materia contenida en las galaxias a lo largo de todo el universo. Aunque las estrellas y los planetas son más densos que el agua (alrededor de 1 g/cm3), la densidad media cosmológica es extremadamente baja, como se dijo antes, unos 10-29 g/cm3, o 10-5 átomos/cm3, ya que el universo está formado casi exclusivamente de espacios vacíos, virtualmente vacíos, entre las galaxias. La densidad media es la que determinará si el universo se expandirá o no para siempre.

 

 

Arriba tenemos una visión del enorme cúmulo de galaxias Abell 2218, ubicado en la constelación de Draco a unos dos mil millones de años-luz de la Tierra.

 

 

El extraño destino que enfrentarías si cayeras en un agujero negro - BBC  News Mundo

La curvatura del Espacio -Tiempo extrema está presente en un Agujero Negro, donde el espacio desaparece y el tiempo se distorsiona hasta el infinito en la Singularidad.

En presencia de grandes masas de materia, tales como planetas, estrellas y galaxias y supercúmulos de galaxias, está presente el fenómeno descrito por Einstein en su teoría de la relatividad general, la curvatura del espacio-tiempo, eso que conocemos como gravedad, una fuerza de atracción que actúa entre todos los cuerpos y cuya intensidad depende de las masas y de las distancias que los separan; la fuerza gravitacional disminuye con el cuadrado. La gravitación es la más débil de las cuatro fuerzas fundamentales de la naturaleza. Isaac Newton formuló las leyes de la atracción gravitacional y mostró que un cuerpo se comporta gravitacionalmente como si toda su masa estuviera concentrada en su centro de gravedad. Así, pues, la fuerza gravitacional actúa a lo largo de la línea que une los centros de gravedad de las dos masas (como la Tierra y la Luna, por ejemplo).

 http://csociales.files.wordpress.com/2009/07/tierra-y-luna4.jpg

En la teoría de la relatividad general, la gravitación se interpreta como una distorsión del espacio que se forma alrededor de la masa que provoca dicha distorsión, cuya importancia iría en función de la importancia de la masa que distorsiona el espacio que, en el caso de estrellas con gran volumen y densidad, tendrán una importancia considerable, igualmente, la fuerza de gravedad de planetas, satélites y grandes objetos cosmológicos, es importante.

Esta fuerza es la responsable de tener cohesionado a todo el universo, de hacer posible que existan las galaxias, los sistemas solares y que nosotros mismos tengamos bien asentados los pies a la superficie de nuestro planeta Tierra, cuya gravedad tira de nosotros para que así sea.

 

                     La fuerza de gravedad hace posible la cohesión del Sistema Solar

No obstante, a escala atómica la fuerza gravitacional resulta ser unos 1040 veces más débil que la fuerza de atracción electromagnética, muy potente en el ámbito de la mecánica cuántica donde las masas de las partículas son tan enormemente pequeñas que la gravedad es despreciable.

La gravitación cuántica es la teoría en la que las interacciones gravitacionales entre los cuerpos son descritas por el intercambio de partículas elementales hipotéticas denominadas gravitones. El gravitón es el cuanto del campo gravitacional. Los gravitones no han sido observados, aunque se presume que existen por analogía a los fotones de luz.

Everyone can quantum – Quantum Bastu182Hallan, durante un experimento, una nueva clase de tiempo cuántico

                                                      Tener en nuestras manos la Gravitación Cuántica, es cosa del futuro

La teoría cuántica es un ejemplo de talento que debemos al físico alemán Max Planck (1.858 – 1.947) que, en el año 1.900 para explicar la emisión de radiación de cuerpo negro de cuerpos calientes, dijo que la energía se emite en cuantos, cada uno de los cuales tiene una energía igual a hv, donde h es la constante de Planck (E = hv o ħ = h/2π) y v es la frecuencia de la radiación. Esta teoría condujo a la teoría moderna de la interacción entre materia y radiación conocida como mecánica cuántica, que generaliza y reemplaza a la mecánica clásica y a la teoría electromagnética de Maxwell.  En la teoría cuántica no relativista se supone que las partículas no son creadas ni destruidas, que se mueven despacio con respecto a la velocidad de la luz y que tienen una masa que no cambia con la velocidad. Estas suposiciones se aplican a los fenómenos atómicos y moleculares y a algunos aspectos de la física nuclear. La teoría cuántica relativista se aplica a partículas que viajan cerca de la velocidad de la luz, como por ejemplo, el fotón.

Por qué Albert Einstein tuvo que esperar a que un eclipse confirmara su  teoría de la relatividad - BBC News MundoTeoría Cuántica de Planck // QB148 - YouTube

De todas las maneras, los misterios cuánticos serán desvelados por nuestras mentes poderosas de la misma manera que hemos podido traspasar otras barreras del saber. Llegará ese tiempo futuro en el cual, dejará de ser un misterio esa compleja unión de la Gravedad de Einstein con la Cuántica de Planck. Claro que, como decía por alguna parte, el futuro estará cargado de nuestro presente y, si no hacemos ahora lo que debemos…mal pintarán las cosas.

emilio silvera