Nov
26
MISIÓN MARTE 2020
por Emilio Silvera ~ Clasificado en Marte ~ Comments (0)
Tratarán de convertir el CO2 en Oxígeno
El próximo proyecto de la NASA en el planeta rojo, será la Misión Marte 2020, en la que destaca la intención de investigar la manera de transformar el CO2 en oxígeno. Desde aquellos lejanos tiempos de en los que algunos creyeron ver “los Canales de Marte”, nuestra imaginación nunca ha dejado de elucubrar fantasías sobre aquel planeta hermano que… ¡Tan cerca y tan lejos está!
Europa Press | Madrid | Actualizado el 03/08/2014 a las 23:05 horas
El próximo rover que la NASA enviará a Marte en 2020 llevará siete instrumentos cuidadosamente seleccionados para investigaciones sin precedente en el Planeta Rojo. El más llamativo persigue convertir en oxígeno dióxido de carbono de la atmósfera marciana.
La NASA ha escogido sobre 58 propuestas recibidas en enero de investigadores e ingenieros de todo el mundo. Las propuestas recibidas fueron el doble del número habitual en este tipo de convocatorias, un indicador de lo extraordinario interés por la comunidad científica en la exploración de Marte.
La Misión Marte 2020 se basa en el diseño del exitoso Curiosity, que aterrizó hace casi dos años, y actualmente está operando en Marte. El nuevo rover llevará hardware más sofisticado y nuevos instrumentos para realizar evaluaciones geológicas del sitio de aterrizaje, determinar la habitabilidad potencial del medio ambiente, y buscar directamente signos de la antigua vida marciana, según informa la NASA.
“La exploración de Marte será el legado de esta generación, y el rover Marte 2020 será otro paso crítico en el camino de los seres humanos al Planeta Rojo”, dijo el administrador de la NASA, Charles Bolden.
Los científicos utilizarán el vehículo para identificar y seleccionar una colección de muestras de roca y suelo que almacenará para su posible regreso a la Tierra de una futura misión.
El rover de Marte 2020 también ayudará a avanzar en nuestro conocimiento de cómo los futuros exploradores humanos podrían utilizar los recursos naturales disponibles en la superficie del planeta rojo. La capacidad de vivir de la tierra marciana transformaría la futura exploración del planeta. Los diseñadores de las futuras expediciones humanas pueden utilizar esta misión para entender los peligros planteados por el polvo marciano y demostrar la tecnología para procesar el dióxido de carbono de la atmósfera para producir oxígeno.
Las propuestas seleccionadas son:
– MastCam-Z: un sistema de cámara avanzada con capacidad estereoscópica de imágenes panorámicas y con capacidad de zoom. El instrumento también determinará la mineralogía de la superficie marciana y ayudará en las operaciones del rover. El investigador principal es James Bell, de la Universidad Estatal de Arizona en Tempe.
– SuperCam, un instrumento que puede proporcionar imágenes, análisis de la composición química, y la mineralogía. El instrumento también será capaz de detectar la presencia de compuestos orgánicos en rocas y regolito a distancia. El investigador principal es Roger Wiens, del Laboratorio Nacional de Los Alamos, Nuevo México.
– Instrumento Planetario para Litoquímica en Rayos X (PIXL), un espectrómetro de fluorescencia de rayos X, que también contendrá un reproductor de imágenes de alta resolución para determinar la composición elemental a escala fina de materiales de la superficie de Marte. PIXL proporcionará capacidades que permitan la detección y análisis más detallados de elementos químicos que nunca. La investigadora principal es Abigail Allwood, el Laboratorio de Propulsión a Chorro de la NASA en Pasadena, California.
– Escaneo de Entornos Habitables con Raman y Luminiscencia para Productos Orgánicos y Químicos (SHERLOC), un espectrómetro que proporcionará imágenes a escala fina y utiliza una luz ultravioleta de láser para determinar la mineralogía a escala fina y detectar compuestos orgánicos. El investigador principal es Luther Beegle, DEL JPL.
– Experimento ISRU de Oxígeno en Marte, una investigación de tecnología de exploración que va a producir oxígeno a partir del dióxido de carbono atmosférico marciano. El investigador principal es Michael Hecht, Institute of Technology, Cambridge, Massachusetts.
– Analizador de Dinámicas Ambientales en Marte, un conjunto de sensores que permitirá la medición de temperatura, velocidad y dirección del viento, presión, humedad relativa y el tamaño y la forma de polvo. El investigador principal es José Rodríguez-Manfredi, del Centro de Astrobiología, Instituto Nacional de Tecnica Aeroespacial, España.
– Radar de Imagen para la Exploración del Subsuelo de Marte, un radar de penetración de tierra que proporcionará resolución de centímetro en la estructura geológica del subsuelo. El investigador principal es Svein-Erik Hamran, del Forsvarets forskning Institute, Noruega.
Arriba podemos contemplar Valles Marineris, un accidente geográfico de cuatro mil kilómetros de longitud, 200 de ancho y 10 de profundidad. Marte tiene rincones que debemos descubrir y, sobre todo, me intrigan esos huecos o grutas naturales que bajo la superficie fueron hechos por la pasada actividad volcánica del planeta en el pasado. Allí, a más profundidad y más alta temperatura, a salvo de la radiación nosiva del exterior… ¡Pudiera estar presente el agua líquida! Y, si eso es así… ¡La Vida andará muy cerca.
Como podéis ver por la noticia de la NASA, no dejamos de dar pequeños pasos hacia nuevos “pequeños” logros en aquel planeta que, algún día (lejano aún ene l futuro), podremos visitar.
emilio silvera
Nov
25
Los fenómenos naturales
por Emilio Silvera ~ Clasificado en Naturaleza-Imaginación ~ Comments (2)
De manera periódica, la Tierra, nuestro planeta, nos hace sentir como se despereza y suspira. Movimientos tectónicos que dan lugar a erupciones volcánicas y otros fenómenos naturales que hacen cambiar la faz del mundo y recrean nuevas formas de vida, nuevas imágenes en la orografía de su superficie y otras formas que no por repetidas, dejan de asombrarnos.
La más joven de las cadenas montañosas del mundo, los Himalayas, son también la más alta. Las montañas del Himalaya se han dividido en tres partes: Gran Himalaya, Himalaya Medio y el Himalaya inferior, dependiendo de su ubicación y la altura. Las cordilleras del Himalaya son la cuan de algunos grandes ríos como el Ganges, el Yamuna, Brahamputra, Sutlej, Ravi y Chenab. El Himalaya se forma por varias cadenas montañosas, como Pir Panjal, Dhauladhar, Ladakh, Zanskar, Shivalik y Karakoram. Todas ellas son ricas en flora y fauna y contribuyen a la formación de algunos ríos que son “alimentados” por la nieve, Pir Panjal es en el Himalaya Medio. Se extiende sobre una superficie de 3.574 kilómetros cuadrados y tiene una altitud de 6.500 metros. Pir Panjal se extiende por los estados del norte de Jammu y Cachemira y Himachal Pradesh en la India. Tattakoti es la montaña más alta con una altura de 15.524 pies sobre el nivel del mar.
El mundo no siempre fue de la misma manera que ahora lo conocemos y, con el tiempo, los grandes movimientos tectónicos han cambiado la faz del mundo en el que vivimos creando nuevas formas y nuevos continentes. Como tantas veces hemos dicho aquí, nada permanece y todo se trtansforma a través del transcurrir del tiempo.
El eoceno marcó la última fase de la orogénesis de las cordilleras, el episodio de alzamiento de las grandes cadenas montañosas que se extienden hacia el norte y el sur en el oeste de las Américas. Al mismo tiempo, el supercontinente de Laurasia siguió partiéndose, la expansión de los suelos marinos comenzó en serio en la sección más septentrional de la dorsal medioatlántica, impulsando a Groenlandia hacia el oeste, alejándola del norte de Europa, y desencadenando la erupción de grandes flujos basálticos, cuyos restos pueden apreciarse en Irlanda, Escocia, Islandia y Groenlandia.
Bien conocido por todos es ese fenómeno natural que sin avisar, llega de pronto y devasta regiones enteras, son…
Los terremotos
La inmensa mayoría de los terremotos se originan en los procesos geotectónicos a gran escala que crean, hacen chocar y hunden en las zonas de subducción, las placas oceánicas. No menos del 95 por ciento de todos los terremotos se concentran a lo largo de los bordes de las placas y cerca de nueve décimas partes de éstos se localizan en el cinturón Circum-Pacífico, donde las placas, que son relativamente rápidas, están colisionando o deslizándose contra las placas continentales más pesadas. La mayor parte del resto de terremotos están asociados a los puntos calientes, generalmente señalados por volcanes en actividad.
Cinturón de Fuego del Pacífico
En conjunto, los terremotos representan una fracción muy pequeña de la energía liberada por los procesos tectónicos de la Tierra. Desde 1.900, en los mayores terremotos se han liberado anualmente una energía media cercana a los 450 PJ, que no supone más del 0’03 por ciento del flujo total de calor terrestre. La liberación anual de energía sísmica de todos los terremotos que se han medido alcanza unos 300 GW, que sumada a la energía de esfuerzo invertida en deformaciones irreversibles y al calor generado por fricción a lo largo de las fallas, daría un total próximo a 1 TW, lo cual representa solamente un 2’5 por ciento del flujo de calor global.
Pero este recuento total nos dice poco de la liberación de energía y de la potencia de un solo terremoto. Aunque la mayoría son tan débiles que pasan desapercibidos para las personas, cada año se producen terremotos terriblemente destructivos, que durante el siglo XX han causado más víctimas mortales que las inundaciones, ciclones y erupciones volcánicas juntas.
La energía de estos terremotos se puede calcular a partir de la energía cinética de las ondas sísmicas generadas por la energía liberada en el esfuerzo de la deformación del suelo, pero rara vez se realizan estos cálculos directamente. Lo más frecuente es deducir la energía del terremoto a partir de la medida de su magnitud o de su momento. La medida típica de la magnitud de un terremoto fue establecida por Charles Richter en 1.935, como el logaritmo decimal de la máxima amplitud (en micrómetros) registrada con un sismómetro de tensión estándar (Word-Anderson) a 100 Km de distancia del epicentro del temblor.
Desde que en 1.942, Richter publicó la primera correlación entre la magnitud de energía sísmica liberada en un temblor, su trabajo (como por otra parte, es de lógica) ha sufrido numerosas modificaciones. La conversión sigue la forma estándar log10 E = a + bM, donde E es la energía liberada en forma de ondas sísmicas (en ergios), M es la magnitud de Richter, y a y b son los coeficientes empíricos que varían entre 6’1 – 13’5 y 1’2 – 2 respectivamente. Otras conversiones alternativas permiten obtener la energía liberada a partir del momento del terremoto, que se define como el producto de la rigidez por el desplazamiento medio de la falla y por la superficie media desplazada.
Los mayores terremotos registrados tienen magnitudes Richter comprendidas entre 8 y 8’9, con liberación de energía sísmica entre 48 PJ y 1’41 EJ. Todos hemos oído en alguna ocasión algún comentario sobre el terremoto de San Francisco de 1.906, donde los cálculos basados en tres métodos utilizados en el esfuerzo dieron valores tan distintos como 9’40 y 175 PJ, y con método cinético se obtuvo 2’5 PJ.
Imagen debida al terremoto de San Francisco
Los terremotos, por ser a la vez de breve duración y estar limitados espacialmente, desarrollan potencias y densidades de potencia extraordinariamente altas. La potencia de un temblor de magnitud 8 en la escala de Richter que durase solamente medio minuto, sería de 1’6 PW, y si toda esta potencia estuviera repartida uniformemente en un área de 80 Km de radio, la densidad de potencia sería tan elevada como 80 KW/m2.
Obviamente, tales flujos pueden ser terriblemente destructivos, pero ni las pérdidas de vidas humanas ni los daños materiales que ocasionan los temblores están correlacionados de una manera sencilla con la energía liberada. La densidad de población o de industrias, así como la calidad de las construcciones, constituyen un factor muchísimo más importante para determinar la mortandad o el impacto económico de los mismo. Por ejemplo, el coste en vidas humanas del gran terremoto japonés que en 1.923 arrasó Tokio, donde existía una alta densidad de casas de madera, fue unas 200 veces más elevado que el terremoto de San Francisco de 1.906 en el que se liberó cuatro veces más energía. También aquí salen perdiendo, como siempre, los pobres.
Otra consecuencia de los terremotos son los Tsunamis
Por otra parte, no podemos olvidar que la superficie del globo terrestre está dominada por las aguas, y los seres humanos viven en la Tierra seca. Sin embargo, vienen los tsunamis. La predicción de estas catástrofes continúa siendo imposible. Se tienen datos, se localizan las zonas de más frecuencia, y conocen las fallas de desgarre y las inversas, los ciclos, etc., pero el conocimiento es aún escaso para prevenir dónde y cuándo se producirán temblores.
Las olas sísmicas que se pueden provocar por terremotos submarinos se propagan durante miles de kilómetros a velocidades de 550 – 720 Km/h, perdiendo en su viaje muy poca potencia. Estas olas, prácticamente invisibles en el mar, se levantan hasta una altura de 10 metros en agua poco profundas y pueden llegar a golpear las costas con intensidades de potencia en superficie vertical de hasta 200 – 500 MW/m2, y con impactos horizontales de intensidad y potencia entre 10 – 100 MW/m2. Son, pues, mucho más potentes que los ciclones tropicales y causan grandes daños tanto materiales como en pérdida de vidas humanas.
Quizás algún día, en el futuro no muy lejano, podamos predecir con tiempo cuándo sucederan estas catástrofes naturales para que, al menos, podamos poner a salvo a los seres vivos.
emilio silvera
Nov
24
Hablemos de cuerpos
por Emilio Silvera ~ Clasificado en Química ~ Comments (0)
Me referiré en primer lugar a los que constituyen nuestro entorno ordinario, que sería todo el entorno que abarca nuestro planeta. En segundo lugar considerare los demás cuerpos y objetos del Universo. El análisis de muestras de esos diversos cuerpos ha puesto de manifiesto que, en función de la composición, los cuerpos pueden ser simples y compuestos. Los primeros son, precisamente, los llamados elementos químicos, a las que el insigne Lavoisier (conocido como padre de la Química), consideró como el último término a que se llega mediante la aplicación del análisis químico.
Hoy sabemos que son colectividades de átomos isotópicos.
La mayoría de ellos son sólidos y se encuentran en la Naturaleza (nuestro entorno terráqueo) en estado libre o en combinación química con otros elementos, formando los diversos minerales.
La ordenación de los iones en las redes se manifiesta externamente en multitud de formas y colores. No obstante, debo señalar que, aun siendo abundante esta variedad, no es tan rica como la que corresponde a los cuerpos vivos, tanto animales como vegetales. La explicación se basa en que el número de especimenes moleculares y su complejidad son mucho mayores que en el reino inorgánico.
Sería conveniente, salir al paso de una posible interpretación errónea. Me refiero a que pudiera pensarse que los reinos que acabamos de mencionar constituyen clases disyuntas, esto es, sin conexión mutua. Y no lo digo porque esté considerando el hecho de que el carbono forma compuestos inorgánicos y orgánicos (lo que también hace el silicio), sino porque haya existido, y aún pueda existir, una conclusión, mejor conexión evolutiva del mundo inorgánico y el viviente que no se puede descartar, de hecho, yo particularmente, estoy seguro de ello. Estamos totalmente conectados con los ríos, las montañas y los valles, con la tierra que pisamos, el aire que respiramos y con todo el resto del Universo del que formamos parte.
La teoría de Cairos Swith considera que el eslabón entre ambos mundos se halla localizado en los microcristales de arcilla. Mi teoría particular es que no hay eslabón perdido en dicha conexión, sino que es el tiempo el que pone, en cada momento, una u otra materia en uno u otro lugar. Ahora, nos ha tocado estar aquí como ser complejo, pensante y sensitivo. El eón que viene nos puede colocar formando parte de un enorme árbol, de un monte, o, simplemente estar reposando como fina arena en el lecho de un río. Sin dudarlo, J.M.y P. formarán parte de un hermoso jardín perfumado y lleno de aromas que la brisa regalará a los que pasen cerca de allí.
El granito, por ejemplo, consiste básicamente en una mezcla de tres cuerpos compuestos: cuarzo, mica y feldespato. ¿Quién puede decir hoy lo que seremos mañana?
En todos los cuerpos que hemos estado considerando hasta ahora, las moléculas, los átomos o los iones se hallan situados en los nudos de la correspondiente red, así que, los electrones de esos individuos se encuentran también localizados en el entorno inmediato de esos lugares. Podríamos decir que la densidad electrónica es una función periódica espacial, lo que significa que al recorrer la red siguiendo una determinada dirección irían apareciendo altibajos, es decir, crestas y valles de la densidad electrónica.
La estructura de los cuerpos metálicos, así como las aleaciones, merecen una consideración especial. La estructura de los metales y aleaciones difiere de la de los demás cuerpos en un aspecto muy importante que consideraré a continuación.
Me refiero a que en los cuerpos metálicos existe una deslocalización de los electrones que están menos fuertemente enlazados en los correspondientes núcleos, es decir, de los electrones de valencia.
Vamos a precisar un poco. Supongamos, para fijar las ideas, que tenemos un trozo de plata metálica pura. En los nudos de la red correspondientes los átomos han perdido su electrón de valencia, pero ocurre que cada uno de estos electrones forma una colectividad que se halla desparramada o dispersa por todo el sólido. Una primera imagen de esta situación fue establecida por el gran físico italiano Enrico Fermi, por lo que se habla de un gas electrónico, llamado también de Fermi, que llenaría los espacios libres, es decir, no ocupados por los iones metálicos.
Este gas electrónico es el responsable de las propiedades metálicas, tales como el brillo, conductibilidades eléctrica y térmica, etc. La aplicación de la mecánica cuántica a la descripción del estado metálico conduce a la obtención del mapa de la densidad electrónica, o, como decía antes, a las características de la información correspondiente.
Sin entrar en detalles que desviarían nuestra atención hacia otros conceptos fuera de los límites de lo que ahora estoy pretendiendo, utilizaré el mismo lenguaje que para las estructuras de núcleos y átomos.
Recordemos que en la sociedad de los nucleones y electrones existen las relaciones verticales y las de estratificación, que se manifiestan en las capas y subcapas. En el caso de los metales tendríamos una colectividad de núcleos, arropados con sus capas cerradas, ocupando los nudos de la red; únicamente los electrones de valencia de cada átomo forman la colectividad del gas electrónico.
La pregunta que nos debemos hacer es: ¿estos electrones, en número igual, por lo menos, al de los átomos, se hallan estratificados? La respuesta es que sí. Existe una estratificación de estos electrones en las llamadas bandas. El concepto de banda energética resulta de la consideración simultánea de dos aspectos: la cuantización energética ( o la estratificación de los niveles energéticos en los átomos) y el grandísimo número de electrones existentes. Este colectivo no podría ubicarse en un número finito y escaso de niveles. Esta dificultad queda soslayada si se admite que cada uno de esos niveles atómicos de los N átomos que forman el cuerpo se funde en otros tantos niveles de cierta anchura donde ya pueden alojarse los electrones disponibles.
Esa fusión de los niveles atómicos da lugar a las bandas. Esta imagen equivaldría a considerar un metal como un átomo gigante en el que los niveles energéticos poseyeran una anchura finita.
En cuanto a la información que puede soportar un metal, podríamos señalar que sería parecida a la del correspondiente átomo, pero mucha más extendida espacialmente. Una información puntual, la del átomo, daría paso a otra espacial, si bien vendría a ser una mera repetición periódica de aquella.
¿Y los cuerpos que pueblan el resto del Universo?
Cuando un cuerpo sobrepasa unas determinadas dimensiones, aparece algo que conocemos como fuerza gravitatoria y que se deja sentir en la forma que todos conocemos y, que da lugar, primeramente a la fusión de los diversos materiales que forman los cuerpos.
Así, por ejemplo, en el cuerpo que llamamos Tierra, la presión crece con la profundidad, por lo que, a partir de un determinado valor de ésta, aparece el estado líquido y con él una estratificación que trata de establecer el equilibrio hidrostático.
Dentro de nuestro sistema planetario se distinguen los planetas rocosos, hasta Marte y meteoritos inclusive, y el resto de ellos, desde Júpiter en adelante, incluido este. Estos últimos difieren esencialmente de los primeros en su composición. Recuérdese que la de Júpiter es mucho más simple que la de los planetas rocosos. Consta fundamentalmente de hidrógeno, helio, agua, amoniaco y metano, con un núcleo rocoso en su interior. El hidrógeno que rodea a este núcleo se encuentra en forma de hidrógeno atómico sólido*
También la composición del Sol (y todas las estrellas que brillan) es más simple que la de los planetas rocosos, su estado físico es el de plasma y su contenido está reducido (mayormente) a hidrógeno y helio. Mas variedad de materiales existe en las estrellas supernovas, donde el primitivo hidrógeno ha evolucionado de la manera que expliqué en otra parte de este trabajo.
En cuanto a los derechos de la evolución estelar, enanas blancas, estrellas de neutrones y agujeros negros, señalaré que la composición de la primera es sencilla en cuanto al numero de “elementos” constituyentes; la segunda ya lo indica su propio nombre, constan de nucleones, particularmente neutrones que están fuertemente empaquetados (muy juntos) por la gravedad. Una estrella de nuetrones puede tener una densidad superior a la del agua, en millones de veces y del mismo orden que la de los núcleos atómicos. El agujero negro, es un fenómeno aparte, su inmensa fuerza gravitatoria es tal que, ni la luz puede escapar de ella, es decir, su velocidad de escape es superior a 300.000 km/s, y, como según la relatividad, nada es en nuestro Universo, superior en velocidad, a la luz, resulta que nada podrá escapar de un agujero negro.
Allí dentro, en el interior del agujero negro, no existen ni el tiempo ni el espacio, es como un objeto que estando en nuestro Universo (deja sentir su fuerza gravitatoria y engulle estrellas), al mismo tiempo, no está aquí.
Desde el comienzo de este trabajo estoy tratando de relacionar el Universo, la materia y la consciencia, es por ello que me he entrenido en dar tantas explicaciones que, para no resultar pesado, he amenizado con alguna que otra historia, noticia o comentario.
Ha sido un largo recorrido por las profundidades de la materia vista desde distintas perspectivas, y, en ella, estamos nosotros incluidos, con una adicional: El pensamiento, la racionalidad: el Ser.
emilio silvera
En todo el Universo, siempre es lo mismo, rigen las mismas leyes, las mismas fuerzas y está presente la misma materia.
QuarksNucleones
Núcleos Átomos Moléculas Sustancias Cuerpos Planetas ( Vida ) Estrellas Galaxias Cúmulos de Galaxias UNIVERSO
|
Nov
21
Y el autómata se hizo humano
por Emilio Silvera ~ Clasificado en Noticias ~ Comments (1)
Congreso humanoids 2014. Edición: INMACULADA COBO / Información: EVA MOSQUERA RODRÍGUEZ / Foto: AFP
“Imagínese un mundo compartido por robots humanoides y personas. No piense en Blade Runner, ni en Terminator, ni en Matrix. Piense en un mundo en el que la tecnología se alía con usted para hacerle la vida más fácil. Ahora deje de imaginar y abra los ojos, porque ese mundo ya está aquí. Los robots están integrados en nuestros hogares, en nuestras oficinas, en los hospitales y en los laboratorios. Y es en estos últimos donde se trabaja duro para que los humanoides lleguen también a la vida cotidiana.
Asimov lo imaginó y la innovación quiere convertir sus sueños en ciencia. El Congreso Humanoids 2014 que se ha celebrado esta semana en Madrid, es un claro ejemplo de que la tecnología puede ayudar al ser humano en gran cantidad de escenarios. Durante el que se considera el evento más importante del mundo en el campo de la robótica, más de 30 países han mostrado las capacidades de sus humanoides. A la cita no han faltado los ingenieros españoles. Empresas como Pal Robotics y Juguetrónica han demostrado como sus modelos caminan, mantienen el equilibrio y tienen gran libertad de movimiento. Incluso pueden hablar.
El autómata más popular de Humanoids ha sido Nao, un pequeño robot de aspecto amigable que, por su sencilla programación, puede ser usado incluso por niños de seis años. El CEO de Juguetrónica, Daniel Bayón, explica que «Nao ya está en miles de laboratorios para mejorar la inteligencia artificial, pero se puede utilizar para cantidad de aplicaciones. Incluso llegará a ser un robot doméstico». Nao, al igual que el famoso humanoide japonés Asimo, es extranjero. Ha nacido en una empresa francesa pero es políglota y ya se comercializa por todo el mundo.
España va a la carrera. La Universidad Carlos III de Madrid (UC3M), con su Robotics Lab, y la Universidad Politécnica de Madrid (UPM) -asociada con el Centro Superior (CSIC), con su Centro de Automática y Robótica (CAR)- se han convertido en las apuestas más fuertes para el avance de esta tecnología en nuestro país.
El robot Teo, del ‘Robotics Lab’ de la UC3M. INMACULADA COBO
El robot estrella del Robotics Lab es Teo, presentado por primera vez en sociedad en este evento. «A excepción de un par de piezas, es de fabricación 100% española», explica Miguel González-Fierro, investigador de este centro. «Nuestro objetivo es ayudar a la gente. Queremos hacerle la vida más fácil a las personas, pero sobre todo nos gustaría mejorar la calidad de vida de ancianos y discapacitados. Los humanoides podrían hacer todas las tareas que ellos no pueden hacer», concluye González-Fierro.
El CAR también pretende ser de ayuda al mundo. Sus campos de investigación pasan desde «la percepción artificial hasta la locomoción para personas de movilidad reducida y rehabilitación», cuenta Manuel Armada, director de este centro mixto.
Además, otro de sus grupos se dedica a la telemanipulación, es decir, el manejo de tecnologías a distancia. «Un ingeniero podría sentir el objeto que está manipulando a distancia como si estuviese allí mismo. Esto es útil para zonas sin atmósfera, como el espacio, o espacios difíciles de acceder o nocivos para el ser humano, como lo sería Fukushima después de su catástrofe nuclear», explica Jose Breñosa, investigador en este ámbito.
Lo dijo Steve Jobs y lo recordó el presidente de la Comunidad de Madrid, Ignacio González, durante la inauguración de Humanoids: «La tecnología no es nada. Lo realmente importante es que tengas fe en la gente, en que todos somos buenos e inteligentes, y que si le damos herramientas, harán cosas maravillosas con ellas».”
Nov
21
Buscando la Gravedad cuántica
por Emilio Silvera ~ Clasificado en Física Cuántica ~ Comments (0)
Quién sabe cómo nos veremos nosotros dentro de unos cientos de años
Entre los teóricos, el casamiento de la relatividad general y la teoría cuántica es el problema central de la física moderna. A los esfuerzos teóricos que se realizan con ese propósito se les llama “supergravedad”, “súpersimetría”, “supercuerdas” “teoría M” o, en último caso, “teoría de todo o gran teoría unificada”. Lo cierto es que, para que las dos teorías, cuántica y relativista se reúnan sin que surjan los dichosos infinitos, se tiene que plantear dentro de una teoría de dimensiones extra. Esas teorías de más dimensiones, requieren de complejas formulaciones que no todos, podemos entender.
Ahí tenemos unas matemáticas exóticas que ponen de punta hasta los pelos de las cejas de algunos de los mejores matemáticos del mundo (¿y Perelman? ¿Por qué nos se ha implicado?). Hablan de 10, 11 y 26 dimensiones, siempre, todas ellas espaciales menos una que es la temporal. Vivimos en cuatro: tres de espacio (este-oeste, norte-sur y arriba-abajo) y una temporal. No podemos, ni sabemos o no es posible instruir, en nuestro cerebro (también tridimensional), ver más dimensiones. Pero llegaron Kaluza y Klein y compactaron, en la longitud de Planck las dimensiones que no podíamos ver. ¡Problema solucionado!
¿Quién puede ir a la longitud de Planck para verla?
Ni vemos la longitud de Planck ni las dimensiones extra
La puerta de las dimensiones más altas quedó abierta y, a los teóricos, se les regaló una herramienta maravillosa. En el Hiperespacio, todo es posible. Hasta el matrimonio de la relatividad general y la mecánica cuántica, allí si es posible encontrar esa soñada teoría de la Gravedad cuántica.
Así que, los teóricos, se han embarcado a la búsqueda de un objetivo audaz: buscan una teoría que describa la simplicidad primigenia que reinaba en el intenso calor del universo en sus primeros tiempos, una teoría carente de parámetros, donde estén presentes todas las respuestas. Todo debe ser contestado a partir de una ecuación básica.
¿Dónde radica el problema?
Nuestro es tridimensional y no podemos ver otro más allá… ¡si existe!
El problema está en que la única teoría candidata no tiene conexión directa con el mundo de la observación, o no lo tiene todavía si queremos expresarnos con propiedad. La energía necesaria para ello, no la tiene ni el nuevo acelerador de partículas LHC que con sus 14 TeV no llegaría ni siquiera a vislumbrar esas cuerdas vibrantes de las que tanto se habla.
La verdad es que, la teoría que ahora tenemos, el Modelo Estándar, concuerda de manera exacta con todos los datos a bajas energías y contesta cosas sin sentido a altas energías.
Con sus 20 parámetros aleatorios (parece que uno de ellos ha sido hallado -el bosón de Higgs-), el Modelo estándar de la física de partículas que incluye sólo tres de las interacicones fundamentales -las fuerzas nucleares débil y fuerte y el electromagnetismo-, ha dado un buen resultado y a permitido a los físicos trabajar ampliamente en el conocimiento del mundo, de la Naturaleza, del Universo. Sin embargo, deja muchas preguntas sin contestar y, lo cierto es que, se necesitan nuevas maneras, nuevas formas, nuevas teorías que nos lleven más allá.
¡Necesitamos algo más avanzado!
Se ha dicho que la función de la partícula de Higgs es la de dar masa a las partículas que conocemos y están incluidas en el Modelo estándar, se nos ha dicho que ha sido encontrada pero, nada se ha dicho de cómo ésta partícula transmite la masa a las demás. Faltan algunas explicaciones.
El secreto de todo radica en conseguir la simplicidad: el átomo resulto ser complejo lleno de esas infinitesimales partículas electromagnéticas que bautizamos con el nombre de electrones, resultó que tenía un núcleo que contenía, a pesar de ser tan pequeño, casi toda la masa del átomo. El núcleo, tan pequeño, estaba compuesto de otros objetos más pequeños aún, los quarks que estaban instalados en nubes de otras partículas llamadas gluones y, ahora, queremos continuar profundizando, sospechamos, que después de los quarks puede haber algo más.
Los del LHC dicen haber encontrado el Bosón de Higgs pero, no he podido leer ni oir, alguna explicación clara y precisa de cómo le dá masa a las demás partículas. Espero que, el Nobel se justifique y que expongan con detalle lo que pasa en los llamados “océanos de Higgs” por el que las partículas circulan para adquirir sus masas que les “proporciona” el recien “hallado” bosón.
¿Cómo llegamos aquí? Bueno, la idea nueva que surgió es que el espacio entero contiene un campo, el campo de Higgs, que impregna el vacío y es el mismo en todas partes. Es decir, que si miramos a las estrellas en una noche clara estamos mirando el campo de Higgs. Las partículas influidas por este campo, toman masa. Esto no es por sí mismo destacable, pues las partículas pueden tomar energía de los campos (gauge) de los que hemos comentado, del campo gravitatorio o del electromagnético. Si llevamos un bloque de plomo a lo alto de la Torre Eiffel, el bloque adquiriría energía potencial a causa de la alteración de su posición en el campo gravitatorio de la Tierra.
Como E=mc2, ese aumento de la energía potencial equivale a un aumento de la masa, en este caso la masa del Sistema Tierra-bloque de plomo. Aquí hemos de añadirle amablemente un poco de complejidad a la venerable ecuación de Einstein. La masa, m, tiene en realidad dos partes. Una es la masa en reposo, m0, la que se mide en el laboratorio cuando la partícula está en reposo. La partícula adquiere la otra parte de la masa en virtud de su movimiento (como los protones en el acelerador de partículas, o los muones, que aumentan varias veces su masa cuando son lanzados a velocidades cercanas a c) o en virtud de su energía potencial de campo. Vemos una dinámica similar en los núcleos atómicos. Por ejemplo, si separamos el protón y el neutrón que componen un núcleo de deuterio, la suma de las masas aumenta.
Peor la energía potencial tomada del campo de Higgs difiere en varios aspectos de la acción de los campos familiares. La masa tomada de Higgs es en realidad masa en reposo. De hecho, en la que quizá sea la versión más
apasionante de la teoría del campo de Higgs, éste genera toda la masa en reposo. Otra diferencia es que la cantidad de masa que se traga del campo es distinta para las distintas partículas. Los teóricos dicen que las masas de las partículas de nuestro modelo estándar miden con qué intensidad se acoplan éstas al campo de Higgs.
La influencia de Higgs en las masas de los quarks y de los leptones, nos recuerda el descubrimiento por Pieter Zeeman, en 1.896, de la división de los niveles de energía de un electrón cuando se aplica un campo magnético al átomo. El campo (que representa metafóricamente el papel de Higgs) rompe la simetría del espacio de la que el electrón disfrutaba.
Hasta ahora no tenemos ni idea de que reglas controlan los incrementos de masa generados por el Higgs (de ahí la expectación creada por el nuevo acelerador de partículas LHC). Pero el problema es irritante: ¿por qué sólo esas masas –Las masas de los W+, W–, y Zº, y el up, el down, el encanto, el extraño, el top y el bottom, así como los leptones – que no forman ningún patrón obvio?
No dejamos de experimentar para saber ccómo es nuestro mundo, la Naturaleza, el Universo que nos acoge
Las masas van de la del electrón 0’0005 GeV, a la del top, que tiene que ser mayor que 91 GeV. Deberíamos recordar que esta extraña idea (el Higgs) se empleó con mucho éxito para formular la teoría electrodébil (Weinberg-salam). Allí se propuso el campo de Higgs como una forma de ocultar la unidad de las fuerzas electromagnéticas y débiles. En la unidad hay cuatro partículas mensajeras sin masa –los W+, W–, Zº y fotón que llevan la fuerza electrodébil. Además está el campo de Higgs, y, rápidamente, los W y Z chupan la esencia de Higgs y se hacen pesados; el fotón permanece intacto. La fuerza electrodébil se fragmenta en la débil (débil porque los mensajeros son muy gordos) y la electromagnética, cuyas propiedades determina el fotón, carente de masa. La simetría se rompe espontáneamente, dicen los teóricos. Prefiero la descripción según la cual el Higgs oculta la simetría con su poder dador de masa.
Las masas de los W y el Z se predijeron con éxito a partir de los parámetros de la teoría electrodébil. Y las relajadas sonrisas de los físicos teóricos nos recuerdan que Gerard ^t Hooft y Veltman dejaron sentado que la teoría entera esta libre de infinitos.
En esta última dirección ha publicado numerosos libros y artículos, donde aborda la asignatura pendiente de la unificación de la mecánica cuántica y la teoría del campo gravitatorio. El camino que ha seguido Penrose es encontrar una base común a ambas.
Para ello ha introducido dos modelos: los “spin networks” y los “twistors”, el primero discreto, con una métrica intrínseca, no relativista, previo al concepto de espacio, el segundo continuo, con una métrica extrínseca, relativista e inmerso en un espacio-tiempo dado.
Claro que son varias las corrientes que quieren abrirse camino hacia otras físicas nuevas.
La teoría de supercuerdas tiene tantas sorpresas fantásticas que cualquiera que investigue en el tema reconoce que está llena de magia. Es algo que funciona con tanta belleza… Cuando cosas que no encajan juntas e incluso se repelen, si se acerca la una a la otra alguien es capaz de formular un camino mediante el cual, no sólo no se rechazan, sino que encajan a la perfección dentro de ese sistema, como ocurre ahora con la teoría M que acoge con naturalidad la teoría de la relatividad general y la teoría mecánico-cuántica; ahí, cuando eso se produce, está presente la belleza.
Lo que hace que la teoría de supercuerdas sea tan interesante es que el marco estándar mediante el cual conocemos la mayor parte de la física es la teoría cuántica y resulta que ella hace imposible la gravedad. La relatividad general de Einstein, que es el modelo de la gravedad, no funciona con la teoría cuántica. Sin embargo, las supercuerdas modifican la teoría cuántica estándar de tal manera que la gravedad no sólo se convierte en posible, sino que forma parte natural del sistema; es inevitable para que éste sea completo.
¿Por qué es tan importante encajar la gravedad y la teoría cuántica? Porque no podemos admitir una teoría que explique las fuerzas de la naturaleza y deje fuera a una de esas fuerzas. Así ocurre con el Modelo Estándar que deja aparte y no incluye a la fuerza gravitatoria que está ahí, en la Naturaleza.
La teoría de supercuerdas se perfila como la teoría que tiene implicaciones si tratamos con las cosas muy pequeñas, en el microcosmos; toda la teoría de partículas elementales cambia con las supercuerdas que penetra mucho más; llega mucho más allá de lo que ahora es posible.
La topología es, el estudio de aquellas propiedades de los cuerpos geométricos que permanecen inalteradas por transformaciones continuas. La topología es probablemente la más joven de las ramas clásicas de las matemáticas. En contraste con el álgebra, la geometría y la teoría de los números, cuyas genealogías datan de tiempos antiguos, la topología aparece en el siglo diecisiete, con el nombre de analysis situs, ésto es, análisis de la posición.
De manera informal, la topología se ocupa de aquellas propiedades de las figuras que permanecen invariantes, cuando dichas figuras son plegadas, dilatadas, contraídas o deformadas, de modo que no aparezcan nuevos puntos, o se hagan coincidir puntos diferentes. La transformación permitida presupone, en otras palabras, que hay una correspondencia biunívoca entre los puntos de la figura original y los de la transformada, y que la deformación hace corresponder puntos próximos a puntos próximos. Esta última propiedad se llama continuidad, y lo que se requiere es que la transformación y su inversa sean ambas continuas: así, trabajarnos con homeomorfismos.
En cuanto a nuestra comprensión del universo a gran escala (supercúmulos de galaxias, ondas gravitacionales, posibles estrellas de Quarks-Gluones… el propio Big Bang…), creo que afectará a nuestra idea presente, al esquema que hoy rige y, como la nueva teoría, el horizonte se ampliará enormemente; el cosmos se presentará ante nosotros como un todo, con un comienzo muy bien definido y un final muy bien determinado. El Tiempo y la Entropía tienen mucho que decir en todo eso y, por el camino hacia el conocimiento pleno, tendremos que comprender, de manera completa y exacta que es la Luz, la Gravedad y… ¡tántas cosas!
Para cuando eso llegue, sabremos lo que es, como se genera y dónde están situados los orígenes de esa “fuerza”, “materia”, o, “energía” que ahora no sabemos ver para explicar el movimiento de las galaxias o la expansión del espacio mismo, la posible existencia de otros universos…
emilio silvera