Podemos imaginar muchas cosas y dibujar en nuestras mentes miles de escenarios diferentes de lo que será el futuro de la Humanidad: Alcanzaremos los conocimientos para poder vivir 200 años, la tecnología robótica avanzará tanto que, nuestra especie terminará fundiéndose con ella, de tal manera que podremos llegar a ser auténticos cyborgs, medio humanos y medio robots. También es posible que podamos conseguir durar algunos millones de años más y, de esa manera, tendremos tiempo para dominar las energías que se producen en las estrellas y en los agujeros negros. Tendremos tiempo para salir de nuestro confinamiento terrestre y crear bellas ciudades en mundos lejanos, la Humanidad se esparcirá por toda la Galaxia. También es posible que, dentro de unos días, unos meses o unos años, llegue ese meteorito inesperado y acabe con todos nuestros sueños. Otra posibilidad, es la de que podamos ser invadidos por seres de otros mundos que, con mentalidades muy diferentes, no traigan buenas intenciones. También entra dentro de lo posible que…
Nuestra imaginación siempre va muy por delante de la realidad. Hacemos películas y escribimos novelas en las que, los robots son tan inteligentes que han llegado a superar a los humanos, sus creadores. Sin embargo, para que eso pudiera llegar… ¡Falta mucho tiempo! Si es que alguna vez llega. Lo más seguro será que, a medida que avancemos en el saber de la física y de la tecnología, poco a poco, nos vayamos fundiendo con aparatos inteligentes artificiales que nos harán más poderosos y nos darán posibilidades de las que ahora carecemos: Podremos ver la luz infrarroja y ultravioleta, podremos tener visión de rayos X como Superman y, no digamos en el campo de la medicina, la nano tecnología, los viajes espaciales y otros campos del saber Humano que ahora, son simples sueños que se acercan a nosotros a pasos agigantados.
Todo se controla desde el móvil en tu vivienda
Lo que parecía un sueño, las casas inteligentes, cada vez están más cerca a la realidad y, en el presente, ya podemos disponer de casas que atienden las órdenes directas de sus ocupantes apagan y encienden las luces, regulan la calefacción o iluminan las paredes con pantallas de plasma para poner una bonita vista del mar o la montaña o poder ver y oir las últimas noticias del mundos, entre otras muchas prestaciones.
Con los más avanzados dispositivos ha llevado a que los baños, las luces, las cortinas, la seguridad, la calefacción y hasta las neveras ostenten la categoría de ‘inteligentes’, y faciliten la relación con el entorno del hogar. Las casas altamente tecnológicas han venido creciendo en su popularidad, y su desarrollo se debe a que “no solo son un lujo sino que son muy funcionales.Pocas dudas nos pueden caber a estas alturas de que todos estos inventos van encaminados a que podamos vivir más cómodamente.
Aunque la aplicación médica de la nanotecnología aún se encuentra en proceso de investigación y tomará años para que los tratamientos en humanos sean probados, evaluados y autorizados, el futuro promete una revolución en la manera en que percibimos la relación entre el cuerpo humano y la tecnología robótica. Es posible que en algunas cuantas décadas el tratamiento nanotecnológico sea la norma, y que los costos se abaraten para que los tratamientos sean accesibles. Los usos potenciales de los nanobots (robots microscópicos) en el cuerpo, resultan fascinantes, pequeños artilugios llegarán hasta las células dañadas para neutralizar el mal y aniquilarlas.
Como nos cuenta el físico teórico y escritor futurista, Michio Kaku en uno de sus libros, es posible que en el futuro, un ordenador conectado a unos censores que lo unan a nuestro cuerpo, pueda entablar un diálogo directo con nosotros para emitir un diagnóstico de nuestras enfermedades. Nos preguntará por las dolencias que padecemos y los síntomas, estudiará los mensajes que los censores enviarán al centro de control y, finalmente, nos dirá lo que debemos hacer o tomar, o, si es necesario, dará el aviso para que una ambulancia nos recoja en nuestro domicilio y nos lleve al Hospital.
No es un sueño, ante el creciente encarecimiento de la atención médica y en el costo de la infraestructura hospitalaria, se están diseñando ‘formas creativas’ para utilizar la tecnología en la medicina. El director de Estrategia e Innovación en el Area de la Salud de las oficinas centrales de PWC, en Nueva York, dijo que empresas, hospitales, médicos y compañías de seguros buscan utilizar las Tecnologías de la información para impulsar la medicina personalizada y la preventiva para mejorar la atención al paciente.
En el campo de las prótesis se ha dado un paso de inimaginable calidad hace tan sólo unos pocos años. Brazos o piernas ortopédicas que pueden suplir las que hemos perdido en accidentes o enfermedades no son ya un sueño. Christian Kandlbauer perdió ambos brazos por una descarga de alto voltaje y es el primer paciente europeo en recibir una prótesis que puede dirigir con sus pensamientos.
Oscar Pistorius, El atleta sudafricano que fue el primer corredor con una doble amputación que compitió en los Juegos Olímpicos tras ser incluido en el equipo sudafricano de relevos 4×400 metros para la cita de la capital inglesa. Estamos siendo testigos de cosas que hasta hace poco parecían imposibles y, sin embargo… ¡Ahí están!
Mientras la entidad resultante todavía tenga un cerebro humano, se puede considerar como un ciborg en lugar de un androide.
Un corazón artificial equipado con tecnología espacial empezará a latir dentro de poco en el cuerpo de un ser humano, tras haber sido aprobado en Francia para comenzar las pruebas clínicas.
Teniendo en cuenta que las enfermedades coronarias causan la muerte a unos 100 millones de personas en los países desarrollados, y que la demanda de trasplantes sigue siendo muy superior al número de donaciones, el desarrollo de un corazón completamente artificial ha sido el santo grial de la medicina cardiovascular durante las últimas décadas.
Este corazón protésico, una creación del visionario cardíaco Alain Carpentier, es el resultado de 15 años de colaboración con el gigante aeroespacial Astrium, la subsidiaria espacial de EADS. Carpentier fundó la compañía Carmat, filial de EADS, en el año 2008 para completar su desarrollo con el apoyo del gobierno francés y de un grupo de inversores.
Como siempre he dicho, predecir el mundo del mañana es imposible. Existen variables e imprevistos que lo pueden cambiar todo. Sin embargo y pensando que todo siga su curso normal, podríamos guiarnos por las tendencias del presente para especular con lo que podría ser con algo de fundamento lógico, toda vez que, mirar en las bolas de cristal nunca nos podrá decir nada.
Peter Watts es un autor canadiense de ciencia ficción, biólogo marino y experto en cuestiones relacionadas con la inteligencia, la conciencia y la definición de “ser vivo”. También es autor de Ad astra, una imprescindible recopilación de relatos de fantasía científica. Le hicieron una entrevista y ésto es lo que respondió a una de las preguntas planteadas:
“FL: Pues como optimista poco realista, ¿Cuál es tu sabor favorito de singularidad? ¿Uno en el que te sentirías a gusto viviendo?
PW: Creo que tal vez en la visión de Hans Moravec del reemplazo incremental: cambia tu cerebro neurona a neurona, haz la subida tan progresiva que no notes jamás el cambio. Es la única manera que se me ocurre de evitar esa cuestión de la muerte/resurrección que tanto tememos visceralmente. (Es decir, en serio, ¿tú realmente te someterías a un escaneo cerebral destructivo que te desgarrara sinapsis a sinapsis sólo porque sabes que cierta entidad con tus recuerdos y tu sentido del “yo” terminará habitando un cuerpo robótico o una red online en algún lugar? Si tu clon te pusiera una pistola en la cabeza y te dijera “Te voy a matar ahora mismo, pero no te preocupes: tengo las mismas rutas neuronales que tú así que seguirás viviendo dentro de mí”, ¿te serviría de consuelo?).”
No acaba de convencerme la idea de que, algún día en el futuro, éstos personajes puedan ser una realidad. Se habla mucho de los avances de la robótica y de los logros que en la misma se están realizando. Sin embargo, lo cierto es que ningún robot del presente ha podido alcanzar ni un poquito de inteligencia y, no digamos de consciencia. Los robots actuales simplemente son máquinas que saben hacer “una cosa” pre-programada y, si lo sacamos de ahí… ¡se pierden! Acordaos de aquel que jugaba al Ajedrez y le ganaba al campeón. Lo cierto es que, si lo sacamos de ese menester del ajedrez… ¡no sabe hacer otra cosa!
Un robot provisto de consciencia de SER… ¡No sería bueno para nosotros! Habríamos creado una nueva especie más poderosa que nosotros mismos en muchos sentidos, y, en ese caso….
El doctor David j. Chalmers, investigador del Centro de Estudios de la Conciencia en la Universidad de Arizona. EUA, asegura que instalar el concepto más elemental de conciencia a una máquina -entendido como una guía de como debe comportarse- no es víable. El sueño de la inteligencia artificial comenzó hace más de 60 años y aún no ha pasado la prueba de Turing (creada en 1950 por Alan Turing), pionero de la computación, que consiste en que una máquina se reconozca como persona). Una de las tecnologías firmes en la ciencia ficción que parece estar muy lejos de realizarse son los robots. Desde la primera película “Terminator”, siempre hemos imaginado estas inteligentes criaturas, pero todavía no hemos encontrado la manera de hacerlas.
¡Un robot que tiene consciencia!
¿Estamos perdiendo el Norte?
Si se fabrica un robot que se comporte igual que nosotros en todo aspecto, incluyendo el pensamiento, ¿tiene conciencia o es sólo una máquina hábil?, se pregunta el profesor Barry C. Smith, director del Instituto de Filosofía. Los seres humanos están hechos de carne y hueso, una masa envuelta en un intrincado arreglo de tejido nervioso. Pertenecen al mundo físico de la materia y la causalidad, y sin embargo tienen una propiedad notable: de tanto en tanto están conscientes. La conciencia le proporciona a criaturas como nosotros una vida interior: un reino mental en el que pensamos y sentimos, percibimos imágenes y sonidos, sabores y olores, según los cuales hemos llegado a conocer el mundo que nos rodea.
¿Cómo puede la mera materia provocar experiencias conscientes?
El filósofo francés del siglo XVII René Descartes pensaba que no podía. Él suponía que además de nuestra configuración física, criaturas como nosotros teníamos una mente no material, o alma, en la que se daba el pensamiento. Bueno, el pensamiento y los sentimientos. Además, ¿Cómo podría un robot imaginar el futuro, es decir, recrear escenas mentales de algo que aún no ha existido?
Quienes estudian la consciencia de las máquinas están tratando de desarrollar sistemas autoorganizados que inicien acciones y aprendan de lo que los rodea. La esperanza es que si logramos crear o reproducir la consciencia en una máquina, podremos aprender qué es lo que hace posible que exista.
Los investigadores están lejos de hacer de ese sueño realidad y un gran obstáculo se levanta en su camino… necesitan una respuesta a la siguiente pregunta: ¿podrá una máquina basada en silicio alguna vez producir consciencia, o son sólo las criaturas hechas de carbón con nuestra configuración material las que puede producir los resplandecientes momentos tecnicolor de la experiencia consciente?
Algo dentro de mí me advierte de que el mundo futuro es posible, que como me niego a creer, sea un día realidad y esté en manos de las máquinas que, por nuestra insensata mediación, habrán alcanzado tal nivel de pensamiento y de consciencia que, nos desplazarán como especie. “Ellos” los seres del futuro, serán más listos, más fuertes, invencibles y sin enfermedades, no estarán supeditados a un tiempo limitado de vida, se podrán reciclar y reponer y alcanzarán la inmortalidad en la que nosotros, los débiles humanos, simplemente soñamos, y, sin embargo, la pudimos otorgar a éstos otros “seres” de artificio que, algún día en el futuro lejano serán los que regirán, no sólo el mundo, sino muchos mundos en la Galaxia inalcanzables para nosotros.
Los avances en I.A., amenazan el trabajo humano
Nuestro mundo, casi sin que nos demos cuenta, está cambiando a pasos agigantados y, cada día se producen maravillas a las que casi no prestamos atención. El mundo de Internet ha hecho pequeño un mundo que, hasta hace poco, tenía regiones inalcanzables en las que vivían seres aislados y olvidados. Sin embargo, ahora todo es distinto, no queda hueco sin descubrir ni pensamiento en soledad. Todos sabemos de todos y nada se nos oculta, el mundo es como un gran barrio en el que vivimos todos y, cada día que pasa, se nos hace más pequeño.
No creo que tardemos mucho en explotar asteroides que contengan valiosos minerales escasos en la Tierra. Si los recursos en la Tierra son limitados, ¿por qué no obtenerlos fuera de nuestro planeta? La idea de explotar comercialmente asteroides y otros objetos del Sistema Solar no sólo se les ha pasado por la cabeza a los empresarios del sector espacial. En la actualidad hay dos compañías estadounidenses, Planetary Resources y Deep Space Industries (DSI), trabajando activamente para convertirla en realidad en un futuro cercano.
Escenas como esta me producen pánico ¡Cuidar ancianos y de niñeras!
Hemos sido capaces de descubrir objetos y regiones situadas muy lejos en el espacio y en el tiempo. Hemos podido contemplar imágenes de galaxias que existían hace miles de millones de años, hemos construido complejas máquinas que han posibilitado el que podamos ver como un agujero negro engulle a una estrella vecina. También hemos podido estar presentes (de manera virtual), en sucesos muy lejanos que nos hablan de la muerte de estrellas masivas que dejaron el espacio regado de materiales complejos con los que se formaron mundos. Hemos podido viajar hasta lo más profundo d ela materia para poder comprobar que está hecha de pequeños objetos que formando otros más complejos forman un núcleo que está rodeado de vivarachas partículas para formar los átomos que se unen para construir moléculas y éstas, a su vez, forman la materia de la que todo está hecho.
Hemos intuido primero y comprobado despuès que, existen muchos otros mundos que, lo mismo que el nuestro, orbitan otras estrellas y, a partir de ahí, hemos podido deducir la posibilidad de que, al igual que en la Tierra, también en muchos de ellos puedan existir criaturas conscientes de Ser. Y, sabiendo todo eso, estamos inmersos en un mar de frustración, toda vez que, sospechamos que nunca podremos ir a esos otros mundos ni viajar por las inmensas regiones del espacio interestelar, donde imperan las inmensas distancias que no sabemos cómo podremos recorrer, y, en ese pensamiento estamos cuando nos asalta la idea de que, seguramente, será otra raza, otra especie que nosotros mismos podemos construir, la que logrará hacer realidad esos sueños.
Fue un astrónomo, geógrafo y matemático griego. Entre sus aportaciones cabe destacar: el primer catálogo de estrellas; la división del día en 24 horas de igual duración (hasta la invención del reloj mecánico en el siglo XIV las divisiones del día variaban con las estaciones); el descubrimiento de la precesión de los equinoccios, la distinción entre año sidéreo y año trópico, mayor precisión en la medida de la distancia Tierra-Luna y de la oblicuidad de la eclíptica, invención de la trigonometría (por lo cual es considerado el padre de la trigonometría) y de los conceptos de longitud y latitud geográficas.”
La Vía Láctea (como otras galaxias espirales) es una zona de reducción de entropía, así se deduce de varios estudios realizados y se puede argumentar que, las galaxias deben ser consideradas, por su dinámica muy especial, como sistemas vivos.
En planteamiento más prudente señala que el test de Lovelock constituye lo que se llama una condición “necesaria, pero no suficiente” para la existencia de vida. Si un sistema se encuentra en equilibrio termodinámico -si no supera el test de Lovelock-, podemos tener la seguridad de que está muerto. Si está vivo, debe producir una reducción de la entropía y superar dicho test.
Pero un sistema podría producir emtropía negativa sin estar vivo, como en el caso de contracción por efecto de la gravedad que hemos comentado a lo largo de estos trabajos. Desde este punto de vista, no hay frontera claramente definida entre los objetos vivos y la materia “inerte”. Yo, por mi parte creo que, la materia nunca es inerte y, en cada momento, simplemente ocupa la fase que le ha tocado representar en ese punto del espacio y del tiempo.
James y Sandy Lovelock ¿Qué haríamos sin ellas?
El mero hecho de que la frontera entre la vida y la ausencia de vida sea difuso, y que el lugar en el que haya que trazar la línea sea un tema de discusión, es, sin embargo, un descubrimiento importante. Contribuye a dejar claro que en relación con la vida no hay nada insólito en el contexto del modo en que funciona el Universo.
Como ya hemos visto en las explicaciones de otros trabajos expuestos aquí, es natural que los sistemas simples se organicen en redes al borde del caos y, una vez que lo hacen, es natural que la vida surja allí donde hay “una pequeña charca caliente” que sea adecuada para ello. Esto es parte de un proceso más o menos continuo, sin que haya un salto repentino en el que comience la vida. Desde ese punto de vista, lo más importante que la ciencia podría lograr sería el descubrimiento de, al menos, otro planeta en el que haya surgido la vida.
¡La vida! podría estar presente… ¡ en tantos lugares…!
Gracias a la teoría de Lovelock sobre la naturaleza de la vida estamos a punto de poder conseguirlo, y es posible que antes de los próximos 50 años se lance al espacio un telescopio capaz de encontrar planetas con sistemas como el de Gaia, nuestra Tierra.
Hay dos etapas del descubrimiento de estas otras Gaias. En primer lugar debemos ser capaces de detectar otros planetas del tamaño de la Tierra que describan órbitas alrededor de otras estrellas; luego tenemos que analizar la atmósfera de esos planetas para buscar pruebas de que los procesos de reducción de la entropía están en marcha. Los primeros planetas “extrasolares” se detectaron utilizando técnicas Doppler, que ponían de manifiesto unos cambios pequeñísimos en el movimiento de las estrellas alrededor de las cuales orbitaban dichos planetas. Este efecto, que lleva el nombre del físico del siglo XIX Christian Doppler, modifica la posición de las líneas en el espectro de la luz de un objeto, desplazándolas en una cantidad que depende de lo rápido que el objeto se mueva con respecto al observador.
Zonas habitables, los astrónomos han ignorado las enanas blancas en su búsqueda de exoplanetas. Esto puede haber sido un error, de acuerdo con un nuevo estudio de zonas habitables en enanas blancas. Aunque los agujeros negros y las estrellas de neutrones captan toda la atención como destinos finales de las estrellas, la mayor parte nunca llegarán a ese extremo. Aproximadamente el 97 por ciento de las estrellas de nuestra galaxia no son lo bastante masivas para acabar en ninguna de esas dos opciones.
En lugar de eso, los astrónomos creen que terminarán sus vidas como enanas blancas, densos y calientes trozos de materia inerte en los que las reacciones nucleares terminaron hace mucho. Estas estrellas tienen aproximadamente el tamaño de la Tierra y se mantienen en contra del colapso gravitatorio mediante el Principio de Exclusión de Pauli, el cual evita que los electrones ocupen el mismo estado al mismo tiempo. Pero, a todo esto, hay que pensar en el tirón gravitatoria que una de estas estrellas podría incidir sobre cualquier planeta.
Para hacernos una idea de lo que es este tipo de observaciones, pensemos que el tirón gravitatorio que Júpiter ejerce sobre el Sol produce en éste un cambio de velocidad de unos 12,5 metros por segundo, y lo desplaza (con respecto al centro de masa del Sisterma solar) a una distancia de 800.000 kilómetros, más de la mitad del diámetro de este astro, cuando el Sol y Júpiter orbitan en torno a sus recíprocos centros de masa. La velocidad de este movimiento es comparable a la de un corredor olímpico de 100 metros lisos y, para un observador situado fuera del Sistema solar, esto, por el efecto Doppler, produce un pequeñísimo desplazamiento de vaiven en la posición exacta de las líneas del espectro de luz emitida por el Sol.
Se trata del tipo de desplazamiento que se ha detectado en la luz a partir de los datos de algunas estrellas de nuestro entorno, y demuestra que en torno a ellas orbitan cuerpos celestes similares a Júpiter. Como ilustración diremos que la Tïerra induce en el Sol, mientras orbita alrededor de él, un cambio de velocidad de tan sólo 1 metro por segundo (la velocidad de un agradable paseo), y desplaza al Sol unicamente 450 kilómetros, con respecto al centro de masa del Sistema solar. No se dispone aún de la tecnología necesaria para medir un efecto tan pequeño a distancias tales como las de nuestras estrellas, y, pensemos que, la más cercana (Alfa Centauri), está situada a 4,3 a.l. de la Tierra, esta es la razón por la cual no se han detectado aún planetas similares a la Tierra.
Sistema Alfa Centauri
Hay otras técnicas que podrían servir para identificar planetas más pequeños. Si el planeta pasa directamente por delante de su estrella (una ocultación o un tránsito), se produce un empalidecimiento regular de la luz procedente de dicha estrella. Según las estadísticas, dado que las órbitas de los planetas extrasolares podrían estar inclinadas en cualquier dirección con respecto a nuestra posición, sólo el 1 por ciento de estos planetas estará en órbitas tales que podríamos ver ocultaciones y, en cualquier caso, cada tránsito dura sólo unas pocas horas (una vez al año para un planeta que tenga una órbita como la de la Tierra; una vez cada once años para uno cuya órbita sea como la de Júpiter.
Cuando los humanos miramos al Espacio y pensamos en sus increíbles distancias, es inevitable imaginar que sería posible encontrar algún sitio como nuestra casa, la Tierra. Y, los científicos han demostrado que existen muhas “Tierras”
El Observatorio Espacial Kepler buscaba exoplanetas similares a la Tierra
Kepler 1649c es un planeta muy parecido a la Tierra, ubicado a 300 años luz, au tamaño es casi idéntico al de nuestro planeta, es decir 1.06 veces su radio y recibe el 75% de la luz que recibe la Tierra, también habita en la zona que permite la presencia de la vida y su estrella es una enana roja, y según todos los datos, el agua líquida está allí presente, aunque es probable que sea un mundo con rotación síncrona (acoplado por marea).
El acoplamiento de marea o rotación sincrónica es la causa de que la cara de un objeto astronómico esté fijada apuntando a otro, tal como la cara visible de la Luna está siempre apuntando a la Tierra. Lo que nos dice que en una cara será siempre de día (un día de tono rojizo), y, en la otra cara la noche será como un congelador.
Claro que soñar con llegar a este planeta es… ¡perder el Tiempo! Y, por otra part4e, localizar planetas habitables no es nada fácil.
El sistema llamado tránsito para descubrir planetas cuando en la órbita oscurecen con su presencia a la estrella
Existen, sin embargo, proyectos que mediante el sistema de lanzar satélites al espacio que controlaran el movimiento (cada uno de ellos) de un gran número de estrellas con el fin de buscar esas ocultaciones. Si se estudian 100.000 estrellas, y 1.000 de ellas muestran tránsitos, la estadística resultante implicaría que prácticamente toda estrella similar al Sol está acompañada por planetas. Sin embargo, aunque todas las búsquedas de este tipo son de un valor inestimable, la técnica Doppler es la que, de momento, se puede aplicar de manera más general a la búsqueda de planetas similares a la Tierra. De cualquier manera, independientemente de los planetas de este tipo que se descubran, lo que está claro es que, de momento, carecemos de la tecnología necesaria para dicha búsqueda.
La mejor perspectiva que tenemos en el momento inmediato, es la que nos ofrece el satélite de la NASA llamado SIM (Space Interforometry Mission) que mediante la técnica de interferometría (combinar los datos de varios telescopios pequeños para imitar la capacidad de observación de un telescopio mucho mayor) ver y medir la posición de las estrellas con la exactitud necesaria para descubrir las oscilaciones que delaten la presencia de planetas como la Tierra que describen órbitas alrededor de cualquiera de las 200 estrellas más cercanas al Sol, así como por cualquiera de los planetas similares a Júpiter hasta una distancia del Sol que podría llegar hasta los 3.000 años luz.
“El satélite de la Agencia Espacial Europea pasó 22 meses cartografiando el firmamento con un nivel de detalle nunca visto. Ahora, los astrónomos han utilizado esos datos para crear un nuevo mapa del cielo que nos muestra nuestra galaxia, la Vía Láctea, con una precisión ¡increíble. (Fue lanzado al Espacio el 19 de diciembre de 2013).
Cuenta atrás para el lanzamiento del satélite GAIA.
El telescopio europeo Gaia cartografiará mil millones de estrellas …
La Agencia Espacial Europea lanzó un satélite de nombre GAIA y que tuvo como misión principal, no precisamente buscar otras Gaias, sino trazar un mapa con las posiciones de los mil millones de objetos celestes más brillantes. Dado que GAIA tendría que observar tantas estrellas, no mirará cada una muchas veces ni durante mucho tiempo, por lo que no podría detectar las oscilaciones ocasionadas por planetas similares a la Tierra; pero si podría detectar planetas del tamaño de Júpiter y, si estos planetas son tan abundantes como parece indicar los datos obtenidos hasta ahora, no es descabellado pensar que, puedan estar acompañados, como en nuestro propio Sistema solar, por otros planetas más pequeños.
Fotografía cedida del observatorio astronómico de Paranal, cerca del lugar donde se levanta el imponente cerro que en… medio del árido desierto de Atacama, allí donde la existencia parece una quimera, se levanta el imponente cerro que en la próxima década albergará el Telescopio Europeo Extremadamente Grande, E-ELT, el mayor ojo que desde la Tierra rastreará el Universo en busca de vida en otros mundos.
Dentro de los próximos 10 años, deberíamos tener localizados decenas de miles de sistemas planetarios extrasolares en las zonas de la Vía Láctea próxima a nosotros. Sin embargo, seguiría tratándose de observaciones indirectas y, para captar los espectros de algunos de esos planetas, se necesita dar un salto más en nuestra actual tecnológía que, como he dicho, resulta indificiente para realizar ciertas investigaciones que requieren y exigen mucha más precisión.
Los nuevos proyectos y las nuevas generaciones de sofisticados aparatos de alta precisión y de IA avanzada, nos traerán, en los próximos 50 años, muchas alegrías y sorpresas que ahora, ni podemos imaginar.
Cambiemos de tema:
¿Qué es una partícula virtual ? Es una fluctuación cuántica en forma de partícula elementa.
Diagrama de Feynmann. No pocas veces hemos dicho que, en una partícula virtual las relaciones que normalmente existen entre las magnitudes físicas de cualquier partícula no tienen por qué cumplirse. En particular, nos interesan dos magnitudes, que seguro que conocéis de sobras: energía y momento.
Por partícula-antipartícula que aparece de la “nada” y luego se aniquila rápidamente sin liberar energía. Las partículas virtuales pueblan la totalidad del espacio en enormes cantidades, aunque no pueden ser observadas directamente.
En estos procesos no se viola el principio de conservación de la masa y la energía siempre que las partículas virtuales aparezcan y desaparezcan lo suficientemente rápido como para que el cambio de masa o energía no pueda ser detectado. No obstante, si los miembros de una partícula virtual se alejan demasiado como para volverse a juntar, pueden convertirse en partículas reales, según ocurre en la radiación Hawking de un agujero negro; la energía requerida para hacer a las partículas reales es extraída del agujero negro.
Gran Colisionador de Hadrones LHC. A las 14:22 del día 23 de Noviembre del 2009, el detector ATLAS registro la primera colisión de protones en el LHC, seguido del detector CMS, y mas tarde los detectores ALICE y LHCb. Estas primeras colisiones solo son para probar la sincronizacion de las colisiones de haces de protones con cada uno de los detectores, lo cual resultó con éxito en cada uno de los experimentos y, marca un avance muy alentador hacia la tan esperada etapa de toma de datos donde se pueda buscar el Higgs, Super Simetria, Dimensiones Extras, y tantas otras cosas mas que surgen del intelecto humano.
Es sin duda, un momento para recordar, especialmente para aquellos que han invertido parte de su vida en un proyecto tan grande e importante como este.
Muchas han sido, aparte del coste económico, las ilusiones y noches sin dormir, de muchos científicos empeñados en este magno proyecto que, como todos esperamos, nos podría llevar hasta otra “dimensión” de la física del mundo. Ahí podrían residir muchas de las respuestas no contestadas hasta el momento.
Pero, continuémos con la virtualidad de las partículas. La vida media de una partícula virtual aumenta a medida que disminuye la masa o energía involucrada. Así pues, un electrón y un positrón pueden existir durante unos 4×10-21 s, aunque un par de fotones de radio con longitud de onda de 300.000 km pueden vivir hasta un segundo.
En realidad, lo que llamamos espacio vacío, está rebosante de partículas virtuales que bullen en esa “nada” para surgir y desaparecer continuamente en millonésimas de segundo. ¡los misterios del Universo!
En la teoría del Big Bang, fugaz periodo de tiempo entre el propio Big Bang y el llamado Tiempo de Planck, cuando el Universo tenía 10-43 segundo de edad y la temperatura era de 1034 k.
Durante este periodo, se piensa que los efectos de la Gravitación cuántica fueron dominantes. La comprensión teórica de esta fase es virtualmente inexistente.
Plasma.
El plasma en remanentes de Supernovas y en todas las estrellas
Según algunos el cuarto estado de la materia que consiste en electrones y otras partículas subatómicas sin ninguna estructura de un orden superior a la de los núcleos atómicos.
Se trata de un Gas altamente ionizado en el que el número de electrones libres es aproximadamente igual al número de iones positivos. Como dije antes, a veces descrito como el cuarto estado de la materia, las plasmas aparecen en el espacio interestelar, en las atmósferas de las estrellas (incluyendo el Sol), en tubos de descarga y en reactores nucleares experimentales.
Debido a que las partículas en un plasma están cargadas, su comportamiento difiere en algunos aspectos a un gas. Los plasmas pueden ser creados en un laboratorio calentando un gas a baja presión hasta que la energía cinética media de las partículas del gas sea comparable al potencial de ionización de los átomos o moléculas de gas. A muy altas temperaturas, del orden de 50.000 K en adelante, las colisiones entre las partículas del gas causan una ionización en cascada de este. Sin embargo, en algunos casos, como en lámparas fluorescentes, la temperatura permanece muy baja al estar las partículas del plasma continuamente colisionando con las paredes del recipiente, causando enfriamiento y recombinación. En esos casos la ionización es solo parcial y requiere un mayor aporte de energía.
En los reactores termonucleares, es posible mantener una enorme temperatura del plasma confinándolo lejos de las paredes del contenedor usando campos electromagnéticos.
El estudio de los plasmas se conoce como física de plasmas y, en el futuro, dará muy buenos beneficios utilizando en nuevas tecnologías como la nanotecnología que se nos viene encima y será el asombro del mundo.
Son muchos los mundos que pululan por las distintas galaxias del Universo, e incontables serán los que tengan vida
Pluralidad de mundos.
Hipótesis de que el Universo contiene otros planetas habitados aparte de la Tierra.
Desde tiempos inmemoriales, grandes pensadores de los siglos pasados, dejaron constancia de sus pensamientos y creencia de que, allá arriba, en los cielos, otras estrellas contenían mundos con diversidad de vida, como en el planeta Tierra. Tales ideas, han acompañado al hombre que, no en pocas oportunidades, fueron tachados de locos.
Hoy, con los conocimientos que poseemos, lo que sería una locura es precisamente pensar lo contrario. ¡que estamos solos!
La Vía Láctea es la única galaxia que no podemos fotografiar por entero. ¿Cómo podríamos salir de ella?
La Vía Láctea (una sola Galaxia de los cientos de miles de millones que pueblan el Universo), tiene más de 100.000 millones de estrellas. Miles de millones de Sistemas Solares. Cientos de miles de millones de planetas. Muchos miles y miles de estrellas como el Sol de tamaño mediano, amarillas de tipo G2V.
¿Cómo podemos pensar que solo el planeta Tierra alberga vida?
Protogalaxia.
Galaxia en proceso de formación. A pesar de la enorme técnica y sofisticación de los aparatos con que contamos para la observación del cosmos, no se ha podido encontrar ninguna a protogalaxia cercana, lo cual indica que todas o la mayoría de las galaxias se formaron hace mucho tiempo.
Los cientificos pensaban que no existía nada mas pequeño que un protón.
En 1968 se escubrieron nuevas partículas dentro del protón, las cuales fueron llamadas quarks.
Existen tres quarks dentro de cada protón, estosquarks se mantienen unidos entre sí mediante otras partículas llamadas gluones.
Protón.
Partícula masiva del Grupo o familia de los Hadrones que se clasifica como Barión. Esta hecho por dos quarks up y un quark down y es, consecuentemente una partícula masiva con 938,3 MeV, algo menos que la del neutron. Su carga es positiva y su lugar está en el núcleo de los átomos, por lo que se les llama de manera genérica con los neutrones con la denominación de nucleones.
Este diagrama esquemático de un púlsar ilustra las líneas de campo magnético en blanco, el eje de rotación en verde y los dos chorros polares de radiación en azul.
Pulsar.
Fuente de radio desde la que se recibe un tren de pulsos altamente regular. Ha sido catalogado más de 600 púlsares desde que se descubriera el primero en 1.976. Los púlsares son estrellas de neutrones en rápida rotación, con un diámetro de 20-30 km. Las estrellas se hallan altamente magnetizadas (alrededor de 108 teslas), con el eje magnético inclinado con respecto, al eje de rotación. La emisión de radio se cree que surge por la aceleración de partículas cargadas por encima de los polos magnéticos.
A medida que rota la estrella, un haz de ondas de radio barre la Tierra, siendo entonces observado el pulso, de forma similar a un faro.
“Un equipo conformado por astrónomos que trabajan con ondas de radio y otro que lo hace con rayos gamma, han logrado producir un gran avance al haber encontrado herramientas naturales de origen cósmico para realizar detecciones de las elusivas ondas gravitacionales que fueron predichas hace casi un siglo por Albert Einstein.”
Los periodos de los pulsos son típicamente de 1 s., pero varían desde los 1’56 ms (púlsares de milisegundo) hasta los cuatro con tres s. Estos periodos rotacionales van decreciendo a medida que la estrella pierde energía rotacional, aunque unos pocos púlsares jóvenes son propensos a súbitas perturbaciones conocidas como ráfagas.
Las medidas precisas de tiempos en los púlsares han revelado la existencia de púlsares binarios, y un púlsar, PSR 1257+12, se ha demostrado que está acompañado de objetos de masa planetaria. Han sido detectado objetos ópticos (destellos) procedentes de unos pocos púlsares, notablemente los púlsares del Cangrejo y Vela.
Se crean en explosiones de supernovas de estrellas supergigantes y otros a partir de enanas blancas, se piensa que puedan existir cien mil en la Vía Láctea.
“Los cuásares son los objetos más luminosos y distantes del universo, núcleos galácticos activos alimentados por agujeros negros supermasivos que devoran materia, emitiendo cantidades colosales de energía que pueden eclipsar a sus galaxias anfitrionas, revelando el universo primitivo a miles de millones de años luz de distancia. Su nombre, Quasar, viene de “Quasi-Stellar Radio Source” (Fuente de Radio Casi Estelar) por su apariencia estelar y espectros únicos. “
Objeto con un alto desplazamiento al rojo y con apariencia de estrella, aunque es probablemente el núcleo activo muy luminoso de una galaxia muy distante.
El nombre es una contracción del ingles quasi stellar, debido a su apariencia estelar. Los primeros quasars descubiertos eran intensos fuentes de radio.
Debido a las grandes distancias indicadas por el desplazamiento al rojo del núcleo debe ser hasta 100 veces más brillante que la totalidad de una galaxia normal. Además algunos quasars varían en brillo en una escala de tiempo de semanas, indicando que esta inmensa cantidad de energía se origina en un volumen de unas pocas semanas-luz de longitud. La fuente puede, por tanto, ser un disco de acreción alrededor de un agujero negro de 107 o 108 masas solares.
El primer quasar en ser identificado como tal en 1.963 fue la radiofuente 3c 273 con un desplazamiento al rojo de 0,158, siendo todavía el quasar más brillante, óptimamente hablando, observado desde la Tierra, con magnitud 13. Miles de quasar han sido descubiertos desde entonces. Algunos tienen desplazamiento al rojo tan grandes como 4,9, implicando que lo vemos tal como eran cuando el Universo tenía sólo una décima parte de la edad actual.
En esta brevísima reseña no puede dejarse constancia de todo lo que se sabe sobre cuásares, sin embargo, dejamos los rasgos más sobresalientes para que el lector obtenga un conocimiento básico de estos objetos estelares.
Para finalizar la reseña diré que, algunas galaxias aparentemente normales pueden contener remanentes de actividad cuasar en sus núcleos, y algunas galaxias Seyfert y galaxias Markarian tienen núcleos que son intrínsecamente tan brillantes como algunos cuásares.
Existen algunas evidencias de que los cuasars aparecen en los núcleos de los espirales, y es esa interacción con una galaxia vecina la que proporciona gas o estrellas al núcleo formado por un agujero negro masivo, alimentando así la emisión del cuásar. Salvo mejor parecer.
Antes, hemos comentado por alguna parte que, se trata de emisión radio de microondas proveniente de todas las direcciones (isotrópica) y que corresponde a una curva de cuerpo negro.
Estas propiedades coinciden con las predichas por la teoría del Big Bang, como habiendo sido generada por fotones liberados del Big Bang cuando el Universo tenía menos de un millón de años (Universo bebé) de antigüedad.
La teoría del Big Bang también supone la existencia de radiaciones de fondo de neutrinos y gravitatoria, aunque aun no tenemos los medios para detectarlas. Sin embargo, los indicios nos confirman que la teoría puede llevar todas las papeletas para que le toque el premio.
Últimamente se ha detectado que la radiación cósmica de fondo no está repartida por igual por todo el Universo, sino que, al contrario de lo que se podía esperar, su reparto es anisotrópico, el reparto está relacionado con la clase de materia que produjo tal radiación, su densidad. ¡Ya veremos!
De todas las maneras, ¿No es una maravilla todo el Universo? El que nosotros, estemos aquí para contarlo así lo testifica.
Un matorral y un pájaro y un pez en las olas saladas.”
Todo está hecho de la misma cosa (Quarks y Leptones). Empédocles lo intuyó
Se refería con una visión futurista e intuyendo cosas que en aquellos tiempos eran desconocidas, que todo lo material está hecho de la misma cosa, los componentes de la materia que lo conforma todo si están dispuestos en la debida proporción.
Esto nos decía Empédocles, el padre de aquellos primitivos elementos formados por Agua, tierra, aire y fuego que, mezclados en la debida proporción, formaban todas las cosas que podemos ver a nuestro alrededor. Claro que, él no podía llegar a imaginar hasta donde pudimos llegar después en la comprensión de la materia a partir del descubrimiento de las partículas “elementales” que formaban el átomo. Pero sí, con sus palabras, nos quería decir que, la materia, una veces está conformando mundos y, en otras, estrellas y galaxias.
Sí, hay cosas malas y buenas pero todas deben ser conocidas para poder, en el primer caso aprovecharlas, y en el segundo, prevenirlas.
Pero demos un salto en el tiempo y viajemos hasta los albores del siglo XX cuando se hacía cada vez más evidente que alguna clase de energía atómica era responsable de la potencia del Sol y del resto de las estrellas que más lejos, brillaban en la noche oscura. Ya en 1898, sólo dos años después del descubrimiento de la radiactividad por Becquerel, el geólogo americano Thomas Chrowder Chamberlin especulaba que los átomos eran “complejas organizaciones y centros de eneromes energías”, y que “las extraordinarias condiciones que hay en el centro del Sol pueden…liberar una parte de su energía”. Claro que, por aquel entonces, nadie sabía cual era el mecanismo y cómo podía operar, hasta que no llegamos a saber mucho más sobre los átomos y las estrellas.
Conseguimos tener los átomos en nuestras manos
El intento de lograr tal comprensión exigió una colaboración cada vez mayor entre los astrónomos y los físicos nucleares. Su trabajo llevaría, no sólo a resolver la cuestión de la energía estelar, sino también al descubrimiento de una trenza dorada en la que la evolución cósmica se entrelaza en la historia atómica y la estelar.
En 1902, miembros de la Academia de Ciencias de Francia escribieron una carta a la Academia Sueca para presentar los descubrimientos en el campo de la radiactividad realizados por Marie y Pierre Curie, así como por Henri Becquerel, para el Premio Nobel de Física. Sin embargo, debido a las actitudes sexistas que prevalecían en la época, no se ofreció ningún tipo de reconocimiento a las contribuciones de Marie.
La Clave: Fue comprender la estructura del átomo. Que el átomo tenía una estructura interna podía inferirse de varias líneas de investigación, entre ellas, el estudio de la radiactividad: para que los átomos emitiesen partículas, como se había hallado que lo hacían en los laboratorios de Becquerel y los Curie, y para que esas emisiones los transformasen de unos elementos en otros, como habían demostrado Rutherford y el químico inglés Frederick Soddy, los átomos debían ser algo más que simples unidades indivisibles, como implicaba su nombre (de la voz griega que significa “imposible de cortar”).
El átomo de Demócrito era mucho más de lo que él, en un principio intuyó que sería. Hoy sabemos que está conformado por diversaspartículas de familias diferentes: unas son bariones que en el seno del átomo llamamos necleones, otras son leptones que gitan alrededor del núcleo para darle estabilidad de cargas, y, otras, de la familia de los Quarks, construyen los bariones del núcleo y, todo ello, está, además, vigilado por otras partículas llamadas bosones intermedios de la fuerza nuclear fuerte, los Gluones que, procuran mantener confinados a los Quarks.
Pero no corramos tanto, la física atómica aún debería recorrer un largo camino para llegar a comprender la estructura que acabamos de reseñar. De los trs principales componentes del átomo -el protón, el neutrón y el electrón-, sólo el electrón había sido identificado (por J.J. Thomson, en los últimos años del siglo XIX). Nadie hablaba de energía “nuclear” pues ni siquiera se había demostrado la existencia de un núcleo atómico, y mucho menos de sus partículas constituyentes, el protón y el neutrón, que serían identificados, respectivamente, por Thomson en 1913 y James Chawick en 1932.
De importancia capital resultó conocer la existencia del núcleo y que éste, era 1/100.000 del total del átomo, es decir, casi todo el átomo estaba compuesto de espacios “vacíos” y, la materia así considerada, era una fracción infinitesimal del total atómico.
Rutherford, Hans Geiger y Ernest Marsden se encontraban entre los Estrabones y Tolomeos de la cartografía atómica, en Manchester , de 1909 a 1911, sondearon el átomo lanzando corrientes de “partículas alfa” subatómicas -núcleos de helio- contra delgadas laminillas de oro, plata, estaño y otros metales. La mayoría de partículas Alfa se escapaban a través de las laminillas, pero, para sombro de los experimentadores, algunas rebotaban hacia atrás. Rutherford pensó durante largo tiempo e intensamente en este extraño resultado; era tan sorprendente, señalaba, como si una bala rebotase sobre un pañuelo de papel. Finalmente, en una cena en su casa en 1911, anunció a unos pocos amigos que había dado con una explicación: que la mayoría de la masa de un átomo reside en un diminuto núcleo masivo. Ruthertford pudo calcular la carga y el diámetro máximo del núcleo atómico. Así se supo que los elementos pesados eran más pesados que los elementos ligeros porque los núcleos de sus átomos tienen mayor masa.
Todos sabemos ahora, la función que desarrollan los electrones en el átomo. Pero el ámbito de los electrones para poder llegar a la comprensión completa, tuvo que ser explorado, entre otros, por el físico danés Niels Bohr, quien demostró que ocupaban órbitas, o capas, discretas que rodean al núcleo. (Durante un tiempo Bohr consideró el átomo como un diminuto sistema solar, pero ese análisis, pronto demostró ser inadecuado; el átomo no está rígido por la mecánica newtoniana sino por la mecánica cuántica.)
Entre sus muchos otros éxitos, el modelo de Bohr revelaba la base física de la espectroscopia. El número de electrones de un átomo está determinado por la carga eléctrica del núcleo, la que a su vez se debe al número de protones del núcleo, que es la clave de la identidad química del átomo. Cuando un electrón cae de una órbita externa a una órbita interior emite un fotón. La longitud de onda de este fotón está determinada por las órbitas particulares entre las que el electrón efectúa la transición. E esta es la razón de que un espectro que registra las longitudes de onda de los fotones, revele los elementos químicos que forman las estrellas u otros objetos que sean estudiados por el espectroscopista. En palabras de Max Planck, el fundador de la física cuántica, el modelo de Bohr del átomo nos proporciona “la llave largamente buscada de la puerta de entrada al maravilloso mundo de la espectroscopia, que desde el descubrimiento del análisis espectral (por Fraunhoufer) había desafiado obstinadamente todos los intentos de conocerlo”.
Es curioso que, mirando en la oscura noche como brillan las estrellas del cielo, nos atrae su titilar engañoso (es la atmósfera terrestre la que hace que lo parezca) y su brillo, Sin embargo, pocos llegan a pensar en lo que verdaderamente está allí ocurriendo. Las transformaciones de fase por fusión no cesan. Esta transformación de materia en energía es consecuencia de la equivalencia materia-energía, enunciada por Albert Einstein en su famosa fórmula E=mc2; donde E es la energía resultante, m es la masa transformada en energía, y c es la velocidad de la luz (300 000 kilómetros por segundo). La cantidad de energía que se libera en los procesos de fusión termonuclear es fabulosa. Un gramo de materia transformado íntegramente en energía bastaría para satisfacer los requerimientos energéticos de una familia mediana durante miles de años.
Es un gran triunfo del ingenio humano el saber de qué, están conformadas las estrellas, de qué materiales están hechas. Recuerdo aquí a aquel Presidente de la Real Society de Londres que, en una reunión multitudinaria, llegó a decir: “Una cosa está clara, nunca podremos saber de qué están hechas las estrellas”. El hombre se vistió de gloria con la, desde entonces, famosa frase. Creo que nada, con tiempo por delante, será imposible para nosotros.
Pero, por maravilloso que nos pueda parecer el haber llegado a la comprensión de que los espectros revelan saltos y tumbos de los electrones en sus órbitas de Bohr, aún nadie podía hallar en los espectros de las estrellas las claves significativas sobre lo que las hace brillar. En ausencia de una teoría convincente, se abandonó este campo a los taxonomistas, a los que seguían obstinadamente registrando y catalogando espectros de estrellas, aunque no sabían hacia donde los conduciría esto.
Henrietta Leavitt
En el Laboratorio de la Universidad de Harvard, uno de los principales centros de la monótona pero prometedora tarea de la taxonomía estelar, las placas fotográficas que mostraban los colores y espectros de decenas de miles de estrellas se apilaban delante de “calculadoras”, mujeres solteras en su mayoría y, de entre ellas, Henrietta Leavitt, la investigadora pionera de las estrellas variables Cefeidas que tan útiles serían a Shapley y Hubble.
Imagen de Sirio A, la estrella más brillante del cielo tomada por el Telescopio Hubble (Créd. NASA). Sirio es la quinta estrella más cercana y tiene una edad de 300, millones de años. Es una estrella blanca de la secuencia principal de tipo espectral A1V con temperatura superficial de 10 000 K y situada a 8,6 años luz de la Tierra. Es una estrella binaria y, de ella, podríamos contar muchas historias. La estrella fue importante en las vidas de Civilizaciones pasadas como, por ejemplo, la egipcia.
Fue Cannon quien, en 1915, empezó a discernir la forma en una totalidad de estrellas en las que estaba presente la diversidad, cuando descubrió que en una mayoría, las estrellas, pertenecían a una de media docena de clases espectrales distintas. Su sistema de clasificación, ahora generalizado en la astronomía estelar, ordena los espectros por el color, desde las estrellas O blanco-azuladas, pasando por las estrellas G amarillas como el Sol, hasta estrellas rojas M. Era un rasgo de simplicidad denotado en la asombrosa variedad de las estrellas.
Pronto se descubrió un orden más profundo, en 1911, cuando el ingeniero y astrónomo autodidacta danés EjnarHertzsprung analizó los datos de Cannon y Maury de las estrellas de dos cúmulos, las Híades y las Pléyades. Los cúmulos como estos son genuinos conjuntos de estrellas y no meras alineaciones al azar; hasta un observador inexperimentado salta entusiasmado cuando recorre con el telescopio las Pléyades, con sus estrellas color azul verdoso enredadas en telarañas de polvo de diamante, o las Híades, cuyas estrellas varían en color desde el blanco mate hasta un amarillo apagado.
Hertzsprung utilizó los cúmulos como muestras de laboratorio con las que podía buscar una relación entre los colores y los brillos intrínsecos de las estrellas. Halló tal relación: la mayoría de las estrellas de ambos cúmulos caían en dos líneas suavemente curvadas. Esto, en forma de gráfico, fue el primer esbozo de un árbol de estrellas que desde entonces ha sido llamado diagrama Hertzsprung-Russell.
El progreso en física, mientras tanto, estaba bloqueado por una barrera aparentemente insuperable. Esto era literal: el agente responsable era conocido como barrera de Coulomb, y por un tiempo frustró los esfuerzos de las físicos teóricos para comprender como la fusión nuclear podía producir energía en las estrellas.
La línea de razonamiento que conducía a esa barrera era impecable. Las estrellas están formadas en su mayor parte por hidrógeno. (Esto se hace evidente en el estudio de sus espectros.) El núcleo del átomo de Hidrógeno consiste en un solo protón, y el protón contiene casi toda la masa del átomo. (Sabemos esto por los experimentos de Rutherford). Por tanto, el protón también debe contener casi toda la energía latente del átomo de hidrógeno. (Recordemos que la masa es igual a la energía: E = mc2.) En el calor de una estrella, los protones son esparcidos a altas velocidades -el calor intenso significa que las partículas involucradas se mueven a enormes velocidades- y, como hay muchos protones que se apiñan en el núcleo denso de una estrella, deben tener muchísimos choques. En resumen, la energía del Sol y las estrellas, puede suponerse razonablemente, implica las interacciones de los protones. Esta era la base de la conjetura de Eddingtong de que la fuente de la energía estelar “difícilmente puede ser otra que la energía subatómica, la cual, como se sabe, existe en abundancia en toda materia”.
Plasma en ebullición en la superficie del Sol
Hasta el momento todo lo que hemos repasado está bien pero, ¿Qué pasa con la Barrera de Coulomb? Los protones están cargados positivamente; las partículasd de igual carga se repelen entre sí; y este obstáculo parecía demasiado grande para ser superado, aun a la elevada velocidad a la que los protones se agitaban en el intenso calor del interior de las estrellas. De acuerdo con la física clásica, muy raras veces podían dos protones de una estrella ir con la rapidez suficiente para romper las murallas de sus campos de fuerza electromagnéticos y fundirse en un solo núcleo. Los cálculos decían que la tasa de colisión de protones no podía bastar para mantener las reacciones de fusión. Sin embargo, allí estaba el Sol, con el rostro radiante, riéndose de las ecuaciones que afirmaban que no podía brillar.
Afortunadamente, en el ámbito nuclear, las reglas de la Naturaleza no se rigen por las de la mecánica de la física clásica, que tienen validez para grandes objetos, como guijarros y planetas, pero pierden esa validez en el reino de lo muy pequeño. En la escala nuclear, rigen las reglas de la indeterminación cuántica. La mecánica cuántica demuestra que el futuro del protón sólo puede predecirse en términos de probabilidades: la mayoría de las veces el protón rebotará en la Barrera de Coulomb, pero de cuando en cuando, la atravesará. Este es el “efecto túnel cuántico”; que permite brillar a las estrellas.
George Gamow, ansioso de explotar las conexiones entre la astronomía y la nueva física exótica a la que era adepto, aplicó las probabilidades cuánticas a la cuestión de la fusión nuclear en las estrellas y descubrió que los protones pueden superar la Barrera de Coulomb. Esta historia es mucho más extensa y nos llevaría hasta los trabajos de Hans Bethe, Edward Teller y otros, así como, al famoso Fred Hoyle y su efecto Triple Alfa y otras maravillas que, nos cuentan la historia que existe desde los átomos a las estrellas del cielo.
¿Qué importancia podemos tener en el contexto de todo el Universo?
La importancia que pueda tener todo el Sistema solar, no ya en la propia Galaxia, sino en el escenario universal… ¡Es ínfimo!
Somos mucho menos que una mota de polvo que podemos visualizar en el reflejo del Sol penetrando entre las ramas de los árboles en un inmenso bosque. Podríamos decir que vivimos en un micro-mundo del que somos la vida “inteligente” que predomina sobre todas las demás existentes en este mundo. Estamos atados por creencias que nos transmite desde la más tierna edad. Sin embargo, todo eso, resulta ser engañoso en ese contexto mayor de la propia Galaxia y no digamos del Universo.
El ser humano es insignificante en términos cósmicos, la humanidad es un soplo efímero, y no quedará nada de ella cuando se extinga, y aunque haya alguien ahí fuera, a nadie le importará.
El universo es inmenso, y nosotros somos diminutos. Al contemplar la inmensidad del universo que habitamos, nuestra anodina ubicación y nuestra inevitable perdición futura cuando el sol implosione, o más tarde, en la muerte térmica del universo, la vida humana puede parecer completamente insignificante .
Mientras dormimos en la zona de confort, la posibilidad de destruir a la humanidad todavía existe y es real, dicen los científicos.
Sí, la humanidad se extinguirá, como todas las especies, pero las estimaciones varían enormemente: algunos científicos hablan de un colapso en siglos por baja diversidad genética y factores como el cambio climático y la baja natalidad, mientras que otros señalan eventos geológicos a millones de años, como la formación de supercontinentes que harán la Tierra inhabitable, con predicciones de Scientific American a 400.000 años para el Homo Sapiens, y otros a 250 millones de años para mamíferos en general. La extinción es inevitable, pero las causas y el cuándo son objeto de debate, incluyendo riesgos como asteroides, pandemias o guerras nucleares, aunque la falta de adaptación genética es un factor clave a corto plazo según algunos.
La extinción de la Humanidad es irreversible por el inexorable paso del Tiempo y los cambios de todo tipo que se avecinan
El Homo sapiens restrictus está en retirada, mientras que asoman el sapiens prothesis, el sapiens edit y los humanoides (VentureBeat).
“Homo sapiens edit. Construidos por edición genética con métodos como el CRISPR 9. “Su origen y confección dependen exclusivamente de la biotecnología”. Parten del ADN del Homo sapiens restrictus pero se alejan de la selección natural.
Humanoides. Serían “híbridos orgánico-mecánicos” con capacidades funcionales extraordinarias, “construidos utilizando una combinación de mecánica, computación y electrónica”. El porvenir: los Homo ex novo.
En el futuro que proyecta el arqueólogo la especie humana podría dejar de serlo “para transformarse en un nuevo constructor universal y universalizador”. Al mismo tiempo se verán otras adaptaciones a circunstancias específicas, “como la vida en otros planetas, tal y como ocurrió con los humanos estrictos cuando nos expandimos por las diferentes latitudes terrestres y comenzamos a especializarnos para adaptarnos a las nuevas condiciones de vida marcadas por el clima y la alimentación”.”
En la paradoja de Fermi se combinan la enunciación de un deseo y su insuficiencia empírica. A la gran probabilidad de que existan otras civilizaciones inteligentes en el universo observable se une la ausencia de testimonio de dichas civilizaciones.
El programa SETI (Búsqueda de Inteligencia Extraterrestre), Es un proyecto de investigación científica que utiliza grandes y sofisticados telescopios y otros medios de alta tecnología en la búsqueda de señales de seres inteligentes en otros mundos, otras Civilizaciones Inteligentes extraterrestres en el Espacio Interestelar.
¿Qué ha pasado si durante años y miles de millones gastados, no han encontrado nada?
Bueno, lo primero que tenemos que tener en cuenta es que el Universo es inconmensurablemente grande, tanto que su diámetro alcanza los 93.000..oo0.ooo de años luz, una extensión inalcanzable para nosotros. Y, si miramos los datos de SETI, de las regiones del espacio investigadas, veremos que sería en comparación con todo el Universo, como la difer43encia entre una piscina olímpica y el Océano Pacífico.
Así las cosas, esa señal inteligente que con ansia esperamos… ¡Tendrá que esperar!
Para “ellos, los extraterrestres, las dificultades son las mismas que lo son para nosotros. Es tanta la distancia entre estrellas que, estamos perdidos en un Espacio del que hablamos pero de cuya realidad no hemos podido tener una visión real en nuestras Mentes que, en el contexto real de un Universo (para nosotros) infinito, queda con la carencia del intelecto necesario que nos llevara a comprender toda la inmensidad en la que estamos inmersos, a la que pertenecemos pero en la que… ¡’Somos muy poca cosa! Como anteriormente decía, la Humanidad solo es un soplo efímero en el Cosmos.
Para nosotros un mundo, en el contexto mayor del Universo… ¡casi nada!
La inmensidad del cosmos y la pequeñez de nuestro planeta, comparando la Tierra con un grano de arena en la playa, fue una metáfora popularizada por astrónomos como Carl Sagan para ilustrar que hay más estrellas en el universo que granos de arena en todas las playas de la Tierra, enfatizando lo pequeño que es nuestro hogar comparado con la Vía Láctea y el universo en general.
Nos podríamos levar todo el tiempo sacando conclusiones filosóficas de nuestro papel e importancia en el Universo, y, la propia osadía de compararnos con el… Nos dice que somos menos de lo que creemos que podemos ser.
Hemos llegado, hemos evolucionado, hemos buscados las respuestas a lo mucho que no sabemos, y, nuestra curiosidad nos lleva a seguir planteando preguntas que nadie ha sabido contestar, y, mientras todo eso ha estado sucediendo y a medida que podíamos conquistar nuevos saberes y respuestas a las preguntas planteadas… ¡Nos llegamos a creer que sabíamos! ¡Qué éramos muy importantes! ¡Que nuestra especie era la elegida!
¿Cómo hemos podido ser tan simples?
Somos lo que somos y no más.
Tenemos las posibilidades que tenemos y que no hemos querido aceptar.
Todo en nuestro Universo está supeditado a un Principio: Nada es Eterno, con el paso del tiempo, todo muere, y, la Humanidad no será una excepción.
Ya lo decía aquel gran pensador:
“Con el paso de los Eones, hasta la muerte morirá”.
Nuestra importancia, amigos míos, se queda restringida al reducido ámbito familiar, al de los seres queridos, y, como siempre digo:
Cuando nos vayamos de este mundo, ninguna estrella del cielo dejará de brillar.
Si has repasado todo el trabajo, te recomiendo que no te frustres, contra esa realidad, de nada vale revelarse. Sin embargo, soy de los que piensan que es mejor seguir luchando contra las adversidades, empleando el sentido común, y, si tratamos de huir un día a las estrellas… ¡Que la idea salvar a nuestra especie hasta donde nos sea posible!
Sería una lástima que todo se perdiera después de tanto dolor y sufrimiento para alcanzarlo.
Se nos ha contado que el Ordenador Cuántico resolverá problemas complejos que, los ordenadores normales tardarían cientos o miles de años en resolver. ¿Es cierto que un Ordenador Cuántico tiene miles o millones de Chips y Qubits?
“Si, es cierto que los ordenadores cuánticos pretenden tener miles e incluso millones de de qubits (bits cuánticos) para resolver problemas complejos pero el desafío actual no es solo el número, sino la calidad (estabilidad y corrección de errores) de estos qubits, con avances recientes de empresas como Microsoft apuntando a un millón de qubits topológicos, mucho más estables que los actuales. Los sistemas actuales tienen cientos o pocos miles de qubits físicos, pero se necesitan más qubits para crear qubits lógicos y tolerantes a errores, lo que requiere una arquitectura escalable como la que busca Microsoft con sus Qubits Topológicos. “
La computación cuántica del mañana podría romper la seguridad de hoy. ¿No piensan en ello los que tratan de traernos estos “ingenios cuánticos?
Con motivo de Kaspersky HORIZONS, la conferencia de Kaspersky sobre el futuro de la ciberseguridad en Europa, celebrada en Madrid del 30 de junio al 2 de julio de 2025, la compañía aborda uno de los desafíos tecnológicos más debatidos de la próxima década: el auge de la computación cuántica y su posible impacto en la seguridad digital. En este sentido, Kaspersky ha identificado las tres principales amenazas cuánticas que requieren una respuesta urgente por parte de la comunidad de ciberseguridad.
A medida que los ordenadores tradicionales se aproximan a sus límites físicos, su capacidad de mejora se ralentiza, lo que frena los avances en áreas que dependen de cálculos complejos. Al mismo tiempo, los ordenadores cuánticos ofrecen el potencial de resolver determinados problemas mucho más rápido que los sistemas clásicos, aunque por ahora su uso práctico se limita a campos experimentales y muy especializados.
Sin embargo, los expertos estiman que en la próxima década podrían desarrollarse ordenadores cuánticos totalmente tolerantes a fallos lo que abriría la puerta a grandes avances, pero también a una nueva era de amenazas en materia de ciberseguridad. En línea con esta preocupación, el informe “Global Future of Cyber Survey 2024” de Deloitte señala que el 83% de las organizaciones ya están evaluando o implementando medidas para hacer frente a los riesgos asociados a la computación cuántica, lo que refleja una creciente concienciación y estrategias proactivas en el ámbito privado.
A pesar de las ventajas computacionales que ofrece, la capacidad potencial de los ordenadores cuánticos para romper los métodos de cifrado actualmente en uso plantea serias amenazas para la seguridad digital. Aunque es poco probable que los delincuentes comunes tengan acceso a esta tecnología tan avanzada y costosa, el riesgo es muy real en el caso de grupos de amenazas persistentes avanzadas (APT) y actores estatales.
“Aunque el hardware cuántico aún no ofrece ventajas directas en todos los casos de uso, su evolución es imparable. Adoptar marcos híbridos desde ahora permite a las organizaciones explorar, probar, monitorizar y validar soluciones preparadas para el entorno cuántico, obteniendo experiencia práctica mientras la tecnología madura. Las herramientas actuales ya aportan valor en ámbitos como la trazabilidad, la simulación y la toma de decisiones complejas. Por ello, la computación cuántica debe formar parte de la hoja de ruta de empresas e instituciones de todos los sectores. Estar preparados no es opcional: está en juego la competitividad, el liderazgo en el mercado e incluso la seguridad digital de quienes se queden atrás”, afirma Pilar Troncoso, directora de relaciones de Qcentroid, empresa que ayuda a las organizaciones a preparar su transición hacia la computación cuántica con herramientas prácticas y estrategias de adopción temprana.
Los tres principales riesgos
Los ordenadores cuánticos podrían utilizarse para vulnerar los métodos de cifrado tradicionales que hoy protegen los datos en infinidad de sistemas digitales, constituyendo así una amenaza directa para las infraestructuras de ciberseguridad a escala global. Los posibles ataques incluyen la interceptación y descifrado de comunicaciones diplomáticas, militares y financieras confidenciales, así como la descodificación en tiempo real de negociaciones privadas, un proceso que los sistemas cuánticos podrían llevar a cabo mucho más rápidamente que los ordenadores clásicos, convirtiendo conversaciones seguras en información pública.
1. Almacenar ahora, descifrar después: la principal amenaza de los próximos años
Los ciberdelincuentes ya están recopilando datos cifrados con la intención de descifrarlos en el futuro, a medida que avance la computación cuántica. Esta táctica de “almacenar ahora, descifrar después” podría exponer información sensible años después de haber sido transmitida, incluidos intercambios diplomáticos, transacciones financieras y comunicaciones privadas.
Tal como señala una declaración conjunta de 18 Estados miembros de la UE: “Esta es una amenaza cuando la confidencialidad de los datos debe mantenerse durante largos periodos de tiempo (por ejemplo, datos personales sensibles o secretos comerciales). […] Instamos a las administraciones públicas, los proveedores de infraestructuras críticas, los proveedores de TI y a toda la industria a priorizar la transición hacia la criptografía post-cuántica. […] Las organizaciones y los gobiernos deben comenzar esta transición de inmediato”.
Te imaginas un libro de actas digital que todos pueden consultar, pero nadie puede manipular? Así funciona el Blockchain.
2. Sabotaje en blockchain y criptomonedas
Las redes blockchain tampoco son inmunes a las amenazas cuánticas. El algoritmo de firma digital de curva elíptica (ECDSA) de Bitcoin, que se basa en la criptografía de curvas elípticas (ECC), resulta especialmente vulnerable.
Los riesgos potenciales incluyen la falsificación de firmas digitales, lo que pondría en peligro Bitcoin, Ethereum y otras criptomonedas, ataques al ECDSA que protege los monederos de criptomonedas y la manipulación del historial de transacciones en blockchain, comprometiendo así la confianza y la integridad del sistema.
3. Ransomware resistente a la cuántica: un nuevo frente
En el futuro, es probable que los desarrolladores y operadores de ransomware avanzado comiencen a utilizar criptografía post-cuántica para proteger sus propios programas maliciosos. Este ransomware “resistente a la cuántica” estaría diseñado para resistir el descifrado tanto por ordenadores clásicos como cuánticos, dificultando enormemente la recuperación de los datos sin pagar el rescate.
Por ahora, la computación cuántica no permite descifrar los archivos cifrados por el ransomware. La protección de los datos y su recuperación siguen dependiendo de las soluciones de seguridad tradicionales y de la colaboración entre agencias de seguridad, investigadores en computación cuántica y organizaciones internacionales.
Construir defensas preparadas para el entorno cuántico. Es decir, que al mismo tiempo que perseguimos tener el Ordenador cuántico, del que sabemos todo su poder, ¿estamos buscando las defensas contra dicho poder?
Los ordenadores cuánticos aún no representan una amenaza directa para la ciberseguridad, pero cuando lo sean, podría ser demasiado tarde para reaccionar. La transición hacia la criptografía post-cuántica llevará años, por lo que es fundamental comenzar a prepararse desde ya.
La comunidad de ciberseguridad, las empresas tecnológicas y los gobiernos deben coordinarse para afrontar estos riesgos. Los responsables políticos deben desarrollar estrategias claras para migrar hacia algoritmos post-cuánticos. Empresas e investigadores han de empezar a implementar los nuevos estándares de seguridad cuanto antes.
“El mayor riesgo no está tanto en el futuro como en el presente: los datos cifrados con valor a largo plazo ya están expuestos a ser descifrados en el futuro. Las decisiones de seguridad que tomemos hoy determinarán la resiliencia de nuestra infraestructura digital durante las próximas décadas. Gobiernos, empresas y proveedores de infraestructuras deben empezar a adaptarse ya o se enfrentarán a vulnerabilidades sistémicas que no podrán corregirse a posteriori”, concluye Sergey Lozhkin, responsable del Global Research & Analysis Team de Kaspersky para META y APAC.
Sin una coordinación internacional y una modernización a tiempo de las infraestructuras, los riesgos para los datos financieros, gubernamentales y corporativos podrían alcanzar niveles crítico.
Ya se está trabajando y realizando pruebas encaminadas a juntar (el casamiento supremo de la Inteligencia Artificial con la Cuántica). ¿Os podéis imaginar lo que sería un enorme cerebro artificial que lo controlara todo que estuviera conformado por la Cuántica y la Inteligencia Artificial?
Si eso llegara ¿Qué sería de la Humanidad dirigida por ese Ente Artificial?
Las potentes Compañías del mundo, los gobiernos, y potentes Entes económicos, están realizando un enorme esfuerzo al invertir miles de millones de dólares en una carrera por conseguir la primacía de los Ordenadores Cuánticos y también, en la Inteligencia Artificial.
No dejamos de oír noticias sobre todo esto, nos asombramos de las cosas que nos cuentan y de lo que dichos ingenios pueden alcanzar, pero muy pocos se preocupan de los peligros que conllevan estos avances si no se les pone límites para preservar los derechos humanos.
Avance hacia los robots cuánticos. Foto: Olmo Calvo
“La computación cuántica permitirá crear potentes ordenadores, pero también robots mucho más inteligentes y creativos que los clásicos. Así lo asegura un estudio de investigadores de la Universidad Complutense de Madrid (UCM) y de Austria, que han confirmado como las herramientas cuánticas ayudan a los robots a aprender y responder mucho más rápido a los estímulos de su entorno.”
Las herramientas que proporcionan la I.A. y la Cuántica se pueden aplicar a los robots, los autómatas del futuro que estarán construidos con cerebros positrónicos de enorme poder y sus estructuras de aleaciones metálicas casi indestructibles, harán de ellos unidades muy peligrosas sino llevan inserto los límites adecuados para preservar a sus(¿estúpidos?) creadores.
El camino que hemos emprendido es el de no regreso, según todos los indicios, nos hace ser conscientes de que, en la Mente de los más poderosos, está grabada la orden de no parar hasta conseguir el Ordenador Cuántico, el supremo nivel de la Inteligencia Artificial, y ya de paso, el construir Robots que tengan consciencia de Ser.
¿será que la Human9idad está perdiendo el Norte? A veces esa es la sensación que todo esto me produce.
Añadidos y puntualizaciones propias a Fuentes Diversas.