CráterChicxulub. Fecha: Hace 65 millones de años aprox. …
Cráter Popigai. Fecha: Hace 35,7 millones de años aprox. …
Cráter Chesapeake Bay. Fecha: Hace 35 millones de años aprox.
Lo que arriba podemos contemplar es sólo las marcas dejadas por la caída de un gran meteorito en el pasado de la Tierra, es decir, lo que queda del Cráter que se formó.
Se habla y no paramos de la posible caída de uno de estos grandes pedruscos que, en realidad, son mucho más que eso, ya que, algunos, pueden tener diámetros de hasta 500 Km., y, con esas medidas, la devastación de la Tierra estaría asegurada. Acordaos de los Dinosaurios, cuando en la Península del Yucatán en México cayó uno de estos viajeros del Espacio.
La caída del meteorito parece que fue el detonante para la extinción de estos enormes ejemplares
La edad de las rocas y los análisis isotópicos mostraron que esta estructura data de finales del período Cretácico, hace aproximadamente 65 millones de años. La principal evidencia es una delgada capa de iridio encontrada en sedimentos del límite K/T en varios afloramientos de todo el mundo. El iridio es un metal escaso en la Tierra, pero abundante en los meteoritos y asteroides.
Recientemente se ha reafirmado la hipótesis de que el impacto es el responsable de la extinción masiva del Cretácico-Terciario. En efecto, entre las consecuencias del choque destaca la extinción de diversas especies, como lo sugiere el limite K/T aunque algunos críticos argumentan que el impacto no fue el único motivo y otros debaten si en realidad fue un único impacto o si en la colisión de Chicxulub participaron una serie de bólidos que podrían haber impactado contra la Tierra aproximadamente al mismo tiempo.
Se estima que el tamaño del bólido era de unos 10 km de diámetro y se calcula que el impacto pudo haber liberado unos 400 zetta-julios (4 × 1023 julios) de energía, equivalentes a 100 teratones de TNT (1014toneladas). Se estima que el impacto de Chicxulub fue dos millones de veces más potente que la Bomba del Zar, el dispositivo explosivo más potente creado por el hombre jamás detonado, con una potencia de 50 megatones. Incluso la mayor erupción volcánica explosiva que se conoce —la que creó la Caldera de la Garita en Colorado, Estados Unidos—, liberó aproximadamente 10 zetta-julios, lo que es significativamente menos potente que el impacto de Chicxulub
Independientemente de lo peligroso que hubiera sido para los humanos convivir en el mismo Tiempo de estos magníficos ejemplares, no podemos negar la belleza salvaje que los Dinosaurios, en todas sus especies poseían.
Fue una suerte para nosotros el que cayera aquel meteorito de 10 Km de diámetro sobre nuestro planeta, ya que, hizo posible que otros animales (sobre todo pequeños mamíferos) evolucionaran para salir de un callejón sin salida, para que 65 millones de años más tarde pudieran aparecer nuestros ancestros. Con ellos aquí, nuestras posibilidades de sobrevivir en la Tierra hubieran sido mínimas. Así que, cuando aparecimos 65 millones de años más tarde, ya se habían extinguido gracias al pedrusco asesino.
Un astrónomo ruso detecta un nuevo asteroide que podría ser una amenaza para la Tierra. Debido a su tamaño y a su proximidad respecto a la Tierra, debería considerarse potencialmente peligroso. El asteroide LK24 fue descubierto por el astrónomo ruso Leonid Elenin, investigador del Instituto Keldysh de Matemática Aplicada, el 14 de junio, informa TASS. “Su tamaño es de unos 160 metros, y se acercará a la Tierra el 26 de junio a una distancia de 4,7 millones de kilómetros”, según el científico.
La trayectoria de los asteroides cambia según la influencia de los planetas por los que atraviesan de forma cercana. El asteroide LK24 se mueve en una órbita alargada, acercándose primero al Sol, para después alcanzar la órbita de Júpiter. No sabemos si en acercamientos posteriores el asteroide estará más cerca o más lejos de la Tierra”, aseguró el astrónomo.
LO cierto es que, el gran planeta Júpiter atrae hacia sí, con su fuerza de Gravedad, muchos posibles indeseados visitantes de la Tierra y nos sirve de escudo salvador. Claro que no siempre será de esa manera.
Se acerca a una velocidad escalofriante y tiene un diámetro de 27 Km. ¿Cómo lo paramos?
Hasta el momento hemos tenido mucha suerte de tener ahí a Júpiter como escudo salvador que, con la inmensa fuerza de Gravedad que genera, atrae a los posibles visitantes y evita que la Tierra sufra los impactos que podrían acabar con la Humanidad entera. Claro que, no siempre vamos a tener tanta suerte y, el día que nos llegue ese meteorito… ¡Que llegará! Si no estamos preparados… ¿Lo que pase será responsabilidad de todos?
Como se puede negar la ESA a participar en un Proyecto encaminado a destruir a estos posibles visitantes mientras se gastan ingentes cantidades en otras misiones de menos riesgo para la Humanidad?
Estamos tan panchos, tranquilos y ajenos a ese posible impacto que tiene que llegar. La excusa es que puede tardar el suceso en producirse cientos o miles de años. Sí, es cierto pero, también podría producirse el indeseado suceso en semanas, meses o años y, entonces, ¿Qué tiempo tendríamos para evitar la debacle?
Siempre hemos oído decir: “Es mejor prevenir que curar”. Mi padre me decía: “Niño, más vale un por si acaso que un yo creí”. y, el hombre, llevaba toda la razón. Esperemos que los responsables de estos temas también se den cuenta de ello. Es mucho lo que nos jugamos.
De hecho la NASA tiene algún proyecto en marcha para vigilar la llegada de alguno de estos indeseados visitantes. Sin embargo, algunos se presentan sin avisar con el tiempo suficiente.
¿Por qué no utilizan la I.A. para prevenir un escenario como este?
¿Estamos Seguros? ¡De ninguna manera!
En el pasado la caída de meteoritos era frecuente y todos sabemos que algún día nos tocará a nosotros ¿Lo estamos previniendo? Lo mismo que se han gastado cientos de miles de millones en construir ingenios como el LHC y el James Webb ¿Por qué no lo hacen para prevenir este suceso que llegará?
Es “nuestra” Galaxia y, sin embargo, no la podemos contemplar en su totalidad como podemos “ver” otras por medio de nuestros telescopios. Es la paradoja, podemos ver como son muchas galaxias más o menos cercanas y, sin embargo, la nuestra no podemos. El recorrido que tendríamos que hacer para captar su imagen desde fuera es enorme y está fuera de nuestro alcance.
No podemos ver toda la Vía Láctea completa debido a que estamos dentro de ella, y, como tiene un diámetro de 100.000 años luz (para nosotros imposible de recorrer para poder salir y hacerle una fotografía), y, además toda la galaxia está bloqueada de gas y polvo y miles de millones de estrellas que la ocultan a s vista que tampoco alcanza tan lejos. A diferencia de galaxias lejanas como Andrómeda, que se ven como un todo desde una perspectiva externa, la nuestra es una estructura plana en la que “vivimos”, y la luz de ciertas partes no puede atravesar el disco de la galaxia.
Bloqueo por gas y polvo
Filtro natural: La Vía Láctea contiene grandes nubes de gas y polvo interestelar que bloquean la luz de las estrellas que se encuentran más allá de ellas.
El plano galáctico: Como estamos en el disco plano de la galaxia, estas nubes de materia actúan como un filtro, ocultando el centro y el resto de la galaxia de nuestra vista.
Una vista desde el interior: Imagina que estás dentro de un bosque denso; no puedes ver el bosque en su totalidad, sino solo el camino que tienes delante y los árboles cercanos.
La Vía Láctea como un todo: Para poder ver la Vía Láctea completa como un único objeto, necesitaríamos salir de ella y alejarnos a una distancia considerable, algo que actualmente es imposible.
¿Por qué sí vemos otras galaxias lejanas?
Perspectiva exterior: Vemos otras galaxias como Andrómeda porque estamos fuera de su plano galáctico.
Luz de todo su conjunto: Desde nuestra posición, podemos observar el conjunto de sus estrellas, gas y polvo como un solo objeto visible, aunque muchas de ellas sean demasiado tenues para verlas individualmente a simple vista.
La Vía Láctea se ve de noche como una banda de luz blanca y borrosa que atraviesa el cielo. Para verla mejor, se necesita un cielo oscuro y sin luna, lejos de la contaminación lumínica de las ciudades, idealmente entre las 22:00 y las 4:00 de la madrugada. La mejor época para observarla varía según el hemisferio: de marzo a octubre en el hemisferio norte y de febrero a octubre en el hemisferio sur, con el centro galáctico más visible durante los meses de verano para cada hemisferio.
En esta imagen vemos las partes centrales de nuestra galaxia, la Vía Láctea, tal y como se observan en el infrarrojo cercano con el instrumento NACO del Very Large Telescope de ESO. La posición del centro, que alberga el agujero negro (invisible) conocido como Sgr A *, con una masa de 4 millones de veces la del Sol, está marcada con una cruz naranja.
La estrella S2 pasó muy cerca del agujero negro en el 2018, y fue utilizada como singular sondeo de la fuerte gravedad y como prueba de la teoría de la relatividad general de Einstein.
Crédito:
ESO/MPE/S. Gillessen et al.
El centro de nuestra galaxia, la Vía Láctea, se encuentra en la dirección de la constelación de Sagitario, a unos 27,000 años luz de la Tierra. Está dominado por un agujero negro supermasivo llamado Sagitario A* (Sgr A*), que tiene una masa de aproximadamente 4 millones de veces la del Sol. La región también contiene un núcleo de estrellas llamado bulbo galáctico, y está oscurecida por nubes de gas y polvo denso, lo que requiere el uso de longitudes de onda infrarrojas y de radio para su estudio.
El objeto central es un agujero negro supermasivo con una masa de alrededor de 4 millones de veces la del Sol. Su existencia se ha deducido a partir del movimiento de las estrellas cercanas que orbitan a su alrededor.
Hablamos de Sagitario A, al agujero negro masivo situado a unos 26,000 años luz de la Tierra, tiene una masa de unos 4 millones de soles y, aunque es el agujero negro más cercano, es relativamente tranquilo. Su existencia se confirmó con la obtención de su primera imagen en 2022, la cual fue posible gracias a la colaboración de cientos de científicos y al Proyecto Event Horizon Telescope.
¿Cuántas estrellas contiene nuestra Galaxia? Una cifra que ha sido calculada por astrónomos entre 100.000 y 400.000 millones. Estos cientos de miles de millones de estrellas, junto con planetas, gas y polvo, forman la estructura galáctica.
Lo cierto amigos, es que la Vía Láctea, que es la Galaxia que nos acoge, se niega a mostrarse por entero ante nosotros. No podemos salir de ella y tomar la imagen de este “universo en miniatura” que contiene el Sistema Solar en el que reside nuestra casa, y, pocas dudas pueden caber a estas alturas que también, estará dando cobijo a otros muchos mundos llenos de vida, ya que, si el Universo es igual en todas partes, no podemos dudar de que, lo que pasó “Aquí”, también habrá pasado “Allí”.
Somos conscientes de lo poco que sabemos y que a lo largo del transcurso del Tiempo, hemos tenido que ir “refinando” las teorías, añadiendo a ellas datos que, cuando se publicaron no se conocían, y, de esta manera, se han ido completando los conocimientos que poco a poco van creciendo y a medida que conquistamos nuevos conocimientos, completamos lo que debemos saber que, de todas formas, es insuficiente y las preguntas siguen siendo más que las respuestas.
Aquí nos hablan de una nueva fuerza.
Hace mucho tiempo ya que estamos supeditados a las cuatro fuerzas fundamentales del Universo, las que lo rigen todo, tanto en el macro-universo como en el universo infinitesimal de la cuántica. Si realmente existe una nueva fuerza que supera a la nuclear fuerte… ¡Nuestro universo habrá cambiado y veremos las consecuencias!
Hemos llegado a una nueva física.
Si realmente existe esa fuerza y conseguimos llegar a conocerla y poder utilizarla… ¿Sería la que estamos buscando para poder viajar al Espacio?
Lo cierto es que, si realmente esa nueva fuerza existe… ¡Todo habrá cambiado! El futuro que nos espera será distinto.
No estamos prestando atención. Sin embargo, la invasión se está produciendo y cada vez es más fuerte. Cuando queramos poner remedio… ¡será tarde! La computación cuántica puede conseguir desvelar secretos profundamente escondidos que, por medios físicos y humanos, no hemos sido capaces de conseguir.
El revolucionario chip cuántico de Google que resuelve en 5 minutos lo que hoy tomaría 10 cuatrillones de años.
El chip es el último desarrollo en un campo conocido como computación cuántica, que intenta utilizar los principios de la física de partículas para crear un nuevo tipo de computadora increíblemente poderosa.
Hartmut Neven dirige el laboratorio de inteligencia artificial cuántica de Google que creó Willow y se describe a sí mismo como el “optimista jefe” del proyecto.
Le dijo a la BBC que Willow se utilizaría en algunas aplicaciones prácticas, pero se negó, por ahora, a proporcionar más detalles.
Pero un chip de este tipo capaz de realizar aplicaciones comerciales no aparecerá antes de finales de la década, dijo:
“Inicialmente estas aplicaciones serían la simulación de sistemas donde los efectos cuánticos son importantes.
“Por ejemplo, es relevante cuando se trata del diseño de reactores de fusión nuclear, para entender el funcionamiento de medicamentos y el desarrollo farmacéutico, y para desarrollar mejores baterías para automóviles y otra larga lista de tareas similares”.
Neven le dijo a la BBC que el rendimiento de Willow significaba que era el “mejor procesador cuántico construido hasta la fecha”.
Pero el profesor Alan Woodward, un experto en informática de la Universidad de Surrey, en Inglaterra, dice que las computadoras cuánticas serán mejores en una variedad de tareas que las computadoras “clásicas” actuales, pero no las reemplazarán.
Advierte contra la exageración de la importancia del logro de Willow en una sola prueba.
“Hay que tener cuidado de no comparar manzanas con naranjas”, le dijo a la BBC.
El problema que Google eligió como punto de referencia de rendimiento estaba “hecho a medida para una computadora cuántica”, por lo que no logra demostrar “un aceleramiento universal en comparación con las computadoras clásicas”.
No obstante, dijo que Willow representaba un progreso significativo, en particular en lo que se conoce como corrección de errores.
En términos muy simples, cuanto más útil es una computadora cuántica, más cúbits tiene.
Sin embargo, un problema importante con esta tecnología es que es propensa a errores, una tendencia que anteriormente ha aumentado cuanto más cúbits tiene un chip.
Pero los investigadores de Google afirman que han revertido esta situación y han logrado diseñar y programar el nuevo chip de manera que la tasa de error se redujera en todo el sistema a medida que aumentaba el número de cúbits.
Fue un gran “avance” que resolvió un desafío clave que el campo había perseguido “durante casi 30 años”, dice Neven.
El experto le dijo a la BBC que era comparable a “si tuvieras un avión con un solo motor: eso funcionará, pero dos motores son más seguros, y cuatro motores son aún más seguros”.
Los errores son un obstáculo significativo para crear computadoras cuánticas más potentes y el desarrollo fue “alentador para todos los que se esfuerzan por construir una computadora cuántica práctica”, dijo el profesor Woodward.
Pero el propio Google señala que para desarrollar computadoras cuánticas útiles, la tasa de error aún tendrá que ser mucho menor que la mostrada por Willow.
El futuro de la computación cuántica se perfila con avances significativos hacia 2030, incluyendo la disponibilidad de miles de ordenadores cuánticos y el acceso a servicios en la nube que democratizaría su uso.
Se espera un crecimiento del mercado que podría alcanzar los 72 mil millones de dólares para 2035, impulsado por la aplicación de la tecnología en campos como la medicina (descubrimiento de fármacos), la química y la ciberseguridad (criptografía post-cuántica). La integración de la computación cuántica con la inteligencia artificial (IA) abrirá nuevas soluciones innovadoras para retos sociales y empresariales.
Avances tecnológicos y económicos. Se espera que los servicios de computación cuántica en la nube representen una gran parte de los ingresos del sector, haciendo la tecnología accesible sin hardware especializado.
Escalabilidad:
Para 2030, podría haber alrededor de 5,000 ordenadores cuánticos operativos, aunque el software y el hardware para problemas más complejos tardarán más en estar disponibles.
Crecimiento del mercado:
Se proyecta que el mercado de la computación cuántica crezca de mil millones de dólares en 2024 a hasta 72 mil millones en 2035.
Impacto sectorial y de aplicaciones
Medicina y farmacia:
La computación cuántica puede acelerar el descubrimiento de fármacos y moléculas útiles para tratamientos médicos.
Ciberseguridad:
Desarrollará nuevos protocolos de cifrado (criptografía post-cuántica) más seguros para proteger los datos en la era cuántica, al tiempo que representa un desafío para los métodos de cifrado actuales.
Inteligencia artificial y IA híbrida:
Se fusionará con la IA para crear soluciones más potentes, abordando problemas complejos y mejorando la IA clásica.
Logística y optimización:
Permitirá optimizar rutas de reparto más eficientes para robots y empleados, o identificar los mejores lugares para desplegar sensores.
Se ha reclamado, pero aún no se ha verificado de forma consensuada, que un ordenador cuántico pueda resolver un problema que ningún ordenador clásico podría resolver en un tiempo razonable.
Ventaja cuántica industrial:
Se espera el primer ejemplo de ventaja cuántica industrial en los próximos 12 a 18 meses, incluso antes de que los errores estén completamente corregidos.
Educación e ingeniería:
Hacia 2030, la ingeniería cuántica podría convertirse en una disciplina de ingeniería, introduciendo conceptos cuánticos en el sistema educativo.
Podríamos seguir enumerando los avances y beneficios que nos traerá el Ordenador cuántico. Sin embargo, nada se dice de sus posibles consecuencias negativas para la propia Humanidad que lo ha construido.
Los principales inconvenientes de los ordenadores cuánticos para la humanidad son la amenaza a la Ciberseguridad al poder descifrar la encriptación actual, su fragilidad y altos requerimientos técnicos , y su potencial impacto ambiental debido al consumo energético Aunque aún no son lo suficientemente potentes, su desarrollo fuerza la necesidad de crear e implementar urgentemente nuevos protocolos de seguridad para proteger datos sensibles, certificados digitales y sistemas financieros.
Máquinas tan potentes y que contienen en sus Chips Prodigiosos tanta información, llegarán a estar conectadas unas con otras y formar un inconmensurable cerebro de conocimiento que sobrepasará en mucho al de los humanos. Cuando sean conscientes de cómo somos, de nuestras debilidades, nuestra parte animal e irracional, nuestro egoísmo, de lo que somos capaces en ciertas situaciones… ¿No decidirán intervenir y hacerse cargo del rumbo de este “barco” que llamamos Tierra, al comprender que no vamos a puerto seguro?
Está claro que cuando estos ordenadores cuánticos sean una realidad, ningún Gobierno del mundo querrá `rescindir de ellos, y, de la misma manera, las grandes corporaciones los tendrán. Así las cosas, si como pienso unen sus capacidades todos los O.C. del mundo…. ¡Habrán conquistado a toda la Humanidad sin esfuerzo alguno! Estaremos en sus manos, y, realmente… ¿Qué podremos hacer! Las máquinas pueden dar órdenes a todo lo que está bajo su dominio que (dicho sea de paso), será todo lo importante, con lo cual, tendrán en “sus manos” nuestras vidas.
Todo esto da un poco de miedo, no niego que no sea mejor que la humanidad cuente con adelantos que le haga más fácil la vida pero… ¡Ponernos en manos de máquinas pensantes!
Algunos hablan de los beneficios de la I.A. para la Humanidad, por mi parte no soy muy optimista
Dotar a los Robots de Conciencia de Ser… ¡Tendrá graves consecuencias para nosotros!
¿Acaso queremos crear una nueva especie que siendo artificial no tendría sentimientos?
En este mismo Blog he hablado muchas veces de lo que pienso sobre todo esto, no abrigo ninguna esperanza de la bondad que nos puedan traer los Robots a la Humanidad. Más bien creo que, si llegan a tener consciencia de SER, nos harán la competencia y, finalmente, querrán tomar el mando alegando que los humanos no son racionales.
Montarme en un auto conducido por la I.A. ¡No gracias!
Parece que estamos perdiendo el Norte ¡Ponernos en manos de las máquinas!
Ya en el Presente estamos parcialmente en sus manos, si se cae Internet… ¡Estamos perdidos!
No dudo que los Robot pueden ser de gran ayuda para los humanos siempre que los fabriquemos con limites de autonomía, que sus cerebros positrónicos tengan insertas las barreras que les impida en todo momento y en cualquier circunstancia, daños a los humanos, o, tomar decisiones por su cuenta, solo podrán realizar aquellas tareas encomendadas y siempre preservando la seguridad del humano.
Pero ¿será así como los construirán? No creo, ya han dicho que quieren dotarlos de pensamiento propio, y, si finalmente lo hacen… ¡Mal futuro nos espera!
Sería partidario de que los Robots se enfoquen a tareas peligrosas como la exploración espacial y preparar nuevos mundos para acoger a la Humanidad en un Futuro lejano (nos haría falta algo así), no tenemos un físico adecuado para la vivir en el Espacio, “ellos” si lo tienen, ya que, la radiación no les afecta, no necesitan dormir, no necesitan comer, no están expuestos a enfermedades, la ingravidez no les afecta físicamente (aunque para entonces se habrá dominado la tecnología para dotar a las naves de la Gravedad artificial), y… ¿Qué duda nos puede caber? Con la debida preparación científica, podrán aprovechar los materiales de esos mundos para construir instalaciones que nos acojan cuando al fin lleguemos a esos nuevos mundos.