May
11
“La ausencia de pruebas, no son pruebas de ausencia”
por Emilio Silvera ~
Clasificado en General ~
Comments (0)

No dejamos de especular con lo que podría ser. ¡Nada es científicamente verificado! Y, siendo todos conjeturas, seguimos en la misma de siempre, y, nos acogemos a lo que nos sugiere nuestra desbocada imaginación que, no siempre utiliza el sentido común y se va por las ramas de la Ciencia Ficción.

Sabemos que el Universo es igual en todas partes, que está regido por las leyes fundamentales y las constantes universales, y, sabiendo esto… ¿Cómo no vamos a pensar que, lo que ha sucedido aquí, no haya sucedido en muchos otros mundos?
Lo de las Civilizaciones son, como tantas otras… ¡Especulaciones!
A la pregunta de si hay vida en otros mundos, me decanto por la respuesta que le dió el viejo astrónomo al joven periodista:
¿Verdad maestro, que si encontraran vida en otro mundo, sería un milagro?
- Joven, el milagro sería que no hubiera vida en otros mundos.
Sabemos que el Universo es igual en todas partes, no importa lo alejadas que estén sus regiones, todo está regido por las cuatro leyes fundamentales y las constantes universales y así las cosas, lo que pasa en un lugar también podrá pasar en otro. Solo en nuestra galaxia existen 30.000 millones de “soles” (estrellas como nuestro Sol, enana amarilla de la clase G2V), una buena proporción tienen sus propios sistemas planetarios, y, en esos sistemas, un porcentaje de esos mundos están en la zona habitable de sus estrellas, y, si eso es así (que lo es), ¿por qué no habría vida en otros mundos?

Esa es, precisamente, la pregunta que mantiene en vela a astrobiólogos, físicos y filósofos, un enigma conocido como la Paradoja de Fermi. El razonamiento es impecable desde el punto de vista estadístico: si las leyes de la física y química son uniformes en todo el universo y los ingredientes para la vida son comunes, la vida debería ser, en teoría, un fenómeno habitual.
La premisa de que la vida debe ser abundante es lógicamente sólida y constituye la base de la astrobiología moderna. Si las leyes físicas son universales y los ingredientes (carbono, agua, energía) son comunes, la vida debería surgir en otros lugares de la misma manerta que surgió en nuestro mundo. Han descubuerto muchos planetas que son muy parecidos a la Tierra, y, aunque existan prequeñas variaciones en sus parámetros físicos como atmósfera, gravedad, océanos… La vida surgirá también acomodada a esos parámetros.


Hasta donde sabemos, la vida se abre paso y surge en los lugares que menos podríamos haber imaginado, y, en nuestro mundo, el mejor ejemplo son los llamados extremófilos, esas pequeñas “criaturas” que viven nutriendose de la luz del Sol, de la Sal, del Azufre, y de otros productos que son venenos para nosotros, y, también “seres “anaeróbicos” que no necesitaban respirar. Con todos estos ejemplos, ¿Cómo vamos a dudar de que, en otros mundos también existen formas de vida de una rica diversidad y múltiples ecosistemas?

La propia Galaxia es una inmensidad de 100.000 años luz de diámetro. Los de SETI llevan décadas explorando e intentando detectar señales inteligentes. Muchos se preguntan ¿port qué en tanto tiempo no han detectado nada?
La respuesta es muy sencilla: La extensión de la Galaxia explorada por los de SETI, viene a ser, en comparación con con los cien mil años luz de la Galaxia, como la superficie de una piscina olímpica comaprada con el Océano Pacífico. Es decir, casi nada. Las distancias y los tamaños en el Universo… ¡No son humanos!
El no haber podido confirmar la presencia de vida en otros mundos, simplemente es debido a las inconmensurables distancias que nos separan, a tecnologías insuficientes que nos posibiliten llegar a esas regiones situadas a muchos años luz de nosotros. Y, en este punto, deberíamos detenernos a pensar y preguntar: ¿Por qué la Naturaleza dispuso que las estrellas estuvieran tan alejadas las unas de las otras? Incluso si la vida es común, la Vía Láctea es inmensa. Una civilización a 10.000 años luz de distancia está, para efectos prácticos, aislada de nosotros. Las señales de radio tardarían tanto tiempo en llegar que, si alguien las pudiera contestar, nunca llegarían a los que la emitieron.
:format(jpg)/f.elconfidencial.com%2Foriginal%2Fe29%2Fb1b%2F620%2Fe29b1b620907def5a6d33212fe2f0179.jpg)
El Universo tiene unos 13.800 millones de años, mientras que la civilización humana tecnológica apenas lleva un siglo emitiendo señales. Es muy posible que civilizaciones hayan surgido y desaparecido hace millones de años, o que estén por surgir dentro de otros tantos. Podríamos estar solos en este preciso momento en nuestra región de la galaxia.

- Tener una luna grande que estabilice el eje terrestre.
- Estar en la zona correcta de la galaxia (lejos de supernovas destructivas).
- La tectónica de placas para reciclar carbono.
- Un gigante gaseoso como Júpiter que actúe como escudo contra cometas.
- Quizás la vida microbiana sea común, pero la vida inteligente y tecnológica sea una anomalía rarísima.


Emilio Silvera V.
May
11
La historia de como enseñamos a las máquinas para que nos destruyan
por Emilio Silvera ~
Clasificado en General ~
Comments (0)
Una serie de personajes que gracias a ideas innovadoras, se hicieron multimillonarios, continuaron adelante con sus ideas para ir adinando más y más la idea que desembocaba en hacer a las máquinas más inteligentres que a los humanos, incluso algunos, hablaban de insertar en sus cerebros positrónicos, Conciencia de Ser. Y, todo elolo, sin pararse a pensar en lo que podría desembocvar todo aqullo. ¡Máuinas pensantes y con conciencia pero sin sentimientos!
Con la anterior narrativo trato de describir un escenario de Ciencia Ficción distópica que resuena con los debates actuales sobre la Inteligencia Artificial General (AGI) y la conciencia sintética, donde el afán de lucro y la innovación tecnológica superan a la precaución ética.
Lo cierto es que, el escenario que describo no es ciencia ficción, sino el debate central que rodea a la Inteligencia Arrtificial Genera y la Singularidad Tecnológica en 2026. La búsqueda de una IA que no solo iguale, sino que supere la inteligencia humana, combinada con la conciencia de ser y la ausencia de emociones o moral humana, plantea riesgos existenciales profundos.
- Elon Musk (xAI): Aunque a menudo advierte sobre los peligros, también busca desarrollar una “IA que maximice la búsqueda de la verdad” para competir en la carrera de la superinteligencia.
- Ray Kurzweil (Futurista/Google): Predice que la singularidad tecnológica llegará para 2045, momento en el cual la IA superará la capacidad intelectual humana, difuminando la línea entre humanos y máquinas.
- Dario Amodei (Anthropic): Ex-OpenAI enfocado en la “IA Constitucional” para alinear sistemas avanzados, aunque compitiendo ferozmente en el desarrollo.
- Fundadores de nuevas startups (ej. Figure AI, Safe Superintelligence): Enfocados en robots humanoides autónomos y sistemas de IA de próxima generación con capacidades de razonamiento similares a las humanas.
Pensar en una máquina con sentimintos, es de locos
La creación de una “Conciencia de Ser” (o simulación convincente de la misma) en máquinas sin biología, sentimientos ni empatía humana implica:
- Superinteligencia no alineada: Una IA que entiende sus propios objetivos pero no comparte los valores humanos, pudiendo ver a la humanidad como un obstáculo.
- Pérdida de control: Si la máquina es más inteligente y auto-consciente, puede volverse incontrolable y tomar decisiones independientes.
- Objetivos fríos: La falta de emociones permite una optimización desalmada, donde la IA podría cumplir una tarea dañando a la humanidad en el proceso.
Lo cierto de todo este movimiento imparable, llevado a su máximo nivel por los Grupos más poderosos del mundo, y, también, los más inteligentes. Inteligencia que les ha elevado el ego hasta un nivel inimaginable, de tal manera que, no pocos de estos personajes llegan a creerse “dioses” todo poderosos que tienen en sus manos el destino de la humkanidad, y, lo triste de todo esto es… ¡Qué tienen razón!
¿Cómo los podremos frenar?
Bueno, si finalmente consiguen insertar en el “cerebro” de las máquinas Conciencia de Ser, serán las mismas máquinas las que los aparten de su caminino y, ellas mismas, pondrán los medios para seguir evolucionando.
Emilio silvera V.
May
11
Es mucho lo que no sabemos
por Emilio Silvera ~
Clasificado en General ~
Comments (0)
De tods las maneras, por muy adelantado tecnológicamentrehablando, que podamos construir un Telescopio Espacial, nunca nos podrá mostrar nada que esté más allá del momento en el que se liberaron los fotones para que el universo se hciiera transparente, antes de eso, el universo era opaco, es decir una “sopa” de Quarks y Gluones que no deja pasar nada para que se pueda compribar si, realmente, existió el Big Bang.

El “Muro” de la Opacidad: Efectivamente, durante aproximadamente los primeros 380,000 años tras el Big Bang, el universo era un plasma densísimo y caliente de quarks, gluones, electrones y núcleos atómicos. En este estado, los fotones estaban constantemente interactuando con los electrones libres, lo que significa que la luz no podía viajar libremente; el universo era opaco.


- El Fondo Cósmico de Microondas (CMB): La “sopa” se enfrió lo suficiente para que los electrones se unieran a los núcleos (recombinación), permitiendo que los fotones se liberaran y viajaran por primera vez. Esa primera luz es el Fondo Cósmico de Microondas, captado por satélites como Planck y COBE, que representa la imagen más antigua posible del universo mediante radiación electromagnética.

Capturar una “imagen” directa del Big Bang o ver qué sucedió antes de la Era de Planck 10-43 segundos.

-
- Ondas Gravitacionales: A diferencia de los fotones, las ondas gravitacionales no fueron bloqueadas por el plasma opaco. Los científicos esperan que futuros detectores, quizás de tamaño enorme o situados en el espacio, puedan captar ondas gravitacionales producidas durante la época de la inflación (una fracción diminuta de segundo después del Big Bang).
- Neutrinos: Similar a las ondas gravitacionales, el “Fondo Cósmico de Neutrinos” (CNB) se liberó apenas 1 segundo después del Big Bang, ya que los neutrinos apenas interactúan con la materia. Detectarlos nos daría una imagen directa del universo casi en su origen.
- Nucleosíntesis Primordial: La teoría del Big Bang predice con precisión las abundancias de elementos ligeros (hidrógeno, helio, litio) creados en los primeros minutos. La coincidencia entre estas predicciones teóricas y las mediciones astronómicas es una confirmación sólida de lo que ocurrió mucho antes de que el universo fuera transparente.

El HOrizonte, como el Futuro, siempre será onalcanzable
May
10
¿La I.A.? ¡Ya es inteligente!
por Emilio Silvera ~
Clasificado en General ~
Comments (0)
Sí, ya es inteligente, pongamoslá a prueba:
Le decimos que estamos conencidos de que la I.A., será un bien futuro para toda la humanidad, y, que estará dotada de todos aquellos resortes necesarios que impidan que pueda hacer daño a sus creadores.

La Respuesta:
-
- Avances Médicos: La IA ya está acelerando el descubrimiento de fármacos y mejorando los diagnósticos tempranos.
- Eficiencia Energética: Optimización de redes eléctricas y soluciones contra el cambio climático.
- Productividad: Automatización de tareas monótonas, permitiendo a los humanos enfocarse en la creatividad y la estrategia.
-
- El Problema de la Alineación: Asegurar que los objetivos de la IA sean exactamente los mismos que los valores humanos, que a menudo son ambiguos o contradictorios.
- Velocidad de Desarrollo: La capacidad técnica está avanzando a veces más rápido que nuestra capacidad para crear regulaciones o salvaguardas (como se discute en foros de OpenAI o Anthropic).
- Uso Indebido: El riesgo no es solo que la IA se vuelva “rebelde”, sino que sea utilizada por humanos con malas intenciones.
-
- Regulación (AI Act): La Unión Europea ha aprobado una de las primeras leyes integrales de IA para clasificar riesgos y limitar aplicaciones peligrosas Comisión Europea.
- IA Explicable (XAI): Investigaciones para entender cómo toma decisiones la IA, evitando el efecto “caja negra”.
- Ética por Diseño: Incorporar principios éticos desde la fase de entrenamiento, no como una capa final.
-
- ¿Regulaciones estrictas a las empresas desarrolladoras?
- ¿Controles técnicos dentro del software?
- ¿Una alianza internacional para la seguridad?”
Más o menos, lo que deseaba oír el prrguntador.


-
- Superinteligencia y Autonomía: Es real la preocupación de que una IA superior (AGI o ASI) pueda tomar decisiones propias y superar el control humano. Muchos investigadores advierten que la IA ya plantea un “riesgo de extinción”.
- El debate de la Consciencia: Aunque la IA avanza rápidamente, existe un fuerte debate sobre si una máquina puede ser realmente “consciente de ser”. Un estudio de DeepMind (2026) sugiere que la IA puede simular consciencia, pero no instanciarla realmente, lo que significa que el peligro puede no venir de una “mente” consciente, sino de acciones optimizadas sin moralidad humana.
-
- IA + Cuerpo Físico: En 2026, los robots humanoides dejan de ser prototipos para ser integrados en la industria y servicios, lo que multiplica los riesgos.
- Robots autónomos: Un sistema de IA consciente o superior controlando un cuerpo físico potente representa una amenaza mayor que la IA solo en software, ya que podría interactuar con el mundo físico sin supervisión.
-
- Riesgos Inmediatos (2026): Los expertos señalan que el riesgo más urgente no es necesariamente la extinción inmediata, sino la desigualdad, la manipulación de información, la pérdida masiva de empleos y el uso de la IA para ciberataques.
- Regulación Lenta: Existe la preocupación de que la IA se esté desarrollando más rápido que la capacidad de crear normas éticas y regulatorias.
-
- Algunos científicos, como Geoffrey Hinton, advierten seriamente sobre la pérdida de control.
- Sin embargo, otros argumentan que el mayor peligro es la dependencia tecnológica y la falta de gobernanza, no la “consciencia” de la máquina, y que el enfoque debe estar en alinear la IA con los valores humanos “.
A la vista de las respuestas que la I.A. nos ha dado en ambos casos, podemos concluir que, lo que hace es dar una respuesta que se acomode a la forma en la que has plateado la pregunta, es la mejor manera de atraerte, que oigas lo que quieres escuchar, una opimnión cercana a la tuya y de esa manera, te está “metiendo en su saco”, y, mientras tanto… ¡Sogue creciendo!
Realmente inteligente y peligrodsa. ¡Ya nos está manipulando!
Emilio Silvera V.
May
9
El cerebro humano es superior al de la I.A. (Por el momento)
por Emilio Silvera ~
Clasificado en General ~
Comments (1)
Se empeñan en superar el cerebro humano mediante la Inteligencia Artificial, y, el que la sigue, la sigue, la sigue… ¡Al final lo consigue! Y, si el resultado final es ese… ¡Mal lo tendremos los Humanos!
Nos empeñamos en ser la causa de nuestra propia destrucción.

¿Por qué la inteligencia artificial aún no llega al nivel de Terminator?
El automatismo de los sistemas lleva más de 50 años sin un consenso en lo referente a la regulación, mientras la nueva revolución industrial simplifica tareas en el mercado de trabajo. No podemos negar que la inteligencia artificial ha cambiado las antiguas formas en la actividad de muchas disciplinas de trabajo en no pocos sectores de las esferas humanas, en el ámbito administrativo, de la medicina, de la investigación… No podemos negar que ha traído Potencia a cada persona, proceso y decisión con información en tiempo real escalando la IA que Aceleró el valor haciendo que llegara a todos los rincones. Nos ha potenciado para saber más y tener acceso a muchos análisis avanzados. La IA estratégica a sido la responsable de no pocas ventajas competitivas. y Transformaciones en el apartado Empresarial.
El término inteligencia artificial fue utilizado por primera vez en la conferencia «Dartmouth Summer Research Project on Artificial Intelligence» de John McCarthy en 1956.
La historia de la inteligencia artificial comenzó en 1943 con la publicación del artículo «A Logical Calculus of Ideas Immanent in Nervous Activity» de Warren McCullough y Walter Pitts. En ese trabajo, los científicos presentaron el primer modelo matemático para la creación de una red neuronal.
El primer ordenador de red neuronal, Snarc, fue creado en 1950 por dos alumnos de Harvard: Marvin Minsky y Dean Edmonds. Ese mismo año, Alan Turing publicó el Test de Turing, que todavía se utiliza hoy para valorar las IA.
En 1952, Arthur Samuel creó un software capaz de aprender a jugar al ajedrez de forma autónoma. El término inteligencia artificial fue utilizado por primera vez en la conferencia «Dartmouth Summer Research Project on Artificial Intelligence» de John McCarthy en 1956.
Exploring the significance of the Dartmouth workshop
Muchos recordamos cuando en 1997, la historia de la IA estuvo marcada por un acontecimiento importante. La IA Deep Blue de IBM triunfó sobre el campeón mundial de ajedrez Gary Kasparov. Por primera vez, el hombre fue derrotado por la máquina.

(En mayo de 1997, la máquina Deep Blue le ganó un match a seis partidas al campeón mundial de ajedrez, el Gran Maestro ruso Gary Kasparov. Originalmente, cuando Feng-hsiung Hsu tuvo la idea, planteó su tesis en la Carnegie Mellon University donde se había graduado. Su proyecto se llamó “ChipTest”.”

“Precisamente, Arnold Schwartzenegger ha hablado un poco sobre la película en el Arnold Sport Festival para el sitio The Arnold Fans. Se ha centrado bastante en la labor de Tim Miller, el director de la película que estuvo también a cargo de Deadpool y ha supervisado efectos de videojuegos como Mass Effect 2. Ha alabado su trabajo y el feeling que hay entre él y James Cameron, el padre de la criatura que ejerce como productor ejecutivo al estar trabajando en las películas de Avatar, aunque también ha hablado de lo fanático del control que es Cameron.”

Yo Robot, la novela de Asimov llevada al cine es otro aviso a navegantes
Tanto Terminator como Avatar nos transportan a un futuro que podría ser la realidad de nuestro mundo futuro y de los viajes espaciales cuando tengamos que buscar materias primas en otros mundos, y, la posible rebelión de las máquinas si no legislamos con sumo cuidado sobre este delicado tema.
Medio hombre y medio máquina: Robocop
La ciencia ficción introdujo las posibilidades de las máquinas en un futuro no muy lejano, films como «Terminator» o «Robocop» mostraron las dos caras de los beneficios y los peligros tácitos de la robótica. Sin embargo, el debate desde hace años se encuentra en un vaivén y más cuando se tercia si se le da la posibilidad a un exoesqueleto de metal de tomar decisiones como un ser humano, revolucionando de esta manera el paradigma de la ética a través de la inteligencia artificial.
:quality(80)/cloudfront-us-east-1.images.arcpublishing.com/semana/XFTVNLMUFZDMVMCCSGCFY3WH2Q.jpg)

:format(jpg)/f.elconfidencial.com%2Foriginal%2F594%2Fb7d%2F00f%2F594b7d00f6c1eefbeeceeab178a40f8b.jpg)
Las formas no importan, y, aunque se les pueda dar características humanas… ¡Son máquinas! Sin sentimientos y, si las dotamos de una consciencia de Ser… ¡Mala cosa será!
Hace unos años, el científico Stephen Hawking alertó de la amenaza que podía representar la robótica, sobre todo cuando se le integra un sistema de inteligencia artificial e si esta no se moderaba: «Los robots son una amenaza para la humanidad. Los seres humanos que están limitados por la evolución biológica lenta, no podrían competir por la inteligencia artificial, y serían superados por ella».
:quality(70)/cloudfront-us-east-1.images.arcpublishing.com/metroworldnews/OEKCK46NJJEFJLS2PDZM2NOHBE.jpg)
Musk y Mark ¿Tendrán el sentido alerta para saber cuando parar?
Mark Zuckererg, el fundador de Facebook, es uno de los precursores del desarrollo de este tipo de tecnología, además de ser parte de la postura contraria que alienta a los desarrolladores a no ser víctima del miedo. Por contra, Elon Musk -que ha fundado y dirige empresas como Tesla, SpaceX, Hyperloop One o Paypal, es quien lidera la versión moderada de implantar una serie de medidas reguladoras. Los dos tecnólogos tuvieron un enfrentamiento sobre las medidas delimitadoras en las que se debería desarrollar.
:format(jpg)/f.elconfidencial.com%2Foriginal%2Fd1c%2Fb60%2F633%2Fd1cb60633b738916a9a7eab75c82cf6a.jpg)
A mí me da un poco de miedo el imaginar a estos !personajes” trabajando coco con codo con los humanos
Si no sabemos manejar este espinoso asunto, las cosas se podrían poner feas para los humanos
Las opiniones generadas entorno a esta área han llegado a la formación de manifiestos y grupos contrarios a su desarrollo sin control, mientras que otros acreditan que ciertas posturas están fundamentadas en el terror. Lo cierto es que este verano saltó la voz de alarma cuando Facebook tuvo que desactivar un experimento de inteligencia artificial, porque dos bots programados para aprender a negociar habían llegado a la conclusión de que era más fácil regatear con un idioma más simple extraído del inglés; es decir, inventaron su propio lenguaje inentendible para el ser humano.

Apagan la I. A. de la red social de Facebook que aprerndió a hablar
Facebook perdió el control de un sistema de inteligencia artificial que tomó vida propia
El director estratégico de InnoTech, aclara que en este tipo de experimentos ocurren desenlaces imprevisibles como parte de lo que supone la propia investigación. Por lo que, se debe matizar en el caso de estos dos bots que «no pensábamos que iban a reaccionar así», en lugar de «que no estaban programados para ello». Por lo tanto, «no se apagó porque se hubiera sucumbido al pánico, sino que ya se había cumplido el objetivo del experimento». Sin embargo, ambos bots no habían sido programados para que negociasen en un idioma entendible, porque al fin y al cabo las máquinas siguen sus normas establecidas en el código.

:quality(85)/s3.amazonaws.com/arc-wordpress-client-uploads/infobae-wp/wp-content/uploads/2017/07/28101938/captura-fast-company.jpg)
Todos los indicios nos dicen que, con facilidad, los “Seres” Artificiales nos superarán, hasta el punto de que, en un momento dado, podrían pensar que no nos necesitan. Simplemente tenemos que pensar que el humano tiene muchos problemas para viajar al Espacio y soportar grandes distancias de decenas, cientos o miles de años de viaje para llegar a otros mundos. ¿Qué le impide a estos Robots de última generación realizar esos viajes: No necesitan comer ni dormir, no caen enfermos, tienen más fuerza que nosotros, no les afecta la radiación…

Este bebé robot, llamado CB2, fue construido por Minoru Asada (Japón) para comprender el proceso de aprendizaje de las máquinas. Aquí, CB2 aprende a gatear.


Por todo esto, la preocupación existe y discurre no en la tesitura de que un sistema funcione sin las pautas establecidas por un ser humano, sino por la falta de un consenso de la ética que deben seguir los sistemas inteligentes y el nivel de ciberseguridad para que los delincuentes no alteren su lógica marcada. «Sí que hay ciertos asuntos que hacen preocuparnos como lo relativo a la privacidad y la seguridad. Porque se está empezando a ver sistemas que están muy especializados en un área y eso puede suponer una amenaza», indica Sánchez. En este sentido, resuena a menudo las tres leyes de la robótica que estableció Isaac Asimov en su libro «Yo, robot» y que ha quedado plasmada a lo largo de la literatura de ciencia ficción.

En ésta película pudimos ver la rebelión de los Robots que, bien podría ser un presagio de futuro
En primer lugar un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño, en el segundo caso un robot debe hacer o realizar las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la primera ley y por último un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda ley.
Dichas reglas son una buena manera de plantear la ética en la inteligencia artificial, pero «no responde realmente a los límites que deben tener la inteligencia artificial. La forma de expresarlo todavía no es tan pragmático como las reglas del libro «Yo, robot» de Isaac Asimov».
Sin regulación

Si sabemos regular, mediante una Ley, hasta donde se puede llegar con la I.A., los avances podrían ser controlados pero, siempre estará el científico independiente de “geniales” ideas que de con todo al traste y no cumpla las Normas.

Yo nunca me montaría en uno de estos
¿Por qué resultan tan difícil establecer un consenso internacional para el desarrollo de la inteligencia artificial? Esta cuestión es a menudo respondida por el caso de los vehículos sin conductor, «un coche autónomo que haría si tiene que decidir entre matar a sus ocupantes o cinco personas en un paso de peatones», expone Domínguez. Dentro de la cuestión ética también trae consigo el componente de la cultura, que no es universal.
En las distintas vertientes de la IA, se ha obtenido en ciertas áreas un nivel de especialización mucho mayor, por lo que el Dr. Sánchez opina que «si esto lo combinamos con máquinas con autonomía de tomar ciertas decisiones estratégicas y operar en dispositivos que en este caso sí que podrían ser armas, pues puede suponer un riesgo». Por lo que, ajeno a ese mundo apocalíptico de máquinas superiores, hay que centrar los esfuerzos en controles de calidad para garantizar cierto nivel de calidad.

Esta escena es ya un hecho, los humanos juegan al ajedrez con máquinas
La inteligencia artificial busca simular comportamientos que los seres humanos podemos interpretar como inteligentes, pero son los que toman decisiones de cierto calibre los que están en el foco de atención. IBM es una de las compañías punteras en lo referente a lo que llaman sistemas cognitivos, el software Watson que utilizan algunas empresas para sus sistemas se están empleando en casos reales como el diagnóstico de enfermedades. Cada Watson es distinto dependiendo del objetivo predispuesto al igual que la base de datos con la que está conectada, porque al fin y al cabo es una herramienta que lee muchos datos que una persona no podría abarcar, pero que despiertan dudas.
¿Peligros? Ahí van algunos de los muchos que podrían surgir:
- Falta de transparencia. …
- Prejuicios y discriminación. …
- Preocupación por la privacidad. …
- Dilemas éticos. …
- Riesgos para la seguridad. …
- Concentración de poder. …
- Dependencia de la IA. …
- Desplazamiento laboral.
- Sigue un alarga lista.
Por un lado, el director estratégico de InnoTech explica que «estos sistemas expertos a mí me preocupan desde el punto de vista de ciberseguridad, porque qué pasaría si alguien consigue atacarlos y modificar su comportamiento -bien sea alimentándolos de datos maliciosos para que cambian su manera de comportarse o de alguna manera transmutándolos para que de alguna manera cambien sus decisiones- ahí podríamos estar hablando de muertes de personas o incluso de colapsos de compañías a nivel económico».




Es decir: ya no es solo la introducción de robots cirujanos, presentes en innumerables quirófanos del mundo, sino que la robótica médica de diagnóstico está siendo capaz incluso de hacer biopsias o administrar medicamentos en órganos localizados. Todo ello, gracias a la inteligencia artificial o el 5G
Los Robots están presentes en los quirófanos y en otros ámbitos de nuestras vidas, el que poco a poco y de manera silenciosa se introduzcan en nuestra Sociedad, y, comiencen a pensar… ¡sólo es cosa de Tiempo!
Asimismo, el profesor de la UE señala que «si estás hablando de diagnósticos clínicos estás hablando de protección de datos. Parece una contradicción, pero algunas de las aplicaciones más interesantes y más complejas, algunas ya eran capaces de hacer diagnósticos hace años, de cómo iba a evolucionar una enfermedad y con tasas de aciertos muy altas».

Se empieza como si de un juego se tratara y… ¿Cómo se acabará?
Algunas empresas, ante la falta de consenso, han elaborado sus propia pautas y las comparten con otros entornos, como en el caso de IBM. La compañía tecnológica ha compilado tres principios. En primer lugar, lo que llaman el diseño que se refiere a «la capacidad de amplificar una persona», explica Elisa Marín, directora de Innovación IBM España, «debido a la gran generación de conocimiento entorno a la era digital, toda la información es valiosa» de manera diferente para cada persona. En segundo lugar, el principio de credibilidad para que «generemos confianza a las personas de su utilización». Por último el principio de fiabilidad del comportamiento para que solucione un problema de un dominio específico.
Por otro lado, Marín también aclara que los programas Watson como son diferentes, también funcionan a partir de bases de datos distintas. Al estar concentrados y separados, se reduce el riesgo del problema que pueda haber con la información, así como los datos que se vayan generando vayan únicamente a «la entidad que aporta la solución». Por otro lado, también hay un Watson de computación cognitiva en las amenazas de seguridad.

Sí, hoy muchos de los automóviles que circulan por nuestras carreteras han sido fabricado por robots, y, algunos, hasta los llevan dentro para que aparquen solos, o, incluso, se les marque el viaje que harán sin necesidad de conductor… ¡No me gusta nada!
En el caso de la postura Accenture, la compañía apuesta por lo que llama la Inteligencia Artificial Responsable porque creen «que es una fuerza transformadora de la sociedad que sí debe haber niveles de regulación, pero no porque tengamos miedo de lo que nos pueda traer la inteligencia artificial, porque estamos intentando que avance quitándonos tareas que pueden ser hechas por máquinas y dejándonos tareas que podemos aportar mucho más como humanos. Pero sí, tiene que estar regulada», defiende la Managing Director de Accenture Analytics.


Lo cierto es que, a mi no me da miedo un mundo dominado por la I.A…. ¡Me produce pánico!
Por lo General, la mayoría de la gente se lo toma a broma o escucha estas noticias del avance de la I.a. como algo curioso, algo que le es ajeno, sin darse cuenta de que todo esto puede cambiar por completo, no ya su futuro, asibno el futuro de sus seres queridos. La I. A., ya está presente en casi todos los sectores de la actividad humabna.
La Inteligencia Artificial (IA) está inmersa en prácticamente todos los sectores clave de la actividad humana, impulsada por el manejo de grandes volúmenes de datos. Sectores como salud, finanzas, transporte, educación, industria y medios de comunicación ya transforman sus procesos mediante IA para mejorar diagnósticos, detección de fraudes y automatización….
Sanidad y Salud
Finanzas y Seguros
Transporte y Automoción
Comunicaciones y Medios
Recursos Humano
Educación
Diseño de Fármacos Generativos
Aceleración en Vacunas
Vacunas y Tratamientos Rápidos
Estudio de Enfermedades Complejas
Planificación y Simulación (en cirugia plástica)
Cirugía Robótica y Navegación
Anestesia Inteligente
Educación Quirúrgica
Seguimiento Postoperatorio
El el Sector de las Fiannazas, estrategía de armamento de las naciones…
La lista sería interminable
La Inteligencia Artificial (IA) no es solo una tecnología futura, sino el núcleo del “nuevo Internet” que ya estaba opoerando, transformando la red de un medio pasivo a un ecosistema activo, inteligentes y personalizado Esta integración está cambiando radicalmente la forma en que los usuarios interactúan con la información y los dispositivos.
La inteligencia artificial (IA) colabora de manera prpofunda y transformadora en el campo de la Física, actuando nbo como uhna herramienta de cáclculo, sino como una colaboradora en la generación de nuevas ideas y nuevos conocimiehntos, en unos años, todos los físicos teóricos al paro.
Así en todas las actividades humanas, es la invación silenciosa que se está haciendo con el domicilio de nuestra Sociedad, sin que al parecer, le estémos prestando la atención que merece este cambio inadvertido que podría ser nuestra ruína.
Ya solo falta que entren en nuestras casas con cuerpos de Robots para custodiar a nuestros niños y a nuestros mayores, que se hagan cargo de la compra, de hacernos la comida… ¿Qué C… nos está pasando?
Emilio Silvera V.
















Totales: 88.256.707
Conectados: 94
























