viernes, 22 de noviembre del 2024 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




El peligro nos acecha… ¡Somos nosotros mismos!

Autor por Emilio Silvera    ~    Archivo Clasificado en Entrevista científica    ~    Comentarios Comments (1)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Entrevista en El País, por

Javier Cortés
              Javier Cortés

El filósofo y profesor de la Universidad de Oxford alerta de los riesgos que plantea la tecnología y advierte de la necesidad de anticiparnos antes de que sea tarde. Nick Bostrom: “No tendremos una segunda oportunidad con la inteligencia artificial”.
Resultado de imagen de Inteligencia artificial de última generación

         Si le otorgamos inteligencia propia y hasta sentimientos… ¿Qué pasará con la Humanidad?

Nick Bostrom (Helsingborg, Suecia, 1973) es una de las voces más autorizadas para hablar de los peligros de los avances tecnológicos en nuestro tiempo. Este filósofo dirige el Instituto para el Futuro de la Humanidad y el Centro de Investigación de Estrategia de Inteligencia Artificial de la Universidad de Oxford, donde ejerce como profesor. Sus teorías sobre el riesgo que representaría la creación de una superinteligencia para el mundo han influido en el pensamiento de figuras como Bill Gates o Elon Musk.

Nick Bostrom durante la entrevista en la Fundación Giner de los Ríos
Nick Bostrom durante la entrevista en la Fundación Giner de los Ríos

 

Nos recibe en un pequeño camerino de la Fundación Giner de los Ríos, a unos pasos del escenario donde acaba de impartir una ponencia sobre cómo debemos afrontar la transición hacia la era de las máquinas inteligentes. Tiene que coger un vuelo en un par de horas y antes debe pasar por el hotel, pero se toma su tiempo antes de responder a cada pregunta y detiene su discurso varias veces para buscar las palabras precisas. Es evidente que se encuentra cómodo especulando sobre el futuro que nos espera.

¿Cuáles son los principales riesgos tecnológicos con los que debe lidiar la humanidad?

Resultado de imagen de Inteligencia artificial de última generación

Depende del contexto temporal que tengamos en mente. Si estamos pensando en las aplicaciones actuales, deberíamos estar preocupados por una serie de cosas que no tienen nada que ver con los peligros que vemos si miramos hacia el futuro, donde las máquinas tendrán niveles de inteligencia muy superiores a los de los humanos.

Hoy, uno de nuestros principales focos de atención apunta a que nuestros sistemas de información sean transparentes y a la vez nos permitan ciertos niveles de privacidad. Es muy importante que configuremos correctamente nuestra arquitectura informativa. Ahora nos interesa pensar en la forma en que se establecen las relaciones sociales en internet, la creación de filtros burbuja…

¿Y si echamos la vista al futuro?

Resultado de imagen de Inteligencia artificial de última generación

Nos encontramos con un tipo de preocupaciones completamente distintas. No es difícil pensar en una inteligencia artificial que sea cada vez más poderosa cuyos objetivos no estén perfectamente alineados con los objetivos humanos. Y el reto aquí consiste en tener la tecnología que nos haga capaces de diseñar estos poderosos sistemas artificiales alineados con los valores humanos y que siempre hagan lo que nosotros queremos que hagan.

¿Es la inteligencia artificial nuestra única preocupación a largo plazo?

Existen otras áreas que también tienen un gran potencial riesgo para la humanidad. La biotecnología sería una de ellas. Si descubrimos cómo hacer mejores herramientas para manipular virus, bacterias y otros microrganismos, haríamos posible la creación de patógenos de diseño, que podría utilizar algún grupo terrorista para crear un nuevo tipo de enfermedad. Con cada nuevo avance técnico nos vamos aproximando a estos escenarios y, a medida que la tecnología madura, crece su potencial destructivo.

¿Considera que estamos avanzando demasiado rápido como sociedad?

Resultado de imagen de Inteligencia artificial de última generación

Creo que cada vez que realizamos un gran descubrimiento, estamos metiendo la mano en una urna llena de pelotas y sacando una. Con cada pelota que sacamos, vamos alcanzando el progreso social. Toda la historia de la humanidad se ha basado en el proceso de hacer estos inventos.

La cuestión es que muchas de estas pelotas son beneficiosas, pero hay otras que pueden ser perjudiciales. Imagina lo que pasaría si una de las pelotas que sacamos es una tecnología que significa invariablemente la destrucción de la civilización que la descubrió. El problema aquí es que todavía no hemos descubierto una manera de volver a meter la pelota en la urna si no nos gusta: una vez que se ha inventado una tecnología, no puede “desinventarse”.

¿Hemos sacado ya alguna de esas pelotas?

Resultado de imagen de armas nucleares con materiales distintos al plutonio o uranio

No es difícil adivinar cómo sería. Piensa, por ejemplo, en lo que pasaría si el desarrollo de armas nucleares hubiera sido posible con materiales más fáciles de conseguir. Si en lugar de plutonio o uranio enriquecido, que no son precisamente accesibles, pudiera crearse una bomba atómica con un poco de arena, sería el fin de la civilización, porque bastarían unas pocas personas que quisieran causar daño para posibilitar una gran destrucción.

¿Podemos evitar que la inteligencia artificial termine siendo una de estas tecnologías?

Si la inteligencia artificial termina siendo capaz de hacer todo o buena parte de nuestro trabajo intelectual mejor que nosotros, tendremos en nuestras manos el último invento que tendrá que realizar la humanidad.

Resultado de imagen de Los Robots dominan a la Humanidad

                 No podemos dejar que llegue un día en el que los robots domine a la Humanidad

El problema está en la transición hasta la era de la inteligencia artificial: tenemos que hacerlo bien a la primera porque no creo que tengamos una segunda oportunidad. Si desarrollamos una inteligencia artificial que no esté alineada con nuestros propósitos, no creo que podamos volver a meter esa pelota en la urna y empezar de cero. No somos demasiado buenos como civilización anticipando problemas difíciles que todavía no nos han causado ningún daño. Debemos movilizar nuestros esfuerzos para hacer que esto funcione desde el principio. Esta es la gran dificultad para nuestra civilización.

¿Qué tipo de políticas deben tomar los gobiernos y compañías tecnológicas al respecto?

Imagen relacionada

Que la futura Inteligencia Artificial esté bien planificada y que los ingenios creados estén a nuestro servicio es la base principal para evitar los problemas que plantea esta disciplina del saber humano.

Se nos presenta la oportunidad de acercarnos a la revolución de la inteligencia artificial de forma coordinada. Es el momento de trabajar en un proyecto internacional para desarrollar una superinteligencia segura en el que estén implicados todos los actores que puedan aportar algo. Si esto sale bien, los beneficios para la sociedad serían inmensos, pero podríamos sufrir consecuencias muy negativas si nuestra forma de abordar el problema consistiera en permitir que las empresas y naciones compitieran para ver quien consigue mejores resultados.

 

  1. 1
    Emilio Silvera
    el 10 de diciembre del 2017 a las 20:14

    Simplemente como aclaración a alguna de las partes de la entrevista, tengo que decir que, el Plutonio 235 (que es el Uranio bueno para la combustión nuclear), sólo existe en nuestro planeta en una razón del 7 por mil, es decir, de cada mil kilos de Uranio sólo 7 kilos es 235, el resto, es Uranio 238 que no vale como combustible nuclear de fisión.

    Claro que la imaginación humana es grande y, para solucionar el problema, se inventó el Acelerador Generador, en el que se pone en la base del acelerador (pongamos por ejemplo) 800 Kgs. de Uranio 238 (que es como la madera mojada que no arde, por lo que no es idóneo para la fisión nuclear), y, utilizando unos 100 Kgs. de Uranio 235, hacemos que los neutrones lentos de éste Uranio “bueno” bombardee al Uranio “malo” que, de esta manera, se convierte en Plutonio 239 que sí vale como material de fisión. De esta manera, convertimos un mal material en otro que sí sirve para el objetivo que se busca.

    El Plutonio 239 no existe en estado natural, es decir, no existe en la Naturaleza y, por ese motivo es un elmento artificial, creado por el hombre.

    Responder

Deja un comentario



Comentario:

XHTML

Subscribe without commenting