domingo, 01 de diciembre del 2024 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




¿La Inteligencia Artificial? Es cosa de futuro

Autor por Emilio Silvera    ~    Archivo Clasificado en I. A.    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Resultado de imagen

La informática Margaret Ann Boden(1936) cumple hoy años. Profesora de investigación en el Departamento de Informática de la Universidad de Sussex, su trabajo abarca los campos de la inteligencia artificial, la psicología, la filosofía, las ciencias cognitivas y las ciencias de la computación.

“Es absurdo pensar que tenemos la ‘superinteligencia’ a la vuelta de la esquina”

 

Margaret Boden (Maggie para los amigos) ha visto de todo desde 1936. Nació en el Londres de los bombardeos y de Alan Turing, se abrió paso en el masculino mundo de la ciencia y se descolgó en 1977 con Inteligencia Artificial y Hombre Natural, uno de los libros pioneros en un campo que ha contribuido a ensanchar gracias a su ‘sabiduría’ adquirida en los mundos de la medicina, de la filosofía, de la psicología y de las ciencias cognitivas.

A sus 82 años, Boden sigue activa desde su mirador en la Universidad de Sussex, fiel a su condición de insaciable “mariposa intelectual”. Nos recibe con vestido floreado en su casa de Brighton, que pronto sentimos como nuestra. Y nos invita a hacer un recorrido por las estanterías donde alternan libros y pequeños frascos de vidrio que se estiran hasta tiempos de los romanos. Estamos aquí para hablar de su último libro, Inteligencia Artificial (Turner), y para intentar distinguir entre la paja y el heno en un terreno pantanoso en el que se atrevió a adentrar en sus últimos meses de vida el mismísimo Stephen Hawking.

 

 

¿Cuál es la idea más equivocada que tenemos sobre la inteligencia artificial?
Yo diría que hay dos ideas equivocadas. La primera es que la inteligencia artificial (IA) puede hacer mucho más de lo que es capaz realmente. Y la segunda es que puede hacer mucho menos. Entre estos dos polos nos movemos, y esa ha sido mi idea con este libro. Examinar la naturaleza de la IA, hacer balance de dónde estamos e intentar vislumbrar el futuro, con los pies en el suelo y sin caer en escenarios de ciencia ficción.
Meses antes de morir, con su voz computerizada, Stephen Hawking advirtió: “El desarrollo pleno de la inteligencia artificial puede significar el fin de la raza humana” ¿Verdadero o falso?
Ese tipo de afirmaciones genéricas sirven al final para infundir el temor a lo desconocido. Con todos mis respetos para Stephen Hawking, y reconociendo sus grandes méritos en el campo de la Física, no se puede intentar abarcar todo y hablar ex cátedra de un campo que no era su especialidad. Por no hablar de la profunda contradicción: él tenía que estar en el fondo agradecido a la IA porque le permitía hablar y comunicarse con los humanos.

Hawking era tan asombrosamente popular que todo lo que salía de su boca se elevaba inevitablemente a titular. Hizo mucho por la divulgación de la ciencia, pero no estaba en una posición privilegidada para hablar de la IA. Al fin y al cabo, su aproximación era la de un astrofísico, preocupado por el futuro de la Tierra y urgiendo a la especie humana a colonizar otros planetas.El filósofo Nick Bostrom, al frente del Instituto para el Futuro de la Humanidad en la Universidad de Oxford, considera también la superinteligencia como el “mayor riesgo existencial” para la humanidad, por delante incluso del cambio climático…

 

 

 

 

Crear seres artificiales que tendrán poderes muy superiores al humanoOtra peligrosa generalización. Bostrom tiene ideas un poco locas, como la noción misma de la superinteligencia (una inteligencia superior a la humana) a mediados de siglo o incluso antes. Son predicciones un poco absurdas. Bostrom está contribuyendo también, a su manera, a infundir el miedo a ese futuro apocalíptico, y desviar por ejemplo la atención del cambio climático, que es un peligro presente y real, que va a comprometer enormemente las vidas de las próximas generaciones.

 “Con todos mis respetos para Stephen Hawking, y reconociendo sus grandes méritos en el campo de la Física, no se puede intentar abarcar todo y hablar ex cátedra de un campo que no era su especialidad”

¿Y qué nos dice de las predicciones de Ray Kurzweil, el profeta de la singularidad?
Kurzweil es aún peor, precisamente por todo lo contrario. Habla de la singularidad (el momento en el que la inteligencia de las máquinas superan a la del hombre) como una especie de santo grial o de utopía tecnológica. En su opinión, la inteligencia artificial (combinada con la nanotecnología y con la biología sintética) servirá para acabar con las enfermedades, con las guerras e incluso con la muerte. Además predice que el momento está bien cerca, en torno al 2030… ¡Nos quedan 12 años! Lo tenemos como quien dice a la vuelta de la esquina… Es absurdo.

Pensar que con la IA puedes resolver conflictos tan humanos como el de Oriente Próximo (y ya puestos, el de Irlanda del Norte o el Cataluña) es totalmente ridículo. Los que creen en la singularidad ignoran las limitaciones de la IA actual. Se basan sólo en los avances tecnológicos exponenciales, pero ignoran un hecho: el aumento de potencia de los ordenadores y de la disponibilidad de datos no garantiza una IA de nivel humano.El fundador de Tesla, Elon Musk, es otra de las voces más notorias ante los riesgos de la IA ¿No deberíamos darle algo de crédito?A Elon Musk hay que agradecerle sobre todo que ponga sobre la mesa la cuestión ética y que ponga dinero para investigar temas que deberíamos haber estado investigando durante años. Su contribución al Instituto para el Futuro de la Vida me parece muy valiosa. Es esencial plantearnos escenarios de futuro, pero hay que hacerlo con investigaciones rigurosas y multidisciplinarias que nos adviertan de los riesgos reales.En la parte final de su libro, usted reconoce sin embargo que pese a todos los “mitos” que rodean la IA, hay realmente motivos para “estar preocupados”. ¿Cuáles son?

 

 

 

 

 

 

Desde que inventamos el hacha, cualquier tecnología se puede utilizar para el bien o para el mal. Uno de los elementos más preocupantes es obviamente su uso para fines militares, con la producción de soldados robóticos o el uso cada vez más extendido de drones, que de momento son manejados a distancia por seres humanos, pero que el futuro podrían tener capacidad incluso para “reconocer” un blanco. La ciberseguridad tiene cada vez una mayor connotación militar también. De hecho estamos asistiendo ya a ciberguerras invisibles en la que está en juego muchas veces nuestra capacidad para seguir adelante con nuestra vida cotidiana, conforme se vaya implantando el internet de las cosas y la IA se extienda a sectores vitales de nuestra economía, de la banca al suministro eléctrico.¿Qué nos puede decir de la privacidad de los ciudadanos, a la luz del reciente escándalo de Facebook y Cambridge Analytica? ¿No corremos el riesgo de ser manipulados por un puñado de corporaciones? ¿El Big Data es acaso el Gran Hermano?Afortunadamente, todo lo que ha pasado recientemente va a servirnos para despertar a tiempo. Creo que es un tema ante el que la opinión pública está ya muy sensibilizada, y los gigantes tecnológicos nos pueden seguir escondiendo la cabeza o hacer como si cosa no fuera con ellos. En este sentido, creo que la Unión Europea ha marcado el horizonte con la Regulación General de Protección de Datos (GDPR), que entrará en vigor en mayo. Es un primer paso para defender los derechos de los ciudadanos y poner a las compañías en su sitio. Pero harán falta dar más pasos: hoy por hoy, los usuarios de internet estamos prácticamente desprotegidos y dejando rastros en cada paso que damos. La extracción, manejo y gestión de datos es el gran negocio del siglo XXI.Usted advierte que la amenaza primordial de la IA es el “desempleo tecnológico”. Algunos estudios hablan de un 40% de empleos automatizados en las próximas dos décadas. ¿Nos quitará el trabajo un robot?En este terreno, la gente tiene razones sobradas para estar preocupada. Lo que está ocurriendo con la revolución tecnológica es comparable con la Revolución Industrial, sólo que en esta ocasión me temo que se van destruir más empleos de los que se construyan. Todos los trabajos rutinarios o mecánicos están amenazados. La parte más rutinaria de los abogados o de los médicos será también desempeñada por máquinas, que estarán incluso mejor capacitadas para hacer diagnósticos. Ningún sector quedará indemne de la inteligencia artificial, y el efecto a medio plazo debería precuparnos.

 

Muchos trabajos van a desaparecer, y los que surjan van a ser altamente especializados, como el análisis de datos. Los profesionales van a tener que adaptarse a la nueva situación, y el sistema educativo va a necesitar también un severo ajuste. Creo que deberíamos tener ya un profundo debate sobre cómo adaptar la sociedad a la nueva situación. Tengo, eso sí, la esperanza de que seamos sensatos a la hora de ceder el testigo a las máquinas, y que no sólo primen factores económicos. Hay trabajos que siempre harán mejor los humanos, y muchos otros en los que precisamente se valorará el contacto humano, frente al tratamiento impersonal de la máquina.

 

 “Los usuarios de internet estamos desprotegidos y dejamos rastros en cada paso que damos. La extracción, manejo y gestión de datos es el gran negocio del siglo XXI”

 

 

Resultado de imagen de Internet y los datos para el negocio

 

 

 

 

¿Cómo afectará la IA a nuestra vida diaria a corto plazo?
Ningún aspecto de nuestra vida va a escapar a la IA. Todos los sectores van a resultar afectados de una u otra manera. Basta que con que alguien con suficiente imaginación identifique el problema y escriba el programa. Muchos de los cambios que veremos serán a mejor, pero todos los avances tecnológicos tienen consecuencias no previstas. Internet nos ha hecho la vida más fácil sin salir de casa, pero se lo está poniendo muy difícil a los comercios a pie de calle.
¿Y cuándo veremos coches sin conductor circulando por las calles?
No soy muy amiga de hacer previsiones a corto o medio plazo, entre otras cosas porque siempre hay elementos imprevisibles que cambian por completo el escenario. La tecnología está ahí, pero hay muchos otros factores que conviene tener en cuenta. El más importante de ellos, el factor humano. El imperativo ético para la implantación de tecnologías de IA debería ser ese: poner a los seres humano primero.
La Inteligencia Artificial Amigable, acuñada por Eliezer Yudkowsky, va por ese camino…
La FAI (por sus siglas en inglés) propone efectivamente “un efecto positivo sobre la humanidad”, pero va más allá de las cuestiones éticas y reclama también principios como la transparencia, para garantizar que las tecnologías sigan siendo “amigables” ante posibles cambios. Es una noción interesante que refleja el interés creciente que hay entre los expertos por poner los valores humanos al frente de la IA.
Usted ha levantado también la voz contra el uso y abuso de robots de compañía…
Es uno de los asuntos que más me preocupa, es cierto. Se están comercializando ya los “acompañantes computerizados” para ancianos, los “robots niñera” e incluso robots sexuales… Mi tesis es ésta: no podemos intentar solucionar un problema esencialmente humano, como el de la soledad o el aislamiento social, usando una máquina como sustituta.

El cuidado de los mayores, por ejemplo, requiere sobre todo atención humana ¿Y qué estamos haciendo? Recortando los gastos sociales y poniendo en la calle a trabajadores irremplazables. El robot no puede ser un cuidador. Puede en todo caso dar la alarma si una persona se pone enferma, puede controlar que se tome las pastillas o puede incluso entretenerla, pero nunca cuidar a una persona, ni mantener una conversación para la que se requiere empatía e inteligencia emocional.

 

 

 

 

 

 

Stephen Hawking definía la inteligencia como “la capacidad para adaptarse a a los cambios”. ¿Se quedo corto en la definición?Definir la inteligencia es una misión casi imposible. ¿La habilidad para lograr nuestros objetivos y satisfacer nuestras necesidades? Esa definición tampoco me vale. Al fin y al cabo el cerebro sigue encerrando muchos misterios que aún no hemos conseguido descifrar, y mucho menos emular. Y hay quienes sostienen que hemos tenido hasta ahora una visión demasiado “cerebral”… Durante mucho tiempo se circunscribió la inteligencia a su dimensión racional, pero ahora hablamos de inteligencia emocional y de inteligencia social, y en esos dos terrenos les queda aún un largo camino que recorrer a las máquinas.Usted identifica precisamente la emoción, la creatividad y el lenguaje como los tres talones de Aquiles de la Inteligencia Artificial Fuerte (IAF), que aspira a igualar o a exceder la inteligencia humana…Es cierto. Pero también lo es que, incluso en estos ámbitos que seguimos considerando “esencialmente humanos”, la IA ha llegado ya más lejos de lo que mucha gente cree. No solo en el terreno del lenguaje, que quizás es el más conocido, también en el de la creatividad y en sus tres variantes (combinatoria, exploratoria y transformacional). La emoción puede resultar lo más ajeno a la inteligencia emocional y, sin embargo, desde finales de los años 90 ha habido intentos de trasladar a una máquina los aspectos funcionales de la ansiedad, como el sistema Minder de Aaron Sloman, pensado para meterse en la piel de una enfermera humana y decidir las prioridades.

 

Resultado de imagen de Un robot nunca podrá ser sabio
¿Y qué me dice de la sabiduría? ¿Tendremos algún día máquinas “sabias”?
La sabiduría es algo que no tendrá una máquina en un futuro predecible. Sobre esto ha escrito mucho el filósofo Nicholas Maxwell, que distingue claramente entre sabiduría y conocimiento. La sabiduría va mucho más allá del conocimiento y comporta la experiencia, la sensatez y la prudencia, entre otras cualidades.
¿La sabiduría es algo que se adquiere con los años?
No lo sé. Lo que yo he intentado no perder es la curiosidad intelectual. Alguna vez he dicho que me considero “una mariposa intelectual”. Al fin y a cabo llegué hasta la inteligencia artificial después de haber tocado muchos palos. Mi primer interés fue la medicina, de ahí salté a la filosofía, después la psicología y las ciencias cognitivas. Todo este camino me permitió tener una visión bastante amplia de lo que es la IA.

 “La inteligencia artificial no alcanzará la ‘sabiduría’ en un futuro predecible”

Usted es pionera con uno de los primeros libros sobre el tema en 1977…
Tanto como pionera no, pero sí fui una de las primeras mujeres en interesarse por el tema.
¿Cuál fue su experiencia en un mundo académico y científico dominado por los hombres?
Bastante surrealista a veces. Recuerdo que cuando leí mi primer paper sobre teoría explicativa del conocimiento, intentando indagar en el concepto de verdad, el jurado no me felicitó como suele ser habitual. El único comentario que me hicieron fue: “Como usted es una mujer, la verdad no le parece importante”… Yo no me dejé desalentar, pero el ambiente en el que nos movíamos era realmente opresivo, y más aún en terreno abonado para los hombres como el de la informática.
Resultado de imagen de Stephanie Shirley

La historia que lo dice todo es la de Stephanie Shirley, emprendedora y auténtica pionera de la tecnología de la información en este país. Todo el mundo la conoce como Steve Shirley, porque tuvo que masculinizar su nombrepara que la aceptaran en ofertas de trabajo.Al cabo de más de 50 años sigue arraigada en Brighton y vinculada a la Universidad de Sussex. ¿No cayó en la tentación de Oxford o Cambridge?Ofertas no me faltaron, pero he sido fiel a la Universidad de Sussex porque fue pionera con la creación de la Escuela de Ciencias Cognitivas e Informáticas (COGS, por sus siglas en inglés) y por su aproximación multidisciplinar, que creo que fue muy visionaria.

>_ “Cuando leí mi primer paper, el jurado me dijo: “Como usted es una mujer, la verdad no le parece importante”… Yo no me dejé desalentar, pero el ambiente en el que nos movíamos era realmente opresivo”

¿Qué consejo le daría a una mujer que decida explorar el mundo de la inteligencia artificial?
Que vaya a por ello, con deteminación y sin dudar. Y sin ponerse nunca en una situación de inferioridad o debilidad frente a los hombres, sobre todo en las entrevistas de trabajo.
¿Y qué opinan sus cuatro nietos de la abuela de la inteligencia artificial?
Mis nietos, una niña y tres niños, son nativos digitales y tienen una relación con las máquinas bastante más natural. Pero he de confesar que me preocupa su futuro. Creo que será la primera generación en mucho tiempo que vivirá en peores condiciones económicas que sus padres y enfrentada además a un mundo cargado de incertidumbre y de grandes retos, de la automatización al cambio climático, que es lo que más me preocupa… Por no hablar del Brexit. Es injusto que les estemos cerrando las puertas de Europa, como es absurdo que renunciemos a la financiación de la UE, que es esencial para la investigación en muchas universidades británicas.

¿La Inteligencia Artificial? ¡¡Un Peligro!!

Autor por Emilio Silvera    ~    Archivo Clasificado en I. A.    ~    Comentarios Comments (1)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Por qué la inteligencia artificial aún no llega al nivel de «Terminator»

 

El automatismo de los sistemas lleva más de 50 años sin un consenso en lo referente a la regulación, mientras la nueva revolución industrial simplifica tareas en el mercado de trabajo

Por qué la inteligencia artificial aún no llega al nivel de «Terminator»

 

 

 

 

 

 

La ciencia ficción introdujo las posibilidades de las máquinas en un futuro no muy lejano, films como «Terminator» o «Robocop» mostraron las dos caras de los beneficios y los peligros tácitos de la robótica. Sin embargo, el debate desde hace años se encuentra en un vaivén y más cuando se tercia si se le da la posibilidad a un exoesqueleto de metal de tomar decisiones como un ser humano, revolucionando de esta manera el paradigma de la ética a través de la inteligencia artificial.

Resultado de imagen

Hace unos años, el científico Stephen Hawking alertó de la amenaza que podía representar la robótica, sobretodo cuando se le integra un sistema de inteligencia artificial e si esta no se moderaba: «Los robots son una amenaza para la humanidad. Los seres humanos que están limitados por la evolución biológica lenta, no podrían competir por la inteligencia artificial, y serían superados por ella».

Mark Zuckerberg, el fundador de Facebook, es uno de los precursores del desarrollo de este tipo de tecnología, además de ser parte de la postura contraria que alienta a los desarrolladores a no ser víctima del miedo. Por contra, Elon Musk -que ha fundado y dirige empresas como Tesla, SpaceX, Hyperloop One o Paypal, es quien lidera la versión moderada de implantar una serie de medidas reguladoras. Los dos tecnólogos tuvieron un enfrentamiento sobre las medidas delimitadoras en las que se debería desarrollar.

Resultado de imagen de La Inteligencia Artificial del futuro

     Si no sabemos manejar este espinoso asunto, las cosas se podrían poner feas para los humanos

Las opiniones generadas entorno a esta área han llegado a la formación de manifiestos y grupos contrarios a su desarrollo sin control, mientras que otros acreditan que ciertas posturas están fundamentadas en el terror. Lo cierto es que este verano saltó la voz de alarma cuando Facebook tuvo quedesactivar un experimento de inteligencia artificial, porque dos bots programados para aprender a negociar habían llegado a la conclusión de que era más fácil regatear con un idioma más simple extraído del inglés; es decir, inventaron su propio lenguaje inentendible para el ser humano.

Enrique Domínguez, director estratégico de InnoTech, aclara que en este tipo de experimentos ocurren desenlaces imprevisibles como parte de lo que supone la propia investigación. Por lo que, se debe matizar en el caso de estos dos bots que «no pensábamos que iban a reaccionar así», en lugar de «que no estaban programados para ello». Por lo tanto, «no se apagó porque se hubiera sucumbido al pánico, sino que ya se había cumplido el objetivo del experimento». Sin embargo, ambos bots no habían sido programados para que negociasen en un idioma entendible, porque al fin y al cabo las máquinas siguen sus normas establecidas en el código.

Imagen relacionada

          Todos los indicios nos dicen que, con facilidad, los “Seres” Artificiales nos superarán

«Esto que veíamos en la película de Terminator de una inteligencia que se haga consciente de que es inteligente y trate de asumir el control o imponerse sobre los demás, queda todavía muy lejos», recalca el Dr. en Inteligencia Artificial y profesor de la Universidad Europea Javier Sánchez. En la situación actual de la IA, «tenemos muchos sistemas que son especializados en labores concretas y las hacen muy bien, pero no hay un sistema que sea capaz de hacer muchas cosas muy bien hechas», añade además.

Sin embargo, la preocupación existe y discurre no en la tesitura de que un sistema funcione sin las pautas establecidas por un ser humano, sino por la falta de un consenso de la ética que deben seguir los sistemas inteligentes y el nivel de ciberseguridad para que los delincuentes no alteren su lógica marcada. «Sí que hay ciertos asuntos que hacen preocuparnos como lo relativo a la privacidad y la seguridad. Porque se está empezando a ver sistemas que están muy especializados en un área y eso puede suponer una amenaza», indica Sánchez. En este sentido, resuena a menudo las tres leyes de la robótica que estableció Isaac Asimov en su libro «Yo, robot» y que ha quedado plasmada a lo largo de la literatura de ciencia ficción.

Resultado de imagen de Imágenes de Yo Robot

    En ésta película pudimos ver la rebelión de los Robots que, bien podría ser un presagio de futuro

En primer lugar un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño, en el segundo caso un robot debe hacer o realizar las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la primera ley y por último un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda ley.

Dichas reglas son una buena manera de plantear la ética en la inteligencia artificial, pero «no responde realmente a los límites que deben tener la inteligencia artificial. La forma de expresarlo todavía no es tan pragmático como las reglas del libro «Yo, robot» de Isaac Asimov» cuenta a este diario Isabel Fernández, Managing Director de Accenture Analytics en el área de IA. Dentro de la postura Accenture, recalca Fernández que es primordial que la IA «nunca supere la inteligencia de un ser humano, por algo muy sencillo, porque en el momento en que lo supere no tendremos capacidad para controlarlo».

Sin regulación

 

 

Resultado de imagen de La Inteligencia Artificial del futuro

 

 

Si sabemos regular, mediante una Ley, hasta donde se puede llegar con la I.A., los avances podrían ser controlados pero, siempre estará el científico independiente de “geniales” ideas que de con todo al traste y no cumpla las Normas.

 

¿Por qué resultan tan difícil establecer un consenso internacional para el desarrollo de la inteligencia artificial? Esta cuestión es a menudo respondida por el caso de los vehículos sin conductor, «un coche autónomo que haría si tiene que decidir entre matar a sus ocupantes o cinco personas en un paso de peatones», expone Domínguez. Dentro de la cuestión ética también trae consigo el componente de la cultura, que no es universal.

En las distintas vertientes de la IA, se ha obtenido en ciertas áreas un nivel de especialización mucho mayor, por lo que el Dr. Sánchez opina que «si esto lo combinamos con máquinas con autonomía de tomar ciertas decisiones estratégicas y operar en dispositivos que en este caso sí que podrían ser armas, pues puede suponer un riesgo». Por lo que, ajeno a ese mundo apocalíptico de máquinas superiores, hay que centrar los esfuerzos en controles de calidad para garantizar cierto nivel de calidad.

Resultado de imagen de La Inteligencia Artificial del futuro

                   Esta escena es ya un hecho, los humanos juegan al ajedres con máquinas

La inteligencia artificial busca simular comportamientos que los seres humanos podemos interpretar como inteligentes, pero son los que toman decisiones de cierto calibre los que están en el foco de atención. IBM es una de las compañías punteras en lo referente a lo que llaman sistemas cognitivos, el software Watson que utilizan algunas empresas para sus sistemas se están empleando en casos reales como el diagnóstico de enfermedades. Cada Watson es distinto dependiendo del objetivo predispuesto al igual que la base de datos con la que está conectada, porque al fin y al cabo es una herramienta que lee muchos datos que una persona no podría abarcar, pero que despiertan dudas.

Por un lado, el director estratégico de InnoTech explica que «estos sistemas expertos a mí me preocupan desde el punto de vista de ciberseguridad, porque qué pasaría si alguien consigue atacarlos y modificar su comportamiento -bien sea alimentándolos de datos maliciosos para que cambian su manera de comportarse o de alguna manera transmutándolos para que de alguna manera cambien sus decisiones- ahí podríamos estar hablando de muertes de personas o incluso de colapsos de compañías a nivel económico».

Resultado de imagen de Los Robots están presentes en los quirófanos

Los Robots están presentes en los quirófanos y en otros ámbitos de nuestras vidas, el que poco a poco y de manera silenciosa se introduzcan en nuestra Sociedad, y, comiencen a pensar… ¡sólo es cosa de Tiempo!

Asimismo, el profesor de la UE señala que «si estás hablando de diagnósticos clínicos estás hablando de protección de datos. Parece una contradicción, pero algunas de las aplicaciones más interesantes y más complejas, algunas ya eran capaces de hacer diagnósticos hace años, de cómo iba a evolucionar una enfermedad y con tasas de aciertos muy altas».

Resultado de imagen de IBM y la Robótica

                            Se empieza como si de un juego se tratara y… ¿Cómo se acabará?

Algunas empresas, ante la falta de consenso, han elaborado sus propia pautas y las comparten con otros entornos, como en el caso de IBM. La compañía tecnológica ha compilado tres principios. En primer lugar, lo que llaman el diseño que se refiere a «la capacidad de amplificar una persona», explica Elisa Marín, directora de Innovación IBM España, «debido a la gran generación de conocimiento entorno a la era digital, toda la información es valiosa» de manera diferente para cada persona. En segundo lugar, el principio de credibilidad para que «generemos confianza a las personas de su utilización». Por último el principio de fiabilidad del comportamiento para que solucione un problema de un dominio específico.

Por otro lado, Marín también aclara que los programas Watson como son diferentes, también funcionan a partir de bases de datos distintas. Al estar concentrados y separados, se reduce el riesgo del problema que pueda haber con la información, así como los datos que se vayan generando vayan únicamente a «la entidad que aporta la solución». Por otro lado, también hay un Watson de computación cognitiva en las amenazas de seguridad.

Resultado de imagen de la Robótica una amenaza real

Sí, hoy muchos de los automóviles que circulan por nuestras carreteras han sido fabricado por robots, y, algunos, hasta los llevan dentro para que aparquen solos, o, incluso, se les marque el viaje que harán sin necesidad de conductor… ¡No me gusta nada!

En el caso de la postura Accenture, la compañía apuesta por lo que llama la Inteligencia Artificial Responsable porque creen «que es una fuerza transformadora de la sociedad que sí debe haber niveles de regulación, pero no porque tengamos miedo de lo que nos pueda traer la inteligencia artificial, porque estamos intentando que avance quitándonos tareas que pueden ser hechas por máquinas y dejándonos tareas que podemos aportar mucho más como humanos. Pero sí, tiene que estar regulada», defiende la Managing Director de Accenture Analytics.

Elon Musk: “La Inteligencia Artifical puede acabar con la humanidad”

Autor por Emilio Silvera    ~    Archivo Clasificado en I. A.    ~    Comentarios Comments (1)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Resultado de imagen de inteligencia artificial

Reportaaje de:  Elías Rodríguez García

Elon Musk cree que deberíamos tomar medidas para legislar la Inteligencia Artificial.

Elon Musk está siendo uno de los personajes del siglo XXI más importantes en cuanto a tecnología se refiere. Es el CEO de una de las compañías que está cambiando el transporte y además tiene otros proyectos importantes entre manos (Hyperloop y SpaceX). También es uno de los precursores de la polémica renta universal, además de otras teorías que deberíamos ir planteándonos dentro de muy poco.

Una de esas no tan locas ideas del empresario que quiere conquistar Martepara 2025 es comenzar a legislar el campo de la Inteligencia Artificial (IA). A pesar de que ha afirmado estar en contra de regulaciones estrictas, en el ámbito de la IA cree que es distinto. Así lo ha manifestado en una asambleaestadounidense donde intervenían dirigentes de diferentes naciones de USA.

La idealización de Elon Musk. ¿Es el nuevo Steve Jobs?

«En 20 años, no es que no vaya a haber gente al volante, es que directamente no habrá volante», lo que para Musk haría replantearnos seriamente las cosas.

Regular la Inteligencia Artificial antes de que sea tarde

La Inteligencia Artificial es el nuevo campo de desarrollo. Además, permitirá avances tecnológicos terriblemente grandes. No es dar marcha atrás, por supuesto, sino que habría que pisar el freno. Ha añadido que cuando queramos reaccionar y regular la IA, «será demasiado tarde» ¿Se referirá concretamente a que podría acabar con la raza humana? En efecto, añade que «se trata de un riesgo para la existencia de la civilización humana».

 

«Hasta que la gente no vea robots matando personas no se entenderá el peligro de la IA»

 

A pesar de que podría considerarse como un pensamiento muy extremista o apocalíptico, afirma que no se trata de nada algo etéreo. Hay que actuar y debe ser ya.

«[Refiriéndose a la IA] podrían comenzar una guerra publicando noticias falsas, robando cuentas de correo electrónico y enviando notas de prensa falsas, solo con manipular información».

Las próximas industrias que serán conquistadas por la Inteligencia Artificial

 

 

Por último, recuerda que los robots nunca se cansarán. Además de que harán nuestro trabajo mucho mejor. Esto supondrá toda una revolución en el sector industrial y en general también en el resto.

Otros intelectuales como Stephen Hawking están totalmente en contra del avance de la Inteligencia Artificial; como si de la invención de la bomba atómica se tratase. Para este otro «La inteligencia artificial podría significar el fin de la raza humana».

Los pros y los contras de las máquinas más listas

Autor por Emilio Silvera    ~    Archivo Clasificado en I. A.    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

Inteligencia artificial

 

El aprendizaje automático es uno de los campos con más proyección  en inteligencia artificial.

 

 

 

Tenemos la clave para fabricar máquinas listas. Intel

 

Reportaje de Pablo G. Bejerano
 

Los miles de millones de dispositivos que se conectan a internet cada día generan una cantidad abrumadora de información. Son montones de terabytes de datos que aparecen de la nada diariamente.

Esto abre el apetito por obtener valor de la información. Y la inteligencia artificial es clave aquí. El término se suele asociar con la robótica, una herencia cultural de la ciencia ficción, pero lo cierto es que la inteligencia artificial es algo mucho más abstracto que robots humanoides caminando o que los dilemas del superordenador Hal en 2001: una odisea del espacio.

Ojo cámara (con lente fish eye es decir con una visual muy panóptica) de color rojo (para detectar por filtro cromático incluso la “luz” IR no perceptible por el ser humano), usado para representar a HAL 9000 en uno de sus aspectos de control prácticamente orweliano.

Podría decirse que la inteligencia artificial asoma la cabeza por primera vez en los años 60 con sistemas predictivos y a partir de ahí evoluciona a velocidad de crucero. Hoy se usa para evitar fraudes bancarios, en el reconocimiento de voz, en el filtro anti spam del correo electrónico, incluso en el etiquetado de fotos automático de Facebook o en los videojuegos.

Lo que está por venir en inteligencia artificial –ya se ha investigado mucho sobre ello– son los coches autónomos, la medicina de alta precisión o el procesamiento del lenguaje natural que le pediremos a los Siri, Google Now o Cortana en los próximos años. Son algunas de las áreas para las que el aprendizaje automático o machine learning es necesario.

Creada una máquina que aprende como una persona

Que las máquinas aprendan es fundamental porque es uno de los elementos que retrasará su obsolescencia prematura, reforzando su autonomía. Este aprendizaje es uno de los temas que han sobrevolado la Conferencia Internacional de Desarrolladores (IDF) de Intel.

Hoy el 7% de todos los servidores presentes en el mundo están dedicados a tareas de aprendizaje automático. Y más del 97% de estos servidores funcionan con procesadores de Intel. Si bien en campos como los coches autónomos la compañía se ve amenazada por los productos de su competidora Nvidia.

En todo caso, esta rama de la inteligencia artificial es la que tiene mayor proyección. Intel proporciona el hardware sobre el que los desarrolladores pueden programar sus algoritmos de inteligencia artificial. Para entrenar a los algoritmos la compañía ofrece el procesador Xeon Phi, mientras que para ejecutar una tarea determinada, ya aprendida, cuenta con el Xeon.

                                                                        Un centro de datos de Intel. Intel

 

“Trabajamos con instituciones académicas y desarrolladores para asegurarnos de que pueden usar el hardware optimizado”, comenta Nidhi Chappell, responsable de aprendizaje automático en la división de centros de datos de Intel. “Hay muchos beneficios en tener el software y el hardware optimizado. ¿Podrías trabajar con procesamiento del lenguaje natural en un Xeon no optimizado? Sí, pero cuanto más optimices los elementos, tanto en software como en el hardware, más rápido harás los trabajos”.

Se necesita que el rendimiento del hardware sea muy alto, pero también que sea fácil de poner en marcha. Y otra de las claves para optimizar este aspecto es la compatibilidad con diferentes tipos de algoritmos. “Queremos habilitar nuestros productos para soluciones que estén basadas en código abierto”, indica Chappell. “Pues muchas de las cargas de trabajo en deep learning, como el procesamiento del lenguaje natural o el etiquetado de imágenes, están basadas en frameworks (marcos de trabajo para desarrollar software) de código abierto”.

Los algoritmos del ‘Deep learning’

 

 

 

 

El Deep learning o aprendizaje profundo, considerado una parte del aprendizaje automático, se basa en redes neuronales artificiales, inspiradas en el funcionamiento de sistemas biológicos. Muchos algoritmos que usan deep learning proceden de empresas o universidades, como Google o Berkeley, y una parte de ellos están bajo código abierto. Lo que hace Intel es asegurarse de que la arquitectura de sus productos está optimizada para estos algoritmos.

El conocimiento que los nutre proviene de compañías privadas, de centros académicos y también de instituciones públicas. No todo se pone a disposición del público, pero compartir la información y los progresos técnicos es uno de los motores para el aprendizaje de las máquinas.

Cloudera, una de las empresas presentes en el IDF, trabaja en big data con plataformas de código abierto. Su portavoz en el congreso de Intel, Johnny Pak, cree que la colaboración es necesaria para no estancarse. “El código abierto ayudará al desarrollo rápido de la inteligencia artificial. La posibilidad de construir sobre el trabajo de otros es lo que va a ayudar a avanzar”, reflexiona.

                                                   El conocimiento proviene de múltiples fuentes. Intel

 

Aprender bien la lección

 

 

 

El aprendizaje automático tiene otra cara. Se puede descontrolar, como le ocurrió al bot Tay, programado por Microsoft para aprender de la gente a través de sus interacciones en Twitter. Su cuenta en la red social pronto empezó a lanzar mensajes xenófobos tras el troleo de algunos usuarios y la compañía tuvo que suspender este experimento social.

“Siempre se necesitará un marco para limitar al algoritmo”, es la opinión de Pak. “Una máquina no es más que un conjunto de algoritmos. Lo que significa que las máquinas no tienen la libertad que las personas tenemos”. Así, esa especie de libertad social que Tay tuvo para aprender acabó por volverse en su contra. “Si vas a usar algoritmos en un entorno social creo que tienes que poner unos límites, de la misma forma que nosotros tenemos límites sociales”, sentencia Pak.

Es una forma de controlar la toma de decisiones. Por cierto, para una persona estas decisiones no siempre están basadas en el razonamiento lógico y no siempre se obtiene así el mejor resultado. La intuición a veces es un factor determinante y no es algo que se aprenda de forma lógica. ¿Pueden los algoritmos actuales dotar a una máquina de intuición?

El caso que más se acerca a una toma de decisiones intuitiva por una máquina es el del sistema Alpha Go, desarrollado por Google y que venció Lee Sedol, el campeón mundial del Go, un juego mucho más complejo de aprender para una máquina que por ejemplo el ajedrez.

Pak apunta que la toma de decisiones de Alpha Go a veces no partía de la lógica. “No estaba calculando, como sí hacen en ajedrez, millones de interacciones para determinar qué es lo que va a hacer el jugador. Tenía que vislumbrar cuál era el mejor movimiento. Y ganó. Lee solo gano una partida”. Y es que ni siquiera los científicos detrás de Alpha Go predecían cómo se iba a comportar su programa.

Guardar

¿Llegará la I.A. a superar a los Humanos?

Autor por Emilio Silvera    ~    Archivo Clasificado en I. A.    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

Literatura y ciencia

La novela de un robot, finalista en un premio literario

Los algoritmos de la Inteligencia Artificial triunfan entre los escritores: ya son capaces de emocionar al jurado de un concurso.

Hall 9000, el ojo de Odisea en el Espacio, de Stanley Kubrick.
Hall 9000, el ojo de Odisea en el Espacio, de Stanley Kubrick.

 

Lorena G. Maldonado

Cuenta el documental Gonzo que Hunter S. Thompson se sentó un día frente a su máquina de escribir y copió una y otra vez El gran Gatsby hasta que fue capaz de reproducir “la música” de Fitzgerald, el ritmo de su prosa en base a las teclas. Ahí había un algoritmo, dado que el estilo siempre requiere de repetición. Lo mismo hizo el PC Writer 2008, un programa informático al que se le incorporó el vocabulario, el lenguaje y las herramientas narrativas de trece escritores, además de los datos que perfilaban a los personajes de la obra, una trama y un tiempo y un lugar en los que desarrollar la historia.

En tres días, voilà: ya había parido una novela. Eso sí: la máquina imitaba la forma de escribir de Haruki Murakami (Tokio Blues o Crónica del pájaro que da cuerda al mundo) y sus personajes se parecían sospechosamente a los de Anna Karenina. El título tampoco era muy original: Amor verdadero. Tras el proceso de corrección -el mismo que se lleva a cabo cuando el texto procede de la mano humana-, la novela fue publicada por la editorial rusa Astral Spb.

La máquina imitaba la forma de escribir de Haruki Murakami y sus personajes se parecían sospechosamente a los de Anna Karenina. El título tampoco era muy original: Amor verdadero

Ya en 2007, la revista Discovery Channel hablaba de MEXICA, un programa informático que escribía sus propios relatos de ficción basándose en representaciones computerizadas de emociones y tensiones entre diversos personajes. Aunque ambos sistemas necesiten de una revisión humana al final de su trabajo, es indiscutible que sus capacidades dan miedo. Ya lo decía la tercera ley de Clarke: toda tecnología lo suficientemente avanzada es indistinguible de la magia. La creación artificial no da los quebraderos de cabeza de la humana, al menos a ojos de la industria: es más obediente a las características requeridas por el editor y sus honorarios son más bajos.

Sucedió en Japón

Claro que las secuencias sintácticas se pueden generar -emulando estilos, seleccionando léxicos-, pero ¿y el sentido literario-poético humano? ¿Podemos clonar o reproducir algo que no sabemos definir exactamente? Aquí el tradicional problema de la inteligencia artificial: el humor. ¿Cuáles son los mecanismos de la risa? Se han dado pasos en esta dirección -a principios de este año, el equipo de investigación de Virginia Tech, en EEUU, aseguró haber encontrado un algoritmo que entiende y predice el humor en imágenes-, pero no se ha conseguido lo propio con la herramienta del lenguaje.

Quedaba ahí un consuelo: la sensación que nos da de que la máquina está creando es sólo eso, una sensación, porque en realidad está uniendo extractos de cosas que le han enseñado previamente. Sólo eso: las organiza de forma nueva, distinta. Y se le nota: igual que se notan las influencias feroces de algunos autores que les llevan a una imitación más o menos descarada. Menos mal que las máquinas -aún- no se han sofisticado tanto.

La sensación que nos da de que la máquina está creando es sólo eso, una sensación, porque en realidad está uniendo extractos de cosas que le han enseñado previamente

Cuando el ser humano -y el escritor- volvían a sentirse imprescindibles, estalla la noticia: según The Japan News, una novela coescrita por seres humanos y un programa de inteligencia artificial ha llegado a la segunda fase del proceso de selección de un premio literario nacional. Aunque no alcanzó el premio final, el jurado se quedó francamente sorprendido al enterarse de que la historia había sido producida por una máquina.

La novela finalista la había presentado un equipo de investigadores encabezado por Hitoshi Matsubara, profesor de la Universidad del Futuro-Hakodate, e imitaba el estilo de Shinichi Hoshi, un escritor japonés reconocido por sus obras de ciencia ficción. Ésta no fue la única de elaboración artificial: este mismo equipo había presentado otro relato más, y el grupo científico liderado por el profesor de la Escuela de Ingeniería de la Universidad de Tokio, Fujio Toriumi, había enviado otras dos historias.

Describir a un personaje

La cuadrilla de Matsubara estableció los parámetros de la novela, como la trama y el sexo de los personajes, y dejó al artefacto actuar: no lo hizo mal, claro, pero, según las palabras de un miembro del jurado, el novelista Satoshi Hase: “Aunque me sorprendió el trabajo -era una novela muy bien estructurada-, este sistema tiene todavía algunos problemas para ganar el premio, por ejemplo, la descripción de los personajes”.

Es curioso: la inteligencia artificial entiende de códigos, de relaciones, de lógica verbal y aritmética, pero no tiene capacidad de imaginar. De crear de la nada. De fabular. Se acerca al hemisferio cerebral izquierdo a pasos agigantados, pero el derecho -sensaciones, sentimientos, habilidades visuales y sonoras…- ni lo roza. Puede dividir un texto en capítulos ordenados y coherentes, pero no puede dotar de alma a sus personajes ni a sus espacios. Es un alivio -por ahora-.

Aunque la novela artificial pudo pasar una etapa del proceso del premio, no convenció el hecho de que no describiese a sus personajes

El Premio Hoshi Shinichi es conocido por aceptar solicitantes que no sean seres humanos -esto es, programas de inteligencia artificial y variantes-, pero según la secretaría del concurso, este año ha sido la primera vez que una historia de este tipo supera una etapa. El profesor ha hecho saber que inició este proyecto hace cuatro años y que no va a rendirse hasta perfeccionar su programa.

La máquina que le hace los guiones a Friends

Otras aplicaciones están tomándole la delantera: en octubre del año pasado apareció Wordsmith, que es capaz de escribir artículos -ya está siendo usada por Associated Press para crear 3000 artículos cada trimestre sobre resultados fiscales de compañías-; y en enero de 2016, Andy Herd creó una red neuronal que puede generar diálogos de la famosa serie Friends a partir de los diálogos originales de la serie.

La inteligencia artificial ya puede escribir discursos políticos -siguiendo perfectamente una línea ideológica con palabras claves- e incluso pasar las pruebas de acceso de universidades japonesas. La última que ha liado es conseguir derrotar a un ser humano en una partida de Go, como se demostró en el programa AlphaGo.

La inteligencia artificial ya puede escribir discursos políticos e incluso pasar las pruebas de acceso de universidades japonesas

El espectador de Her, la película de Spike Jonze, entendió en la escena de ‘sexo’ entre Phoenix y la voz de Johansson -trufada de un negro orgasmático- que el ser humano es lenguaje: que la imaginación, a remolque de la palabra, trasciende a lo físico y es capaz de excitar. La intención, el juego, el guiño de la inteligencia, ensanchan la sintaxis hacia campos donde la máquina no llega. Además, los programas de inteligencia artificial necesitan de información que procesar para seguir “viviendo”: si no la reciben, pierden su propósito y dejan de existir. El ser humano sí tiene eso de inagotable. No puede desconectarse del recuerdo, de la propia experiencia -que es la fuerza motor de la escritura-. No puede. Por ahora.