El cerebro humano es reconocido por su asombrosa complejidad, siendo considerado por muchos como la estructura más compleja en el universo. Contiene una gran cantidad de neuronas y conexiones, lo que le permite realizar funciones cognitivas, emocionales y motoras. La complejidad del cerebro se manifiesta en su estructura, funciones y en la forma en la que las neuronas se interconectan y comunican.
A primera vista el edificio de la ciencia aparenta estar erigido sobre suelo firme y profundos cimientos, como una unidad congruente, monolítica, dando fe de una sola realidad. Sin embargo, la ciencia es un constructo dinámico, cambiante. Según Thomas Kuhn: “Parece más bien una estructura destartalada con escasa coherencia. Es producto de la observación, del razonamiento y también de muchas pasiones, siempre de seres humanos.”
El estudio biológico del cerebro es un área multidisciplinar que abarca muchos niveles de estudio, desde el puramente molecular hasta el específicamente conductual y cognitivo, pasando por el nivel celular (neuronas individuales), los ensambles y redes pequeñas de neuronas (como las columnas corticales) y los ensambles grandes (como los propios de la percepción visual) incluyendo sistemas como la corteza cerebral o el cerebelo, e incluso, el nivel más alto del Sistema Nervioso.
Hemos podido llegar a saber que el cerebro, tanto si está despierto como si está dormido, tiene mucha actividad eléctrica, y no sólo por las señales individuales emitidas por una u otra neurona cuando se comunican entre sí. De hecho, el cerebro está envuelto por innumerables campos eléctricos superpuestos, generados por la actividad de los circuitos neuronales de las neuronas que se comunican. Una nueva investigación revela que estos campos son mucho más importantes de lo que se creía hasta ahora. Es posible que, de hecho, representen una forma adicional de comunicación neuronal. Se ha llegado a pensar que, con la evolución del cerebro, quizás algún día, los humanos, podamos transmitir telepáticamente. Sin embargo…
Aunque se han llevado a cabo muchos experimentos sobre la telepatía, su existencia no es aceptada por la gran mayoría de la comunidad científica, entre otras cosas, argumentando que las magnitudes de energía que el cerebro humano es capaz de producir resultan insuficientes para permitir la transmisión de información. No obstante, algunos investigadores señalan que, con la tecnología necesaria, en un futuro será posible interpretar las ondas cerebrales mediante algún dispositivo y enviar mensajes textuales a un receptor de manera inalámbrica, sin embargo descartan que este proceso pueda llevarse a cabo de cerebro a cerebro sin mediación tecnológica. Hasta la fecha, las únicas pruebas de la telepatía son las narraciones testimoniales, pues jamás se ha podido reproducir un fenómeno telepático en laboratorio.
La neurociencia es una de las teorías científicas con más éxito en las últimas décadas. Pero aún, en este apartado del edificio de la ciencia, al verlo de cerca nos encontramos con arenas movedizas. Los especialistas se enfrentan al gran reto de explicar cómo es que los procesos físicos en el cerebro pueden generar o incluso influenciar la experiencia subjetiva. Este es el llamado problema duro de la consciencia.
Pero… ¡Vayamos mucho más atrás!
Los ladrillos del cerebro: Es evidente que el estímulo para la expansión evolutiva del cerebro obedeció a diversas necesidades de adaptación como puede ser el incremento de la complejidad social de los grupos de homínidos y de sus relaciones interpersonales, así como la necesidad de pensar para buscar soluciones a problemas surgidos por la implantación de sociedades más modernas cada vez. Estas y otras muchas razones fueron las claves para que la selección natural incrementara ese prodigioso universo que es el cerebro humano.
Claro que, para levantar cualquier edificio, además de un estímulo para hacerlo se necesitan los ladrillos específicos con las que construirlo y la energía con la que mantenerlo funcionando.
La evolución rápida del cerebro no solo requirió alimentos de una elevada densidad energética y abundantes proteínas, vitaminas y minerales; el crecimiento del cerebro necesitó de otro elemento fundamental:
Un aporte adecuado de ácidos grasos poliinsaturados de larga cadena, que son componentes fundamentales de las membranas de las neuronas, las células que hacen funcionar nuestro cerebro. La sinapsis es la unión funcional intercelular especializada entre neuronas, en estos contactos se lleva a cabo la transmisión del impulso nervioso.
¿En que radica la facilidad de algunas personas para socializar mucho más fácilmente que otros? Más allá de una cuestión de carácter, existen rasgos biológicos que pueden ayudar a los científicos a entender en donde radica el secreto de la popularidad y, es el cerebro, en donde se encuentra la clave para descubrirlo.
De acuerdo con un estudio realizado por la Dra. en Neurociencias Mary Ann Noonan en de la Universidad de Oxford en Inglaterra, el cerebro de las personas que tienen numerosos amigos consta de seis partes más grandes y mejor conectadas entre sí que el de las personas con pocos amigos.
La Dra. Noonan, presentó el resultado de su investigación en la reunión de la Sociedad de Neurociencias, en donde comentó haber encontrado que los seres humanos en posesión de una gran red de amigos y buenas habilidades sociales tienen ciertas regiones del cerebro que son más grandes, mejor conectadas con otras regiones y, sobre todo, más desarrollados que aquellos que no tienen las mismas habilidades sociales. Los rasgos biológicos marcados pueden ayudar a los científicos a entender en donde radica el secreto de la popularidad.
Distintos pero iguales
De todas las maneras, estamos muy lejos de saber sobre una multitud de funciones y propiedades que están presentes en el cerebro y que, para los expertos, de momento, no tienen explicación. Por ejemplo, ¿por qué maduran antes las niñas que los niños? Las observaciones y los comportamientos de unos y otros nos han llevado a ese razonamiento final, y la verdad es que más allá de ser una opinión subjetiva, podría tener cierto fundamento.
Llega información y se generan ideas como explosiones luminosas
A medida que crecemos nuestros cerebros se reorganizan y eliminan gran parte de las conexiones neuronales, quedándose sólo con aquellas que realmente proporcionan información útil. Esta información es, entre otra, la proveniente de regiones cerebrales que aunque estén lejanas sirven para contextualizar y comprender mejor la nueva información percibida: por ejemplo, escuchar un determinado sonido puede evocar el recuerdo de ciertas emociones, percibir según qué expresiones faciales se asocia con diferentes sentimientos y comportamientos, y una melodía musical está ligado a otros recuerdos de distintos tipos.
De esta forma, aunque la cantidad general de conexiones será más reducida según vamos madurando, el cerebro conserva las conexiones de larga distancia, que son las más complejas de establecer y de mantener y las realmente importantes para la integración de la información. Con ellas se consigue un procesamiento más rápido y eficiente. Esto explica también por qué la función cerebral no solo no empeora, sino que, en lugar de eso, mejora con los años (por lo menos, hasta los aproximadamente 40 años).
Nuestro sistema nervioso está siempre cambiando, es probable que cuando termines de leer este texto tu cerebro no sea el mismo que al comienzo de la lectura. El sistema nervioso tiene la capacidad de reordenar y crear nuevas sinapsis (conexiones entre neuronas), y gracias a esta característica somos capaces de aprender.
Cada experiencia deja una huella que modifica las sinapsis neuronales y permite que nos adaptemos a los constantes cambios de nuestro entorno, esta es la llamada Plasticidad Neuronal, que permite generar nuevas conexiones entre las neuronas, producto del aprendizaje y su almacenamiento en la memoria. Es decir, ¡el cerebro se transforma con la experiencia!.
Claro que, cuando hablamos del cerebro lo estamos haciendo del objeto más complejo del universo. Tiene tanta complejidad en sí mismo, que sus más de cien mil millones de neuronas nos hablan por sí mismo de ella. Nada en nuestro Universo se puede comparar a un objeto que con sólo un 1,5 Kg de peso, tenga tantas facultades y desarrolle tánta actividad como lo hace el cerebro Humano (el más adelantado y evolucionado que hasta el momento conocemos).
Explicar cualquiera de las “cosas” que están presentes en el cerebro, es, en sí mismo, un complejo ejercicio que supone “todo un mundo”, aunque estemos hablando de un sólo elementos de los muchos que allí están presentes. Por ejemplo…
Dendrita, Soma, Axón, Núcleo, Vaina de Mielina (estructura de una neurona clásica)
Que es la mielina?
La mielina es la capa gruesa que recubre los axones (tallo de las neuronas o células nerviosas), cuya función permite la transmisión de impulsos nerviosos entre distintas partes del cuerpo gracias a su efecto aislante. Se le clasifica como una lipoproteína y se encuentra en el sistema nervioso de los vertebrados.
¿Cómo se forma la mielina?
La mielina se forma por una sustancia producida por las células de Schwann presentes en las neuronas conectivas y motoras, las cuales se enroscan a lo largo del axón formando la vaina de mielina, la cual es una sustancia que aísla con varias capas de lípidos y proteínas que rodean a los axones y acelera la conducción de los impulsos nerviosos al permitir que los potenciales de acción salten entre las regiones desnudas de los axones o nódulos de Ranvier (lugares donde no se enrosca la mielina o lugares no mielinizados), y a lo largo de los segmentos mielinizados.
Materia blanca y gris del cerebro
La mielina tiene un color blanco, de aquí la frase “materia blanca” la cual se refiere a la zona del cerebro cuyos axones están mielinizados, y la “materia gris”, se refiere a los cuerpos neuronales que no están mielinizados. La corteza cerebral, por ejemplo, es gris, al igual que el interior de la médula espinal (en donde los cuerpos neuronales se disponen en el centro y la mayoría de axones discurren por la periferia).
Formación del nervio espinal a partir de las raíces dorsal y ventral. (Sustancia gris etiquetada en el centro a la derecha). Conductor de impulsos eléctricos que envían y reciben mensajes de todo tipo al cuerpo. En definitiva podemos comprender que una sola “cosa”, la mielanina, tiene una importancia inmensa en el cerebro y, su falta, podría producir importantes disfunciones.
La imagen tomada de nuestro cerebro no se podría distinguir de otra tomada del Universo
Dentro de nuestras mentes, en una maraña de neuronas y conexiones de sinopsis que, de alguna manera, están conectadas con el Universo al que pertenecemos. Ahí reside la Conciencia de Ser y del mundo que nos rodea. Tras complicados procesos químicos de los elementos que conforman la materia compleja de nuestros cerebros, se ha desarrollado una estructura muy compleja de la que, al evolucionar durante miles de años, se ha podido llegar a generar pensamientos, profundas ideas y sentimientos.
No creo que seamos un único caso en el Universo. ¡Son tantos los mundos y las estrellas! Si en el Cosmos, la Conciencia estuviera representada sólo por nosotros… ¡Qué desperdicio de mundos, qué ilógica razón tendría el Universo para haber accedido a traer aquí, a una sola especie de observadores que, como bien sabemos, estamos expuestos, por mil motivos, a la extinción, y, sería una verdadera desgracia universal que los pensamientos y los sentimientos desaparecieran para siempre. ¿Qué clase de Universo sería ese? Sin estar presente ese ingrediente de los pensamientos y la consciencia… ¡Sería un Universo inútil!
Aunque es mucho lo que hemos conseguido conocer de nuestro cerebro y su funcionamiento, mucho más es lo que nos queda por conocer. Ahí, en todo ese conglomerado de complejas estructuras que juntas, forman un todo, es de donde surge la Conciencia y, para poder entender como ocurre tal maravilla, debemos antes y es preciso que entendamos primero como funciona el cerebro: su arquitectura, su desarrollo y sus funciones dinámicas, su organización anatómica y la increíble dinámica que llega a generar. Todo ella nos llevará a tener una odea del por qué puede, a partir de está increíble “maquina de la naturaleza” surgir la conciencia.
Si nos paramos a pensar en el hecho cierto de que, el cerebro humano adulto, con poco más de un kilo de peso, contiene unos cien mil millones de células nerviosas o neuronas, La capa ondulada más exterior o corteza cerebral, que es la parte del cerebro de evolución más reciente, contiene alrededor de 30 mil millones de neuronas y más de un billón de conexiones o sinapsis. Si contáramos una sinapsis cada segundo, tardaríamos 32 millones de años en completar el recuento. Si consideramos el número posible de circuitos neuronales, tenemos que habérnosla con cifras hiper-astronómicas: 10 seguido de un millón de ceros. No existe en el Universo ninguna otra cosa de la que pueda resultar una cantidad igual. Incluso el número de partículas del universo conocido es de 10 seguido de tan sólo 79 ceros (El número de Eddington). En comparación con el número de circuitos neuronales…¡No es nada!
Todo este entramado tiene mucho que ver con los pensamientos. Aquí se fraguan los procesos del pensamiento. Al aprender, tener una idea, recordar algo, sentirse activado sexualmente, comunicar, etc. las neuronas están recibiendo y transmitiendo información a través del cerebro. Las células del cerebro se comunican entre sí a través de un proceso electroquímico. Cada vez que pensamos, aprendemos y nos comunicamos, una neurona envía un impulso nervioso por su axón. El axón de una célula cerebral hace varios miles de conexiones con muchos miles de otras células cerebrales. El punto donde una neurona se conecta a otra se llama sinapsis. Cuando un impulso nervioso (mensaje bioquímico electro-magnético) surge por el axón, es disparado a través del espacio sináptico a través de un mensajero químico, llamado neurotransmisor, hacia la dendrita de la neurona receptora.
Cuando hemos avanzado hasta llegar a saber que toda esa complejidad del cerebro que llevamos con nosotros los seres inteligentes, han requerido de un Ajuste Fino extremadamente complejo para que la confluencia de todos los parámetros, finalicen en un conjunto increíble de diversas dinámicas que finalmente lleve a la comprensión, a poder formar ideas y pensamientos, a sentir, a tener consciencia de SER… ¿Acaso existe una Conciencia Cósmica?
Y me pregunto Yo: ¿Podría alguna vez en el futuro, unas máquinas artificiales igualar todo esto?
En gran parte dependerá de que nosotros mismos no nos empeñemos en conseguir que los Robots lleguen a tener conciencia de Ser, Si eso ocurre…. ¡Mal irán las cosas!
El aprendizaje automático es uno de los campos con más proyección en inteligencia artificial.
Tenemos la clave para fabricar máquinas listas. Intel
Reportaje de Pablo G. Bejerano
Los miles de millones de dispositivos que se conectan a internet cada día generan una cantidad abrumadora de información. Son montones de terabytes de datos que aparecen de la nada diariamente.
Esto abre el apetito por obtener valor de la información. Y la inteligencia artificial es clave aquí. El término se suele asociar con la robótica, una herencia cultural de la ciencia ficción, pero lo cierto es que la inteligencia artificial es algo mucho más abstracto que robots humanoides caminando o que los dilemas del superordenador Hall en 2001: una odisea del espacio.
Ojo cámara (con lente fish eye es decir con una visual muy panóptica) de color rojo (para detectar por filtro cromático incluso la “luz” IR no perceptible por el ser humano), usado para representar a HALL 9000 en uno de sus aspectos de control prácticamente orweliano.
Podría decirse que la inteligencia artificial asoma la cabeza por primera vez en los años 60 con sistemas predictivos y a partir de ahí evoluciona a velocidad de crucero. Hoy se usa para evitar fraudes bancarios, en el reconocimiento de voz, en el filtro anti spam del correo electrónico, incluso en el etiquetado de fotos automático de Facebook o en los videojuegos.
Lo que está por venir en inteligencia artificial –ya se ha investigado mucho sobre ello– son los coches autónomos, la medicina de alta precisión o el procesamiento del lenguaje natural que le pediremos a los Siri, Google Now o Cortana en los próximos años. Son algunas de las áreas para las que el aprendizaje automático o machine learning es necesario.
Que las máquinas aprendan es fundamental porque es uno de los elementos que retrasará su obsolescencia prematura, reforzando su autonomía. Este aprendizaje es uno de los temas que han sobrevolado la Conferencia Internacional de Desarrolladores (IDF) de Intel.
Hoy el 7% de todos los servidores presentes en el mundo están dedicados a tareas de aprendizaje automático. Y más del 97% de estos servidores funcionan con procesadores de Intel. Si bien en campos como los coches autónomos la compañía se ve amenazada por los productos de su competidora Nvidia.
En todo caso, esta rama de la inteligencia artificial es la que tiene mayor proyección. Intel proporciona el hardware sobre el que los desarrolladores pueden programar sus algoritmos de inteligencia artificial. Para entrenar a los algoritmos la compañía ofrece el procesador Xeon Phi, mientras que para ejecutar una tarea determinada, ya aprendida, cuenta con el Xeon.
Un centro de datos de Intel. Intel
“Trabajamos con instituciones académicas y desarrolladores para asegurarnos de que pueden usar el hardware optimizado”, comenta Nidhi Chappell, responsable de aprendizaje automático en la división de centros de datos de Intel. “Hay muchos beneficios en tener el software y el hardware optimizado. ¿Podrías trabajar con procesamiento del lenguaje natural en un Xeon no optimizado? Sí, pero cuanto más optimices los elementos, tanto en software como en el hardware, más rápido harás los trabajos”.
Se necesita que el rendimiento del hardware sea muy alto, pero también que sea fácil de poner en marcha. Y otra de las claves para optimizar este aspecto es la compatibilidad con diferentes tipos de algoritmos. “Queremos habilitar nuestros productos para soluciones que estén basadas en código abierto”, indica Chappell. “Pues muchas de las cargas de trabajo en deep learning, como el procesamiento del lenguaje natural o el etiquetado de imágenes, están basadas en frameworks (marcos de trabajo para desarrollar software) de código abierto”.
Los algoritmos del ‘Deep learning’
El Deep learning o aprendizaje profundo, considerado una parte del aprendizaje automático, se basa en redes neuronales artificiales, inspiradas en el funcionamiento de sistemas biológicos. Muchos algoritmos que usan deep learning proceden de empresas o universidades, como Google o Berkeley, y una parte de ellos están bajo código abierto. Lo que hace Intel es asegurarse de que la arquitectura de sus productos está optimizada para estos algoritmos.
El conocimiento que los nutre proviene de compañías privadas, de centros académicos y también de instituciones públicas. No todo se pone a disposición del público, pero compartir la información y los progresos técnicos es uno de los motores para el aprendizaje de las máquinas.
Cloudera, una de las empresas presentes en el IDF, trabaja en big data con plataformas de código abierto. Su portavoz en el congreso de Intel, Johnny Pak, cree que la colaboración es necesaria para no estancarse. “El código abierto ayudará al desarrollo rápido de la inteligencia artificial. La posibilidad de construir sobre el trabajo de otros es lo que va a ayudar a avanzar”, reflexiona.
El conocimiento proviene de múltiples fuentes. Intel.
Aprender bien la lección
El aprendizaje automático tiene otra cara. Se puede descontrolar, como le ocurrió al bot Tay, programado por Microsoft para aprender de la gente a través de sus interacciones en Twitter. Su cuenta en la red social pronto empezó a lanzar mensajes xenófobos tras el troleo de algunos usuarios y la compañía tuvo que suspender este experimento social.
“Siempre se necesitará un marco para limitar al algoritmo”, es la opinión de Pak. “Una máquina no es más que un conjunto de algoritmos. Lo que significa que las máquinas no tienen la libertad que las personas tenemos”. Así, esa especie de libertad social que Tay tuvo para aprender acabó por volverse en su contra. “Si vas a usar algoritmos en un entorno social creo que tienes que poner unos límites, de la misma forma que nosotros tenemos límites sociales”, sentencia Pak.
Es una forma de controlar la toma de decisiones. Por cierto, para una persona estas decisiones no siempre están basadas en el razonamiento lógico y no siempre se obtiene así el mejor resultado. La intuición a veces es un factor determinante y no es algo que se aprenda de forma lógica. ¿Pueden los algoritmos actuales dotar a una máquina de intuición?
Paliza de AlphaGO a Lee Sedol en la primera partida
El caso que más se acerca a una toma de decisiones intuitiva por una máquina es el del sistema Alpha Go, desarrollado por Google y que venció Lee Sedol, el campeón mundial del Go, un juego mucho más complejo de aprender para una máquina que por ejemplo el ajedrez.
Pak apunta que la toma de decisiones de Alpha Go a veces no partía de la lógica. “No estaba calculando, como sí hacen en ajedrez, millones de interacciones para determinar qué es lo que va a hacer el jugador. Tenía que vislumbrar cuál era el mejor movimiento. Y ganó. Lee solo gano una partida”. Y es que ni siquiera los científicos detrás de Alpha Go predecían cómo se iba a comportar su programa.
Darling (MIT): “Comparar la inteligencia artificial con la humana no tiene sentido”
La investigadora recalca que para integrar a las máquinas en espacios fuera de las fábricas hay que entender que “no están vivas ni pueden sentir. Nosotros sentimos por ellas”.
Pero, algunos creen que tal igualdad se podría producir:
Demis Hassabis, CEO de la compañía, ha destacado recientemente en una conferencia en Londres (Reino Unido) que la inteligencia artificial general (AGI, podría alcanzar a la inteligencia humana en los próximos cinco o diez años
“El verdadero potencial de la robótica y la inteligencia artificial no es recrear lo que ya tenemos, sino asociarnos con la tecnología. No se trata de reemplazar a las personas, sino de complementarlas”.
Si limpian el suelo de la casa o nos mandan datos de Marte…
Estas palabras de Kate Darling, investigadora experta en robótica del MIT Media Lab, condensan sus ideas sobre el modo en el que personas y máquinas deberían interactuar. “Sin embargo, la retórica que se emplea en los últimos años cuando se habla de estas cuestiones puede llevar a engaño”.
Darling ha sido una de las ponentes del congreso Momentum 2021 Connect, celebrado la semana pasada en formato online y organizado por Manhattan Associates, empresa especializada en soluciones para la cadena de suministro y comercio omnicanal. “Deberíamos enfocar el uso de la tecnología en cómo puede ayudar a las personas a hacer mejor su trabajo y no en automatizarlo todo. Desechemos ya la idea de que los robots nos van a quitar el trabajo”, ha remarcado.
Despertando emociones
Algunos quieren darle emociones y sentimientos
Esta investigadora ha desarrollado sus trabajos estableciendo paralelismos entre los robots y los animales, y la relación que los humanos mantienen con ellos. “Las personas tenemos tendencia inherente a ‘antropomorfizarnos’: proyectamos rasgos, cualidades, emociones y comportamientos humanos en los no humanos”. Lo hacemos con nuestras mascotas, pero también con objetos con los que establecemos lazos emocionales.
Entre las razones, explica, está que cuando somos bebés aprendemos muy pronto a reconocer un rostro, de ahí esa tendencia a proyectar un reflejo de nosotros mismos en los demás. “Lo hacemos desde la niñez para relacionarnos y dar sentido al mundo que nos rodea”. Por cuestiones evolutivas, nuestro cerebro también reacciona ante los movimientos. “En el pasado, la especie humana ha tenido que estar atenta a lo que ocurría a su alrededor para evitar a los depredadores”.
Las personas tenemos tendencia a proyectar rasgos, cualidades, emociones y comportamientos humanos en los no humanos. La imagen de arriba nos señala una realidad que nunca podrían tener los Robots de última generación que, al fin y al cabo son artificiales.
Esto explica, según Darling, por qué sentimos cierta empatía hacia robots tan simples como un aspirador Roomba. “No se trata de la máquina más sofisticada del mundo, simplemente se desplaza por el suelo limpiándolo. Aun así, el 80 % tiene nombre propio y, según cuentan desde iRobot [la empresa fabricante], cuando tienen una avería la mayoría de la gente prefiere que lo reparen a reemplazarlo por otro”.
Sobre ese vínculo que establecemos con las máquinas, la investigadora del MIT Media Lab hace referencia a varios ejemplos y estudios que ponen en evidencia cómo empatizamos con aquellos robots que, sobre todo, están inspirados en la naturaleza. “Los primeros desarrollos de Boston Dynamics llamaron tanto la atención que organizaciones que defienden los derechos animales en Estados Unidos recibieron llamadas de ciudadanos expresando su preocupación sobre lo que estaba ocurriendo. Tuvieron que emitir un comunicando explicando que lo que aparecía en la imagen no era un perro de verdad”.
El 80 % de los aspiradores Roomba tienen nombre propio. Cuando tienen una avería, sus propietarios prefieres arreglarlos a reemplazarlos por otro.
Kate Darling admite que, incluso ella, ha experimentado esas sensaciones. En 2007 compró un Pleo, un dinosaurio robot de juguete, “porque tiene motores, sensores táctiles y una cámara de infrarrojos. Pensé que era realmente interesante porque reproducía muy bien determinados comportamientos”.
Cuenta que, cuando se lo mostró a sus amigos, estos le cogían de la cola y se la retorcían hasta que conseguían el efecto esperado: que llorara. “Aun sabiendo que se trataba de un robot, me entraba cierta angustia y se lo quitaba de las manos”.
Inteligencias complementarias
Una máquina al cuidado de mayores o de niños me produce escalofríos
A raíz de esta experiencia, la investigadora se interesó por el campo de la robótica social. Aquí los robots sí están diseñados específicamente para imitar señales, movimientos o sonidos que, automática y subconscientemente, asociamos con seres vivos, estados mentales y criaturas sociales.
“Estamos en un momento muy interesante. Durante décadas hemos tenido robots en fábricas y almacenes, y ahora están llegando a otros espacios”, afirma Darling. “Pueden pensar y tomar decisiones autónomas y aprender, pero no están vivas y no pueden sentir. Nosotros sentimos por ellos”. Recalca que es importante tener esto en cuenta para poder integrar la tecnología en nuestra vida.
Estamos en un momento muy interesante. Durante décadas hemos tenido robots en fábricas y almacenes, y ahora están llegando a otros espacios.
Entender que un robot es un dispositivo al que hay que tratar de forma diferente a una persona permitirá desarrollar interesantes casos de uso. “Ya los estamos en campos como la salud con nuevos métodos de terapia. Por ejemplo, con robots trabajando con niños autistas y tratando de tender un puente entre un terapeuta o un padre y un niño. El robot es un facilitador realmente bueno para la comunicación”.
El error está, según la investigadora del MIT Media Lab, en comparar la inteligencia artificial con la humana. “Es una analogía no tiene sentido para mí. Es verdad que ya hay máquinas que son mucho más inteligentes que nosotros, que pueden hacer cálculos infinitos, ganarnos al ajedrez e identificar patrones que no reconoceríamos. Sin embargo, no son capaces de percibir el mundo ni aprender del modo en el que lo hace un humano. Es un tipo de inteligencia diferente”. Por eso, defiende, han de verse como un complemento y no como un reemplazo.