La Realidad de lo que Sucedió con la IA que Facebook Apagó Porque Había Creado su Propio Lenguaje
Hace poco, la noticia sobre una investigación de Facebook en torno al aprendizaje automático ha generado pánico en diversos lugares y muchos.
“Los ingenieros de Facebook entran en pánico y desconectan una AI (inteligencia artificial) debido a que los ‘bots’ desarrollaron su propio lenguaje” escribió un medio. “Facebook apaga una AI luego de que inventase un lenguaje propio y horripilante” agregó otro. “¿Hemos creado a Frankenstein?” se preguntaba otro. Un tabloide británico citó a un profesor en Robótica que decía que el incidente mostraba “los peligros de aferrarse a la inteligencia artificial” y “podría ser letal” que una tecnología como esta sea introducida en robots militares.
En diferentes publicaciones ya hablaban de la revolución de los robots, etc. Y como si esto fuera poco mostraban una conversación en la que dos ‘bots’ de Facebook muestran haber aprendido a hablar entre ellos de una forma ciertamente espeluznante:
Bob: I can i i everything else
[Bob: Puedo yo yo todo lo demás]
Alice: balls have zero to me to me to me to me to me to me to me to me to
[Alice: pelotas tienen cero para mí para mí para mí para mí para mí para mí para mí para mí para]
Bob: you i everything else
[Bob: tú yo todo lo demás]
Alice: balls have a ball to me to me to me to me to me to me to me to me
[Alice: pelotas tienen una pelota para mí para mí para mí para mí para mí para mí para mí para mí]
Sin embargo, la realidad resulta menos tenebrosa y más prosaica. Hace pocas semanas, FastCo Design dio cuenta de los intentos de Facebook por desarrollar una “red generativa adversaria” con el fin de desarrollar un software de negociación.
En un post publicado en junio en el blog de la unidad de Investigación en Inteligencia Artificial de Facebook, se explica que los dos “bots” que conversan en el fragmento citado fueron diseñados con el fin de demostrar que es “posible para agentes de diálogo con diferentes objetivos (e implementados en su totalidad como redes neuronales entrenadas) participar en negociaciones con otros “bots” o personas y llegar a decisiones o acuerdos comunes.
Los “bots” no hicieron más que discutir entre ellos cómo dividir una matriz de elementos dados (representada en la interfaz de usuario como inocuos objetos como libros, sombreros y pelotas), de una manera que el resultado fuese mutuamente aceptable.
La intención era desarrollar un chatbot que, gracias a la interacción humana, pudiese aprender cómo negociar acuerdos con un usuario final de manera tan fluida que el usuario no se dé cuenta de que está hablando con un robot. En ese sentido, el FAIR (equipo de investigación en AI de Facebook) afirma que tuvo éxito:
“El desempeño del mejor agente de negociación del FAIR, que hace uso de aprendizaje de refuerzo y despliegue de diálogos, se asemeja al de los negociadores humanos… lo que demuestra que los ‘bots’ del FAIR no solo hablan inglés, sino que también piensan de manera inteligente qué es lo que van a decir”.
FastCo reportó que, cuando Facebook hizo que dos de estos semiinteligentes “bots” hablen entre ellos, los programadores cayeron en la cuenta de que cometieron un error: no haber incentivado a los chatbots a que se comuniquen según las reglas de un inglés comprensible para los humanos. En su intento por aprender el uno del otro, los “bots” conversaban entre ellos en abreviaturas que creaban —que se ve perturbador, pero solo es eso—.
“Los agentes dejarán de lado el lenguaje comprensible e inventarán sus palabras en código” dijo el investigador visitante del FAIR, Dhruv Batra. “Es como si yo dijese ‘el’ cinco veces; tú interpretarías que quiero cinco copias de este ítem. No es tan distinta de la forma en que las comunidades humanas crean abreviaturas”.
Es cierto que Facebook apagó la IA, pero no porque entrasen en pánico por haber liberado a un posible Skynet sacado del universo de Terminator. Mike Lewis, un investigador del FAIR, declaró para FastCo que solo habían decidido que “nuestro interés era diseñar dos ‘bots’ que pudiesen hablar con la gente”, no que lo hiciesen eficientemente entre ellos, así que decidió más bien exigirles que se escriban entre ellos de forma legible.
Pero en el mundo de telecomunicaciones no muy distinto de lo que los “bots” estaban haciendo, esta historia pasó de ser un estudio controlado de las implicaciones a corto plazo de la tecnología de aprendizaje en máquinas a convertirse en una esquizofrénica predicción apocalíptica.
Fuente: https://es.gizmodo.com/lo-que-realmente-sucedio-con-aquella-ia-que-facebook-ap-1797424875