¿Qué sucedió realmente con la IA que Facebook apagó?

La intención era desarrollar un chatbot que, gracias a la interacción humana, pudiese aprender cómo negociar acuerdos con un usuario final de manera tan fluida que el usuario no se dé cuenta de que está hablando con un robot.

Escrito en TENDENCIAS el

Hace poco, las noticias sobre una investigación de Facebook en torno al aprendizaje automático ha generado pánico en diversos lugares y muchos creen que la Skynet de Terminator acaba de ser creada. 

“Los ingenieros de Facebook entran en pánico y desconectan una AI (inteligencia artificial) debido a que los ‘bots’ desarrollaron su propio lenguaje” escribió un medio. “Facebook apaga una AI luego de que inventase un lenguaje propio y horripilante” agregó otro. “¿Hemos creado a Frankenstein?” se preguntaba otro. Un tabloide británico citó a un profesor en Robótica que decía que el incidente mostraba “los peligros de aferrarse a la inteligencia artificial” y “podría ser letal” que una tecnología como esta sea introducida en robots militares.

No se hicieron esperar también los vaticinios de la inminente llegada de la revolución del robot, droides asesinos, inteligencias artificiales maliciosas y el exterminio de la humanidad. Para reforzar este pánico, se citaba una conversación en la que dos ‘bots’ de Facebook muestran haber aprendido a hablar entre ellos de una forma ciertamente espeluznante. 

Sin embargo, la realidad resulta menos tenebrosa y más prosaica. Hace pocas semanas, FastCo Design dio cuenta de los intentos de Facebook por desarrollar una “red generativa adversaria” con el fin de desarrollar un software de negociación. 

En un post publicado en junio en el blog de la unidad de Investigación en Inteligencia Artificial de Facebook, se explica que los dos “bots” que conversan en el fragmento citado fueron diseñados con el fin de demostrar que es “posible para agentes de diálogo con diferentes objetivos (e implementados en su totalidad como redes neuronales entrenadas) participar en negociaciones con otros “bots” o personas y llegar a decisiones o acuerdos comunes.

Los “bots” no hicieron más que discutir entre ellos cómo dividir una matriz de elementos dados (representada en la interfaz de usuario como inocuos objetos como libros, sombreros y pelotas), de una manera que el resultado fuese mutuamente aceptable.

La intención era desarrollar un chatbot que, gracias a la interacción humana, pudiese aprender cómo negociar acuerdos con un usuario final de manera tan fluida que el usuario no se dé cuenta de que está hablando con un robot. En ese sentido, el FAIR (equipo de investigación en AI de Facebook) afirma que tuvo éxito. 

Es cierto que Facebook apagó la IA, pero no porque entrasen en pánico por haber liberado a un posible Skynet sacado del universo de Terminator. Mike Lewis, un investigador del FAIR, declaró para FastCo que solo habían decidido que “nuestro interés era diseñar dos ‘bots’ que pudiesen hablar con la gente”, no que lo hiciesen eficientemente entre ellos, así que decidió más bien exigirles que se escriban entre ellos de forma legible.

La tecnología de aprendizaje automático puede ser muy beneficiosa. Por ejemplo, puede mejorar los diagnósticos médicos; sin embargo, también también tiene usos potencialmente nocivos, como el software de predicción de disturbios que la policía podría usar para justificar la represión en las protestas. Al fin y al cabo, se trata de compilar y analizar cantidades enormes de datos, y por el momento los riesgos recaen solo en cómo los humanos elegimos distribuir y manejar esa información. 

El aprendizaje automático no está todavía cerca de la verdadera inteligencia artificial, sino que está dando sus primeros pasos. Sin embargo, si hay alguien que de verdad tiene razones para alarmarse con noticia como esta, serían los negociadores profesionales, quienes más pronto de lo que creen podrían quedarse sin trabajo.

Con información de GIZMODO