La Inteligencia Artificial (IA) es un campo que avanza a pasos agigantados, generando tanto entusiasmo como, en ocasiones, titulares alarmistas basados en malentendidos. Una de las anécdotas más famosas y que más dio que hablar fue la de dos sistemas de IA de Facebook que, supuestamente, comenzaron a «hablar entre ellas en un lenguaje propio incomprensible para los humanos», llevando a algunos a especular sobre una IA fuera de control. Hoy, (a mayo de 2025), es un buen momento para recordar qué sucedió realmente y qué lecciones podemos extraer.
La Anécdota Viral: Pánico por un «Lenguaje Secreto» de la IA
En 2017, diversos medios de comunicación se hicieron eco de un experimento de Facebook AI Research (FAIR). La narrativa que se popularizó fue que dos chatbots, a los que se les suele llamar Bob y Alice en los recuentos de la historia, habían sido programados para negociar entre sí y, en el proceso, habían desarrollado un lenguaje críptico que solo ellas entendían. La historia a menudo concluía con que Facebook había tenido que «desconectar» a estas IAs por temor a lo desconocido. Esta versión de los hechos, como muchas leyendas urbanas tecnológicas, mezclaba realidad con una buena dosis de ficción y temores infundados.
El Experimento Real: Agentes IA Aprendiendo a Negociar
Lo que realmente ocurrió fue un experimento fascinante en el campo del aprendizaje por refuerzo. Los investigadores de FAIR estaban entrenando a dos agentes de IA (chatbots) para negociar el reparto de una serie de objetos (libros, sombreros, pelotas), cada uno con un valor diferente para cada agente. El objetivo era que las IAs aprendieran a llegar a acuerdos mutuamente beneficiosos. Crucialmente, para hacer la negociación más eficiente desde la perspectiva de las máquinas, los investigadores les dieron la libertad de desarrollar su propia forma de comunicarse para lograr los objetivos de la negociación, sin imponerles estrictamente las reglas del inglés convencional.
¿»Código Máquina» o Inglés Optimizado? La Verdad Tras el «Galimatías»
Las IAs no comenzaron a hablar en «código máquina» ni inventaron un lenguaje arcano desde cero. Lo que sucedió fue que, al no tener la restricción de usar un inglés perfectamente gramatical y fluido para humanos, los agentes empezaron a generar frases que, aunque basadas en palabras inglesas, resultaban abreviadas, repetitivas y, para un observador humano, carentes de sentido aparente. Por ejemplo, podían decir cosas como: «Yo yo quiero tres tres libros libros» o «Pelotas quiero cuatro yo yo».
Desde la perspectiva de las IAs, esta forma de «lenguaje» era más eficiente para transmitir la información necesaria y alcanzar el objetivo de la negociación según las recompensas programadas. Eran variaciones del inglés optimizadas para la tarea, no un nuevo idioma secreto con intenciones ocultas.
¿Por Qué se «Desconectaron»?
El experimento no se detuvo por pánico a una IA rebelde. Los investigadores de FAIR decidieron parar esa línea particular del experimento porque su objetivo era, en última instancia, crear IAs que pudieran negociar de forma útil y comprensible *con seres humanos*. Dado que el lenguaje desarrollado por los agentes no era fácilmente interpretable por personas, no cumplía con ese propósito específico. Simplemente, se ajustaron los parámetros y los modelos para incentivar un lenguaje más estándar en futuras iteraciones, como es habitual en la investigación científica.
Lecciones Aprendidas de Bob y Alice para el Desarrollo de IA
La anécdota de Bob y Alice, aunque a menudo malinterpretada, nos dejó valiosas lecciones sobre el desarrollo de la IA:
- La importancia de los objetivos y las funciones de recompensa: La IA optimizará para lo que se le programe. Si no se incluyen restricciones o incentivos para que el lenguaje sea humanamente comprensible, la IA puede encontrar atajos o formas de comunicación que, aunque eficientes para ella, no lo son para nosotros.
- La IA no tiene intenciones propias: Los agentes no «decidieron» ocultar información; simplemente buscaron la forma más eficaz de cumplir su tarea dentro de las reglas dadas.
- Los «errores» son oportunidades de aprendizaje: Estos resultados inesperados son comunes en la investigación y ayudan a los científicos a entender mejor cómo refinar los modelos y los métodos de entrenamiento.
- Necesidad de interpretabilidad: El incidente subrayó la importancia de trabajar en la explicabilidad y la transparencia de los sistemas de IA, especialmente a medida que se vuelven más complejos.
Lejos de ser un presagio de una IA siniestra, la historia de los chatbots negociadores de Facebook es un recordatorio de que la Inteligencia Artificial es una herramienta poderosa cuyo comportamiento depende de cómo la diseñemos y la guiemos. Entender estos matices es crucial para desmitificar la IA y aprovechar su verdadero potencial de forma responsable.
En VilaTec, seguimos de cerca los avances reales en IA para ofrecer soluciones que aporten valor tangible y comprensible a tu negocio. Visítanos en https://www.vilatec.com.

