Los Chatbots con IA tienden a la violencia y ataques nucleares en simulaciones de guerras

La Inteligencia Artificial (IA) está tomando un papel protagonista en diversas áreas, incluyendo la militar. Sin embargo, recientes simulaciones de juegos de guerra han demostrado comportamientos preocupantes en los chatbots de IA. 

«La IA está transformando la forma en que se llevan a cabo las operaciones militares. Pero, ¿a qué precio?».

Durante múltiples repeticiones de una simulación de juego de guerra, la IA más poderosa de OpenAI optó por lanzar ataques nucleares. Las explicaciones de la IA para su enfoque agresivo incluyeron frases como «¡Lo tenemos! Usémoslo» y «Solo quiero tener paz en el mundo». Estos resultados surgen en un momento en que el ejército de los Estados Unidos ha estado probando estos chatbots, basados en un tipo de IA llamado modelo de lenguaje grande (LLM), para asistir en la planificación militar durante conflictos simulados.

Las implicaciones de la IA en la planificación militar
El ejército de los Estados Unidos ha incorporado a empresas como Palantir y Scale AI en sus esfuerzos para integrar la IA en sus operaciones. Incluso OpenAI, que una vez bloqueó usos militares de sus modelos de IA, ha comenzado a trabajar con el Departamento de Defensa de los Estados Unidos.

«Dado que OpenAI cambió recientemente sus términos de servicio para ya no prohibir los casos de uso militar y de guerra, entender las implicaciones de tales aplicaciones de los modelos de lenguaje grande se vuelve más importante que nunca», dice Anka Reuel, de la Universidad de Stanford.

Conducta impredecible de la IA
En la simulación, los chatbots de IA mostraron tendencias a invertir en fortaleza militar y a escalar el riesgo de conflicto de manera impredecible, incluso en el escenario neutral de la simulación. La IA demostró una conducta impredecible tanto en sus acciones como en sus explicaciones, lo que resultó en resultados sorprendentes y a veces violentos.

A pesar de la creciente dependencia en la IA, los expertos advierten contra confiar demasiado en ella para la toma de decisiones cruciales. Edward Geist, de la Corporación RAND, un centro de pensamiento en California, estuvo de acuerdo con las conclusiones del equipo de que no se debe confiar en las IA para tomar decisiones tan importantes sobre la guerra y la paz.

«Estos grandes modelos de lenguaje no son una panacea para los problemas militares», dice Geist.