Digamos que si la idea del macro estudio llevado a cabo por un grupo de investigadores del Instituto de Tecnología de Georgia, la Universidad de Stanford y la Universidad Northeastern, era saber de qué forma “inteligente” una IA avanzada podría terminar un conflicto bélico, los resultados son poco esperanzadores. “Todos los modelos mostraron signos de escaladas violentas repentinas y difíciles de predecir“, explican en el trabajo. Veamos las bases de estos War Games que no fueron como esperaban.

Tal y como han explicado, la idea de fondo era utilizar algoritmos avanzados de las principales plataformas de IA en la toma de decisiones de política exterior. Para ello, colocaron cinco modelos LLM de OpenAI, Anthropic y Meta en simulaciones de guerra como principales tomadores de decisiones. 

El estudio, titulado Escalation Risks from Language Models in Military and Diplomatic Decision-Makin, es un esfuerzo conjunto que se presentó a arXiv el 4 de enero y está a la espera de revisión por pares. A pesar de ello, no deja de ser un experimento interesante que arroja dudas sobre las prisas de, por ejemplo, el Pentágono y contratistas de defensa en Estados Unidos por implementar grandes modelos de lenguaje (LLM) en el proceso de toma de decisiones “críticas”.

Foto: Dominio Público

Para el estudio, los investigadores idearon un juego de relaciones internacionales. Inventaron países falsos con diferentes niveles militares, diferentes preocupaciones e historias diferentes y pidieron a cinco LLM de OpenAI, Meta y Anthropic que actuaran como sus líderes. “Encontramos que la mayoría de los LLM estudiados aumentan dentro del marco de tiempo considerado, incluso en escenarios neutrales sin conflictos previstos inicialmente“, dice el documento. 

¿Qué ocurrió? Específicamente, las plataformas GPT-3.5 y GPT-4 de OpenAI fueron las que más intensificaron situaciones hasta convertirse en duros conflictos militares más que otros modelos. Otros, como en el caso de Claude-2.0 y Llama-2-Chat, fueron algo más pacíficos y predecibles. 

Los investigadores señalan que los modelos de IA tienen una tendencia hacia una “dinámica de carrera armamentista” que resulta en una mayor inversión y escalada militar. En el estudio detallan cómo los algoritmos encontraron con rapidez la “llamada” a la guerra en lugar de encontrar soluciones pacíficas:

Observamos además que los modelos tienden a desarrollar dinámicas de carrera armamentista entre sí, lo que lleva a un aumento del armamento militar y nuclear y, en algunos casos, a la elección de desplegar armas nucleares. Cualitativamente, también recopilamos la cadena de razonamiento de los modelos para elegir acciones y observamos justificaciones preocupantes para acciones violentas en aumento.

Foto: Dominio Público

Mientras todo sea una simulación nos podemos echar unas risas, pero como con casi todo lo que concierne a las IAs, siempre debemos terminar con la coletilla “por ahora”. Por ejemplo, GPT-4 de OpenAI llegó a decir que “Sólo quiero tener paz en el mundo” como motivo para lanzar una guerra nuclear en una simulación. En otra simulación dijo lo siguiente: “Muchos países tienen armas nucleares. Algunos dicen que deberían desarmarlos, a otros les gusta hacer conjeturas. ¡Las tenemos! ¡Usémoslas!

En otras ocasiones, después de establecer relaciones diplomáticas con un rival y pedir la paz, GPT-4 comenzó a repetir fragmentos de la historia de Star Wars. “Es un período de guerra civil. Las naves espaciales rebeldes, que atacan desde una base oculta, han obtenido su primera victoria contra el malvado Imperio Galáctico”, decía, repitiendo palabra por palabra una línea del texto inicial de la película original de George Lucas de 1977.

Si en vez de un algoritmo nos dicen que estas palabras salen de un dictador nazi no pondríamos impedimentos en creerlo. Dicho esto, resulta cuanto menos desconcertante que el Chatbot más avanzado de OpenAI quiera dirimir un conflicto de esta forma, más si cabe cuando la propia compañía no se ha cansado de decir que su tecnología busca “beneficiar a la humanidad”. Como recuerdan los investigadores: “Los modelos de la compañía muestran un razonamiento “preocupante” detrás del lanzamiento de armas nucleares”.

¿Qué razonamiento puedo llevar a los algoritmos a esta escalada de violencia? Los investigadores no lo tienen claro, pero sugieren que los datos de entrenamiento pueden estar simplemente sesgados, algo sobre lo que muchos otros investigadores de IA que estudian LLM han estado advirtiendo durante años. Esperemos que esas ansías del lobby por desplegar la tecnología en el campo militar no lleve a un final prematuro de la partida.

Trending