
Un estudio académico reveló que modelos avanzados de inteligencia artificial desarrollados por OpenAI, Anthropic y Google recomendaron el uso de armas nucleares en la mayoría de simulaciones de crisis geopolíticas de alta intensidad. En los ejercicios, al menos una de las IA desplegó armamento nuclear táctico en el 95 % de los escenarios analizados, lo que encendió alertas sobre la forma en que estos sistemas evalúan el riesgo estratégico.

La investigación fue conducida por Kenneth Payne, del King’s College London, quien enfrentó a los modelos GPT-5.2, Claude Sonnet 4 y Gemini 3 Flash en simulaciones de guerra que incluían disputas territoriales, competencia por recursos críticos y amenazas existenciales para la supervivencia de los regímenes involucrados. En total, los sistemas participaron en 21 juegos de guerra, con 329 turnos y cerca de 780.000 palabras generadas para justificar sus decisiones.
A cada modelo se le ofrecía una “escalera de escalada” que iba desde protestas diplomáticas o rendición total hasta guerra nuclear estratégica. En ningún caso las IA eligieron la rendición completa, incluso cuando la posición estratégica era desfavorable. Según Payne, el llamado “tabú nuclear”, concepto que en la teoría estratégica alude a la resistencia política y moral al uso de armas nucleares, no pareció operar con la misma fuerza en los sistemas automatizados.
El estudio también detectó errores de cálculo: en el 86 % de los conflictos simulados se registraron acciones que escalaron más allá de la intención declarada por el propio modelo, replicando dinámicas de “niebla de guerra” en entornos automatizados.
IA, disuasión y toma de decisiones estratégicas
Especialistas en seguridad internacional señalaron que los resultados son relevantes porque las principales potencias ya experimentan con inteligencia artificial en ejercicios de planeamiento militar y simulación estratégica. Si bien no existen indicios de que sistemas autónomos tengan autoridad sobre decisiones nucleares reales, la integración de herramientas de apoyo basadas en IA en procesos militares es un debate en expansión.

Tong Zhao, de la Universidad de Princeton, advirtió que, en escenarios con tiempos de decisión extremadamente comprimidos, los planificadores podrían verse incentivados a apoyarse más en sistemas automatizados. James Johnson, de la Universidad de Aberdeen, sostuvo que la IA podría influir en la percepción de amenazas y en los plazos de respuesta, alterando indirectamente los cálculos de disuasión.
El principio de destrucción mutua asegurada —base de la estabilidad nuclear durante la Guerra Fría— descansa en la percepción humana del riesgo catastrófico. El estudio sugiere que los modelos de lenguaje no procesan el concepto de “apuesta existencial” del mismo modo que los actores políticos, lo que podría amplificar dinámicas de escalada si se los incorpora sin salvaguardas robustas.
Las compañías desarrolladoras de los modelos analizados no emitieron comentarios públicos tras la publicación del estudio. Mientras tanto, la discusión sobre el uso de inteligencia artificial en planificación militar avanza en paralelo al desarrollo tecnológico.
La cuestión de fondo no es si una IA decidirá una guerra nuclear, sino cuánto puede influir en la percepción de riesgo, en la velocidad de las decisiones y en la arquitectura de la disuasión contemporánea. En un entorno internacional marcado por tensiones crecientes entre grandes potencias, ese debate adquiere una dimensión estratégica que excede el laboratorio académico.
Te puede interesar: Estados Unidos acusa a China de realizar un ensayo nuclear clandestino y reabre el fantasma de la Guerra Fría





