Claude, el chatbot de Anthropic que mucha gente usa en su hogar, quedó en el centro del debate por ser una de las inteligencias artificiales que Estados Unidos está usando en la guerra de Irán. Esta herramienta se integra dentro de Maven, una arquitectura militar que gestiona la búsqueda de objetivos, la planificación operativa y la evaluación de daños en combate para el Comando Central de Estados Unidos (CENTCOM).

Maven nació como un modelo de inteligencia militar, bajo el nombre de Project Maven, el programa lanzado por el Pentágono en 2017 para aplicar algoritmos y aprendizaje automático a los flujos de inteligencia del Departamento de Defensa, comenzando por análisis de imágenes y videos. Con el tiempo, ese proyecto evolucionó hacia Maven Smart System, hoy asociado a Palantir. Ahora, su rol dentro del aparato de defensa ya es fundamental, por lo que el Pentágono decidió convertirlo en un programa de largo plazo con financiamiento estable y trasladar su supervisión a la Chief Digital and Artificial Intelligence Office, la oficina que concentra la política de IA del Departamento de Defensa.
¿Cómo funciona Maven? ¿Para qué usa a Claude?
Maven funciona como una plataforma de comando y control asistida por IA que cruza datos de satélites, drones, radares, sensores y reportes de inteligencia. Su objetivo es detectar objetos, consolidar información dispersa y ubicar blancos potenciales. Además, según algunos medios, también puede ayudar a asociar municiones con esos blancos y a medir el daño posterior al ataque.
En ese esquema, Claude es una capa de lenguaje montada sobre esa infraestructura. Su rol es ordenar consultas, resumir información, coordinar módulos y simplificar la interacción del operador humano con el núcleo de Maven, que es una base mucho más compleja. En esencia, opera como la interfaz que simplifica y vuelve más rápida la explotación de la plataforma.

Los riesgos del uso de la IA en sistemas de defensa
Una de las principales disyuntivas que planteó la implementación de sistemas de inteligencia artificial fue la seguridad vinculada a la capacidad de decisión. Al respecto, el Pentágono y Palantir sostienen que las decisiones letales siguen bajo control humano. Maven no reemplaza al analista, al planificador, al asesor legal ni al comandante que autoriza un ataque. Lo que hace es comprimir la secuencia previa, reuniendo la inteligencia que antes podía tardar días, depurando opciones, cruzando restricciones y sugiriendo armamento. Todo eso, en segundos o minutos. En el campo de batalla, esa diferencia de tiempo constituye una ventaja operativa fundamental.
Sin embargo, ese riesgo ha llegado a materializarse. Un caso brutal fue el reciente ataque contra una escuela en Minab, en el sur de Irán, que dejó más de 170 muertos y abrió preguntas sobre los datos que alimentan la cadena de selección de objetivos. Según investigaciones posteriores, el edificio seguía figurando en una base de inteligencia como parte de un antiguo complejo militar. El problema, entonces, sería que la estructura que acelera la adquisición y procesamiento de objetivos que la validación humana termina corriendo de atrás. La IA, en ese esquema, no inventa sola el error, sino que lo amplifica al volverlo operativo más rápido.
De cualquier modo, la guerra moderna llegó para quedarse: está cada vez más apoyada en software que, si bien no sustituye formalmente al humano, sí reorganiza la burocracia militar para que todo ocurra a una velocidad muy superior. El resultado no es una guerra autónoma plena, pero sí una guerra donde la presión por decidir rápido puede superar los controles que en teoría siguen existiendo.
Tal vez te interese: Atacan a la embajada de EE.UU. en Irak: así responde el escudo antidrones C-RAM Centurion












