- En febrero de 2026, el ejército de EE. UU. bombardeó la escuela primaria Minab en Irán, causando la muerte de más de 175 personas, y al principio se difundió la información errónea de que Claude de Anthropic había elegido el objetivo
- En realidad, la decisión del objetivo la tomó el sistema Maven de Palantir, y la falta de actualización de datos militares antiguos derivó en víctimas civiles
- Maven automatizó el procedimiento de la kill chain hasta el punto de decidir 1.000 objetivos por hora, y en ese proceso se eliminaron las etapas de verificación y reevaluación
- Esta automatización, al igual que en casos de bombardeos erróneos en la guerra de Vietnam y la guerra de Kosovo, condujo a un problema estructural repetido en el que la confianza tecnológica sustituyó el juicio humano
- El punto central del caso no es un error de la IA, sino un sistema burocrático que eliminó el juicio y la desaparición de la responsabilidad humana
El bombardeo de la escuela primaria de Minab, Irán, y la ilusión de la “responsabilidad de la IA”
- El 28 de febrero de 2026, el ejército de EE. UU. bombardeó la escuela primaria Shajareh Tayyebeh en Minab, al sur de Irán, causando entre 175 y 180 muertes, incluidas niñas de 7 a 12 años
- Inmediatamente después del bombardeo, los medios y la clase política se centraron en si el chatbot Claude de Anthropic había elegido el objetivo
- Pero el sistema real de selección de objetivos era Maven de Palantir, y Claude no tuvo relación alguna
- La escuela había sido una instalación militar en el pasado, pero por fallas en la actualización de la inteligencia seguía clasificada como objetivo militar
Origen y estructura del sistema Maven
- Maven es un proyecto iniciado en 2017 por el Algorithmic Warfare Cross-Functional Team del Departamento de Defensa de EE. UU.
- Su objetivo inicial era automatizar el análisis de video de drones, para reducir la sobrecarga de trabajo de los analistas humanos
- Google tuvo el contrato al principio, pero se retiró por la oposición interna; después, Palantir Technologies lideró el desarrollo desde 2019
- Maven evolucionó hacia una infraestructura de targeting que integra datos satelitales, de señales y de sensores para conectar desde la detección del objetivo hasta la orden de ataque
- Palantir reconfiguró Maven como “Smart System”, integrando fusión de datos en tiempo real y funciones automatizadas de apoyo a la toma de decisiones
- La interfaz de Maven está compuesta por un tablero de flujo de trabajo tipo Kanban, donde los objetivos se procesan avanzando por etapas
- Con 3 clics se puede convertir un dato de detección en un objetivo oficial, y el sistema recomienda medios de ataque y combinaciones de armas
La compresión de la “kill chain” y la carrera por la velocidad
- Maven es la forma más reciente de compresión del procedimiento militar conocido como “kill chain”
- La kill chain es un concepto que sistematiza el proceso desde la detección hasta la destrucción, y el ejército de EE. UU. ha desarrollado durante décadas tecnologías para acortarla
- Maven es un sistema que eleva al extremo la velocidad de decisión, y para 2024 tenía como meta decidir 1.000 objetivos por hora
- Esto equivale a 1 decisión cada 3,6 segundos, o, a nivel individual, 1 decisión cada 72 segundos
- En la guerra de Irak de 2003, tareas de targeting que antes realizaban 2.000 personas fueron reemplazadas por 20
- La mejora de velocidad eliminó el margen para juzgar, y desaparecieron los procesos de verificación, objeción y reevaluación
- Como resultado, aumentó la posibilidad de errores de juicio y se ampliaron las víctimas civiles
Repetición histórica: confianza tecnológica y desaparición del juicio
- El problema de Maven no es un fenómeno nuevo, sino la repetición de un patrón histórico en el que la automatización tecnológica reemplaza el juicio
- En la Operation Igloo White de la guerra de Vietnam en los años 60, un sistema de objetivos basado en sensores funcionó mal y produjo resultados falsos en masa
- La CIA informó que el “número de camiones destruidos” superaba la cantidad real existente, lo que dejó al descubierto la cerrazón de un sistema incapaz de verificarse a sí mismo
- La doctrina del bombardeo de precisión de la Segunda Guerra Mundial también, por su obsesión con la eficiencia, perdió de vista el significado del objetivo y fue llamada “fanatismo tecnológico (technological fanaticism)”
- El manual de targeting de la Fuerza Aérea de EE. UU. de 1998 enfatizaba el “pensamiento racional basado en hechos y conclusiones”, pero
- en las operaciones reales, los “targeting packages (TIP)” basados en PowerPoint se confirmaban mediante citas circulares (circular reporting) sin verificación
- en la guerra de Kosovo de 1999, el bombardeo erróneo de la embajada china quedó registrado como un caso representativo de este tipo de error procedimental
La eliminación del juicio y la “doble atadura burocrática”
- Las organizaciones necesitan a alguien que interprete excepciones mientras sigue reglas,
- pero como reconocer ese juicio sacude la autoridad de las reglas, se intenta cuantificar y procedimentalizar el juicio
- El historiador Theodore Porter llamó a esto “Trust in Numbers”
- El CEO de Palantir, Alex Karp, en su libro The Technological Republic,
- escribió que “el software es el timonel, y el hardware es el medio que ejecuta las recomendaciones de la IA”
- presentó como ideal un modelo de “acción colectiva autónoma (bee swarm)” que elimina el juicio humano intermedio
- pero eso desemboca en una procedimentalización total en la que desaparece el espacio para la interpretación, es decir, una “burocracia frágil”
- Los procesos de reunión, reporte y revisión no eran ineficiencias, sino los únicos puntos donde podía intervenir el juicio,
- pero Maven los reemplazó por el tablero Kanban de flujo de trabajo del software, eliminando el margen para juzgar
La causa estructural del bombardeo de la escuela de Minab
- En el targeting package, el edificio estaba clasificado como instalación militar,
- pero en realidad figuraba como escuela en Google Maps y en una base de datos comercial iraní
- sin embargo, a una velocidad de decisión de 1.000 casos por hora, nadie lo buscó ni lo verificó
- Sin aprobación del Congreso, se atacaron 6.000 objetivos en dos semanas, y uno de ellos fue una escuela primaria
- Después del incidente, el debate se concentró en el supuesto “error de Claude”,
- ocultando así responsabilidades políticas y legales centrales, como la legalidad de la guerra, la falta de aprobación del Congreso y la posibilidad de crímenes de guerra
- El encuadre de que era un “problema de IA” funcionó como vía de escape para encubrir decisiones y responsabilidades humanas
- Alguien comprimió la kill chain, consideró la reflexión como “latencia”,
- y diseñó un sistema que llamó “de alta calidad” a decidir objetivos a razón de 1.000 por hora
- Todas esas decisiones las tomaron seres humanos, y la IA no puede asumir esa responsabilidad
1 comentarios
Opiniones en Hacker News
Maven es una herramienta creada para usarse en medio de una guerra
Cuando ambos bandos están combatiendo, ahorrar unos minutos puede equivaler a salvar vidas
Pero este ataque no ocurrió en medio de un combate, sino que fue un ataque sorpresa. Ahorrar tiempo en una situación donde nadie respondía al fuego no salvó vidas
La identificación del objetivo debió hacerse con más cuidado y tendría que haber sido verificada varias veces por personas. La escuela era claramente una escuela, e incluso tenía sitio web
Pasar al siguiente objetivo con apenas tres clics fue claramente negligencia humana. Había tiempo suficiente para evitar un error así
Ya haya sido por exceso de confianza en la herramienta o por desprecio hacia la vida de los civiles, el resultado fue la muerte de niñas pequeñas
Espero que quienes tomaron esa decisión rindan cuentas
Estados Unidos inició la guerra con el objetivo de desestabilizar al Estado, e ignoró las bajas civiles en el proceso
Es como si yo incendiara una casa y luego me excusara diciendo: “no sabía que era un jardín de niños”
Incluso en la época de la llamada “guerra contra el terror”, hubo muchos casos en los que bombardearon bodas y luego dijeron que había sido “un error”
Pero ese tipo de información en línea no es una base confiable para elegir objetivos
Debió identificarse con información directa, como observación satelital. Una escuela tiene patrones de actividad determinados y se habría visto distinta de una instalación militar
Probablemente designaron toda la base como una sola unidad y confundieron el edificio escolar con parte de la base
Una vez dada la orden, pudo haber existido presión de tiempo. En cualquier caso, esto fue una tragedia
Si de miles de salidas solo hubo un bombardeo erróneo, la tasa de error sería relativamente baja, pero este caso fue claramente un fracaso
Aun así, la afirmación de que “no se revisó lo suficiente” tiene poco sustento. De hecho, fuentes internas dicen que este objetivo debió quedar fuera de la lista
Precisamente por la naturaleza de este tipo de ataque sorpresa, la responsabilidad recae por completo en quienes lo planearon, aprobaron y ejecutaron
La pregunta de “¿por qué había niños en la escuela?” nace de la ignorancia. Irán tiene un sistema de fin de semana distinto, y nadie podía prever un ataque sorpresa
Cuanto más fácil se vuelve usar fuerza letal, más aumentan las víctimas inocentes
También está el caso de Israel, que habría rastreado la ubicación de hombres adultos usando metadatos de WhatsApp para atacarlos
Este tipo de métodos no es distinto de lo que se hacía hace 20 años, y algún día una bomba así podría caer sobre nuestra propia casa
Hace unas semanas ocurrió algo parecido
Mientras Estados Unidos e Israel atacaban instalaciones policiales iraníes, bombardearon un parque de Teherán cuyo nombre incluía “Police” (Police Park)
En realidad, era solo un parque común
Video relacionado, fuente adicional
Si le pides a una IA “enumera 100 instalaciones policiales en Teherán”, obtendrías algo así. Hay indicios claros de que se usó IA para seleccionar objetivos
Esto se repite porque Estados Unidos es un país moral y éticamente quebrado
El bombardeo del refugio de Amiriyah es otro ejemplo
Fue la primera vez que en el artículo apareció la afirmación de que “Claude de Anthropic señaló la escuela como objetivo”
Hasta ahora, muchos reportes apuntaban a que la causa había sido más bien el uso de procedimientos obsoletos y errores de inteligencia que el uso de IA
Claude puede ejecutarse en Amazon Bedrock y, en ese caso, no corre a través de una API operada directamente por Anthropic, sino que el modelo funciona dentro del centro de datos del cliente
Un proveedor como Palantir puede elegir qué modelo usar, y es posible que haya usado Claude por medio de Bedrock
En este tipo de contratos, Anthropic no tiene acceso a la telemetría, por lo que no puede demostrar cómo se usó realmente
Al final, decir que “se usó Claude” puede ser técnicamente cierto o no, y termina siendo un red herring
También vale la pena mencionar que el autor del artículo ya había tratado este tema antes en su publicación de Substack
¿De verdad había gente que creyera que era culpa de la IA?
En los ejércitos modernos, los LLM suelen usarse como herramienta para evadir responsabilidades
Si hubiera existido un objetivo claro, habría habido una lista documentada y preparada
Pero ahora el enfoque parece ser algo como: “dejemos caer la mayor cantidad posible de bombas y el computador ya verá cómo resolverlo”
La realidad es que matar ha pasado a tener prioridad sobre los objetivos estratégicos
El contenido del artículo me pareció interesante
La frase “el ejército estadounidense ha tratado de reducir la brecha entre la observación y la destrucción” suena algo sesgada, pero muestra bien cuán espesa se ha vuelto la niebla de la guerra (fog of war)
Los primeros párrafos incluso se sintieron refrescantes
Me impresionó la idea de que “el AI-washing ahora se usa no solo para despidos, sino también para la guerra”
Antes fue Dios, luego la naturaleza y ahora la IA
Los seres humanos cargan con el problema fundamental de evadir la responsabilidad por sus propios actos
Toda la era de la industrialización y de las computadoras quizá pueda verse como un intento de borrar esa responsabilidad de forma permanente
Al final, en cualquier caso, los crímenes de guerra de Estados Unidos no tienen justificación
El hecho de que ni siquiera pueda disculparse adecuadamente podría terminar siendo un punto de inflexión histórico que veremos con retrospectiva