2 puntos por GN⁺ 2026-03-28 | 1 comentarios | Compartir por WhatsApp
  • En febrero de 2026, el ejército de EE. UU. bombardeó la escuela primaria Minab en Irán, causando la muerte de más de 175 personas, y al principio se difundió la información errónea de que Claude de Anthropic había elegido el objetivo
  • En realidad, la decisión del objetivo la tomó el sistema Maven de Palantir, y la falta de actualización de datos militares antiguos derivó en víctimas civiles
  • Maven automatizó el procedimiento de la kill chain hasta el punto de decidir 1.000 objetivos por hora, y en ese proceso se eliminaron las etapas de verificación y reevaluación
  • Esta automatización, al igual que en casos de bombardeos erróneos en la guerra de Vietnam y la guerra de Kosovo, condujo a un problema estructural repetido en el que la confianza tecnológica sustituyó el juicio humano
  • El punto central del caso no es un error de la IA, sino un sistema burocrático que eliminó el juicio y la desaparición de la responsabilidad humana

El bombardeo de la escuela primaria de Minab, Irán, y la ilusión de la “responsabilidad de la IA”

  • El 28 de febrero de 2026, el ejército de EE. UU. bombardeó la escuela primaria Shajareh Tayyebeh en Minab, al sur de Irán, causando entre 175 y 180 muertes, incluidas niñas de 7 a 12 años
    • Inmediatamente después del bombardeo, los medios y la clase política se centraron en si el chatbot Claude de Anthropic había elegido el objetivo
    • Pero el sistema real de selección de objetivos era Maven de Palantir, y Claude no tuvo relación alguna
    • La escuela había sido una instalación militar en el pasado, pero por fallas en la actualización de la inteligencia seguía clasificada como objetivo militar

Origen y estructura del sistema Maven

  • Maven es un proyecto iniciado en 2017 por el Algorithmic Warfare Cross-Functional Team del Departamento de Defensa de EE. UU.
    • Su objetivo inicial era automatizar el análisis de video de drones, para reducir la sobrecarga de trabajo de los analistas humanos
    • Google tuvo el contrato al principio, pero se retiró por la oposición interna; después, Palantir Technologies lideró el desarrollo desde 2019
  • Maven evolucionó hacia una infraestructura de targeting que integra datos satelitales, de señales y de sensores para conectar desde la detección del objetivo hasta la orden de ataque
    • Palantir reconfiguró Maven como “Smart System”, integrando fusión de datos en tiempo real y funciones automatizadas de apoyo a la toma de decisiones
    • La interfaz de Maven está compuesta por un tablero de flujo de trabajo tipo Kanban, donde los objetivos se procesan avanzando por etapas
    • Con 3 clics se puede convertir un dato de detección en un objetivo oficial, y el sistema recomienda medios de ataque y combinaciones de armas

La compresión de la “kill chain” y la carrera por la velocidad

  • Maven es la forma más reciente de compresión del procedimiento militar conocido como “kill chain”
    • La kill chain es un concepto que sistematiza el proceso desde la detección hasta la destrucción, y el ejército de EE. UU. ha desarrollado durante décadas tecnologías para acortarla
    • Maven es un sistema que eleva al extremo la velocidad de decisión, y para 2024 tenía como meta decidir 1.000 objetivos por hora
    • Esto equivale a 1 decisión cada 3,6 segundos, o, a nivel individual, 1 decisión cada 72 segundos
  • En la guerra de Irak de 2003, tareas de targeting que antes realizaban 2.000 personas fueron reemplazadas por 20
    • La mejora de velocidad eliminó el margen para juzgar, y desaparecieron los procesos de verificación, objeción y reevaluación
    • Como resultado, aumentó la posibilidad de errores de juicio y se ampliaron las víctimas civiles

Repetición histórica: confianza tecnológica y desaparición del juicio

  • El problema de Maven no es un fenómeno nuevo, sino la repetición de un patrón histórico en el que la automatización tecnológica reemplaza el juicio
    • En la Operation Igloo White de la guerra de Vietnam en los años 60, un sistema de objetivos basado en sensores funcionó mal y produjo resultados falsos en masa
    • La CIA informó que el “número de camiones destruidos” superaba la cantidad real existente, lo que dejó al descubierto la cerrazón de un sistema incapaz de verificarse a sí mismo
    • La doctrina del bombardeo de precisión de la Segunda Guerra Mundial también, por su obsesión con la eficiencia, perdió de vista el significado del objetivo y fue llamada “fanatismo tecnológico (technological fanaticism)”
  • El manual de targeting de la Fuerza Aérea de EE. UU. de 1998 enfatizaba el “pensamiento racional basado en hechos y conclusiones”, pero
    • en las operaciones reales, los “targeting packages (TIP)” basados en PowerPoint se confirmaban mediante citas circulares (circular reporting) sin verificación
    • en la guerra de Kosovo de 1999, el bombardeo erróneo de la embajada china quedó registrado como un caso representativo de este tipo de error procedimental

La eliminación del juicio y la “doble atadura burocrática”

  • Las organizaciones necesitan a alguien que interprete excepciones mientras sigue reglas,
    • pero como reconocer ese juicio sacude la autoridad de las reglas, se intenta cuantificar y procedimentalizar el juicio
    • El historiador Theodore Porter llamó a esto “Trust in Numbers”
  • El CEO de Palantir, Alex Karp, en su libro The Technological Republic,
    • escribió que “el software es el timonel, y el hardware es el medio que ejecuta las recomendaciones de la IA”
    • presentó como ideal un modelo de “acción colectiva autónoma (bee swarm)” que elimina el juicio humano intermedio
    • pero eso desemboca en una procedimentalización total en la que desaparece el espacio para la interpretación, es decir, una “burocracia frágil”
  • Los procesos de reunión, reporte y revisión no eran ineficiencias, sino los únicos puntos donde podía intervenir el juicio,
    • pero Maven los reemplazó por el tablero Kanban de flujo de trabajo del software, eliminando el margen para juzgar

La causa estructural del bombardeo de la escuela de Minab

  • En el targeting package, el edificio estaba clasificado como instalación militar,
    • pero en realidad figuraba como escuela en Google Maps y en una base de datos comercial iraní
    • sin embargo, a una velocidad de decisión de 1.000 casos por hora, nadie lo buscó ni lo verificó
  • Sin aprobación del Congreso, se atacaron 6.000 objetivos en dos semanas, y uno de ellos fue una escuela primaria
    • Después del incidente, el debate se concentró en el supuesto “error de Claude”,
      • ocultando así responsabilidades políticas y legales centrales, como la legalidad de la guerra, la falta de aprobación del Congreso y la posibilidad de crímenes de guerra
  • El encuadre de que era un “problema de IA” funcionó como vía de escape para encubrir decisiones y responsabilidades humanas
    • Alguien comprimió la kill chain, consideró la reflexión como “latencia”,
      • y diseñó un sistema que llamó “de alta calidad” a decidir objetivos a razón de 1.000 por hora
    • Todas esas decisiones las tomaron seres humanos, y la IA no puede asumir esa responsabilidad

1 comentarios

 
GN⁺ 2026-03-28
Opiniones en Hacker News
  • Maven es una herramienta creada para usarse en medio de una guerra
    Cuando ambos bandos están combatiendo, ahorrar unos minutos puede equivaler a salvar vidas
    Pero este ataque no ocurrió en medio de un combate, sino que fue un ataque sorpresa. Ahorrar tiempo en una situación donde nadie respondía al fuego no salvó vidas
    La identificación del objetivo debió hacerse con más cuidado y tendría que haber sido verificada varias veces por personas. La escuela era claramente una escuela, e incluso tenía sitio web
    Pasar al siguiente objetivo con apenas tres clics fue claramente negligencia humana. Había tiempo suficiente para evitar un error así
    Ya haya sido por exceso de confianza en la herramienta o por desprecio hacia la vida de los civiles, el resultado fue la muerte de niñas pequeñas
    Espero que quienes tomaron esa decisión rindan cuentas

    • Es posible que hayan influido ambas cosas: exceso de confianza en la herramienta y desprecio por la vida civil
      Estados Unidos inició la guerra con el objetivo de desestabilizar al Estado, e ignoró las bajas civiles en el proceso
      Es como si yo incendiara una casa y luego me excusara diciendo: “no sabía que era un jardín de niños”
      Incluso en la época de la llamada “guerra contra el terror”, hubo muchos casos en los que bombardearon bodas y luego dijeron que había sido “un error”
    • No pude encontrar el sitio web de la escuela, y confirmé que tampoco aparecía en Google Maps
      Pero ese tipo de información en línea no es una base confiable para elegir objetivos
      Debió identificarse con información directa, como observación satelital. Una escuela tiene patrones de actividad determinados y se habría visto distinta de una instalación militar
      Probablemente designaron toda la base como una sola unidad y confundieron el edificio escolar con parte de la base
      Una vez dada la orden, pudo haber existido presión de tiempo. En cualquier caso, esto fue una tragedia
    • Según el análisis del New York Times, ese edificio originalmente formaba parte de la base y, por su apariencia, también parecía parte del complejo
      Si de miles de salidas solo hubo un bombardeo erróneo, la tasa de error sería relativamente baja, pero este caso fue claramente un fracaso
      Aun así, la afirmación de que “no se revisó lo suficiente” tiene poco sustento. De hecho, fuentes internas dicen que este objetivo debió quedar fuera de la lista
    • Es incorrecto decir que “había tiempo suficiente”. Las oportunidades de reunir en un mismo lugar a altos cargos iraníes son raras, y la operación se llevó a cabo bajo limitaciones de tiempo
    • Aprecio que hayas resumido con claridad el punto que querías plantear
      Precisamente por la naturaleza de este tipo de ataque sorpresa, la responsabilidad recae por completo en quienes lo planearon, aprobaron y ejecutaron
      La pregunta de “¿por qué había niños en la escuela?” nace de la ignorancia. Irán tiene un sistema de fin de semana distinto, y nadie podía prever un ataque sorpresa
      Cuanto más fácil se vuelve usar fuerza letal, más aumentan las víctimas inocentes
      También está el caso de Israel, que habría rastreado la ubicación de hombres adultos usando metadatos de WhatsApp para atacarlos
      Este tipo de métodos no es distinto de lo que se hacía hace 20 años, y algún día una bomba así podría caer sobre nuestra propia casa
  • Hace unas semanas ocurrió algo parecido
    Mientras Estados Unidos e Israel atacaban instalaciones policiales iraníes, bombardearon un parque de Teherán cuyo nombre incluía “Police” (Police Park)
    En realidad, era solo un parque común
    Video relacionado, fuente adicional
    Si le pides a una IA “enumera 100 instalaciones policiales en Teherán”, obtendrías algo así. Hay indicios claros de que se usó IA para seleccionar objetivos

    • Pero no hay pruebas concluyentes de que “Police Park realmente haya sido bombardeado”. El lugar existe, pero la historia parece fabricada
  • Esto se repite porque Estados Unidos es un país moral y éticamente quebrado
    El bombardeo del refugio de Amiriyah es otro ejemplo

    • ¿No habría que impulsar al menos un boicot a los productos estadounidenses para detener este tipo de violencia?
  • Fue la primera vez que en el artículo apareció la afirmación de que “Claude de Anthropic señaló la escuela como objetivo”
    Hasta ahora, muchos reportes apuntaban a que la causa había sido más bien el uso de procedimientos obsoletos y errores de inteligencia que el uso de IA

    • Pero tanto The Guardian como Washington Post ya habían informado a inicios de marzo que Claude se usó en ataques contra Irán
    • Yo también había oído esa afirmación en varios lugares
    • En este tema hay mucha confusión y malentendidos
      Claude puede ejecutarse en Amazon Bedrock y, en ese caso, no corre a través de una API operada directamente por Anthropic, sino que el modelo funciona dentro del centro de datos del cliente
      Un proveedor como Palantir puede elegir qué modelo usar, y es posible que haya usado Claude por medio de Bedrock
      En este tipo de contratos, Anthropic no tiene acceso a la telemetría, por lo que no puede demostrar cómo se usó realmente
      Al final, decir que “se usó Claude” puede ser técnicamente cierto o no, y termina siendo un red herring
  • También vale la pena mencionar que el autor del artículo ya había tratado este tema antes en su publicación de Substack

  • ¿De verdad había gente que creyera que era culpa de la IA?
    En los ejércitos modernos, los LLM suelen usarse como herramienta para evadir responsabilidades
    Si hubiera existido un objetivo claro, habría habido una lista documentada y preparada
    Pero ahora el enfoque parece ser algo como: “dejemos caer la mayor cantidad posible de bombas y el computador ya verá cómo resolverlo”
    La realidad es que matar ha pasado a tener prioridad sobre los objetivos estratégicos

  • El contenido del artículo me pareció interesante
    La frase “el ejército estadounidense ha tratado de reducir la brecha entre la observación y la destrucción” suena algo sesgada, pero muestra bien cuán espesa se ha vuelto la niebla de la guerra (fog of war)
    Los primeros párrafos incluso se sintieron refrescantes

  • Me impresionó la idea de que “el AI-washing ahora se usa no solo para despidos, sino también para la guerra”

    • El mayor papel de la IA es eliminar la responsabilidad y la propiedad
  • Antes fue Dios, luego la naturaleza y ahora la IA
    Los seres humanos cargan con el problema fundamental de evadir la responsabilidad por sus propios actos
    Toda la era de la industrialización y de las computadoras quizá pueda verse como un intento de borrar esa responsabilidad de forma permanente

  • Al final, en cualquier caso, los crímenes de guerra de Estados Unidos no tienen justificación
    El hecho de que ni siquiera pueda disculparse adecuadamente podría terminar siendo un punto de inflexión histórico que veremos con retrospectiva