5 puntos por haebom 2026-03-09 | Aún no hay comentarios. | Compartir por WhatsApp
  • Este caso muestra que la IA generativa ya ha penetrado profundamente en la infraestructura militar, ya que Claude de Anthropic fue utilizado para análisis de inteligencia, identificación de objetivos y simulación del ejército de EE. UU. a través del sistema Maven de Palantir.

  • El punto de partida fue Project Maven del Departamento de Defensa de EE. UU. en 2017, y aunque Google se retiró en 2018 tras la oposición interna, después Palantir y Anthropic llenaron ese vacío.

  • A inicios de 2026, Anthropic presentó al Departamento de Defensa dos condiciones: la prohibición de la vigilancia masiva de ciudadanos estadounidenses y la prohibición de las armas completamente autónomas, pero no fueron aceptadas.

  • En este proceso, la administración Trump intentó excluir de facto a Anthropic, y el Departamento de Defensa clasificó a la empresa como un riesgo para la cadena de suministro.

  • Pero incluso justo en ese mismo periodo, Claude siguió utilizándose en operaciones relacionadas con Irán, y dentro del Departamento de Defensa se evaluó que el reemplazo podría tomar varios meses.

  • Esto significa que, una vez que un modelo de IA se integra profundamente en un sistema militar, deja de ser simplemente software y se convierte en una infraestructura difícil de reemplazar.

  • Al mismo tiempo, OpenAI amplió sus contratos con el Pentágono, y Google mostró el desplazamiento de los estándares en toda la industria al eliminar de sus principios de IA de 2025 la cláusula que prohibía armas y vigilancia.

  • La cuestión central es: aunque la IA no apriete directamente el gatillo, si interviene profundamente en la recomendación de objetivos y la definición de prioridades, ¿hasta qué punto puede seguir considerándose control humano?

  • En última instancia, este caso dejó en evidencia que los principios éticos en tiempos de paz se tambalean fácilmente en tiempos de guerra, y que el verdadero poder de negociación proviene más de la profundidad de integración y del costo de transición que de los principios.

  • Por eso, la pregunta ya no es simplemente “¿se deben permitir las armas con IA?”, sino quién y a qué velocidad sustituirá el juicio humano por recomendaciones de IA.

Aún no hay comentarios.

Aún no hay comentarios.