- El Departamento de Guerra de EE. UU. designó a Anthropic como un factor de riesgo de cadena de suministro para la seguridad nacional, y la empresa considera que esta medida no está legalmente justificada, por lo que se prepara para responder por la vía legal
- La carta del Departamento de Guerra indica que el alcance de las restricciones de uso de los modelos Claude es muy limitado y solo se aplica al uso por parte de clientes directamente relacionado con contratos del Departamento de Guerra
- La ley relacionada (10 USC 3252) existe con el propósito de proteger al gobierno, y el secretario del Departamento de Guerra debe usar solo los medios más restrictivos posibles
- Anthropic está discutiendo con el Departamento de Guerra cómo mantener la cooperación y facilitar una transición fluida, al tiempo que conserva sus principios de excepción respecto a armas autónomas y vigilancia doméstica masiva
- La empresa subrayó un objetivo común sobre el uso de la IA para seguridad nacional y afirmó que seguirá apoyando para que las fuerzas armadas estadounidenses en guerra y los expertos en seguridad no pierdan acceso a las herramientas que necesitan
Designación de riesgo de cadena de suministro por parte del Departamento de Guerra
- El Departamento de Guerra notificó que clasificó a Anthropic como un riesgo de cadena de suministro para la seguridad nacional de Estados Unidos
- Anthropic considera que esta medida no es legalmente válida y planea impugnarla ante los tribunales
- Según la redacción de la carta del Departamento de Guerra, esta designación solo se aplica a clientes que usan modelos Claude como parte directa de contratos del Departamento de Guerra
- Incluso si existe un contrato con el Departamento de Guerra, no hay restricciones sobre el uso de Claude no relacionado con ese contrato ni sobre las transacciones con Anthropic
Fundamento legal y alcance de aplicación
- La medida del Departamento de Guerra se basa en la sección 10 USC 3252, y esta ley exige usar el medio de restricción mínimo necesario para proteger la cadena de suministro
- El propósito de la ley es proteger al gobierno, no castigar a los proveedores
- Por lo tanto, el alcance de la designación es muy limitado y no afecta a clientes fuera de los contratistas del Departamento de Guerra
Cooperación con el Departamento de Guerra y principios de excepción
- En los últimos días, Anthropic ha discutido con el Departamento de Guerra formas de continuar la cooperación y los procedimientos de transición
- La empresa ha apoyado al Departamento de Guerra en diversas áreas, como análisis de inteligencia, modelado y simulación, planificación operativa y operaciones cibernéticas
- Anthropic mantiene dos principios de excepción respecto a armas autónomas y vigilancia doméstica masiva
- La empresa dejó clara su postura de que las compañías privadas no deben involucrarse en decisiones sobre operaciones militares
Filtración de una publicación interna
- La empresa se disculpó por una publicación interna que se filtró a la prensa el día anterior
- Esa publicación fue escrita inmediatamente después de una publicación del presidente en Truth Social, una publicación del secretario del Departamento de Guerra en X y el anuncio del contrato entre OpenAI y el Departamento de Defensa
- Anthropic afirmó que no filtró esa publicación y que tampoco tuvo la intención de agravar la situación
- La publicación fue escrita hace seis días y es una evaluación desactualizada que no refleja la situación actual
Apoyo futuro y objetivo compartido
- Anthropic planea seguir apoyando para que las fuerzas armadas estadounidenses en guerra y los expertos en seguridad nacional puedan seguir usando las herramientas que necesitan
- Tiene previsto seguir proporcionando modelos y soporte técnico a costo nominal al Departamento de Guerra y a agencias de seguridad
- La empresa comparte con el Departamento de Guerra el objetivo común de fortalecer la seguridad de Estados Unidos y ampliar el uso gubernamental de la IA
- Todas las decisiones futuras se tomarán sobre la base de esta premisa compartida
1 comentarios
Opiniones en Hacker News
Sorprende cuánto se ha desplazado la ventana de Overton en este tema
Cuando me gradué en 2007, era común que las empresas tecnológicas se negaran a que sus sistemas se usaran en la guerra, y también había muchos compañeros que rechazaban trabajar en esas empresas por motivos morales
Pero ahora Anthropic intenta establecer solo dos excepciones por razones prácticas, no morales. Incluso eso lo envuelven con un lenguaje como si quisieran apoyar la guerra pero no les quedara de otra. El mundo realmente ha cambiado muchísimo
Es una película contra el napalm que satiriza la situación de trabajadores que no saben que lo que producen en realidad son armas
La frase final, “de qué producimos se encargan los trabajadores, estudiantes e ingenieros”, sigue vigente hasta hoy
Antes este tipo de historias eran parte de la formación ética, pero hoy parece que hasta esas clases han desaparecido
Rechazan esa tecnología únicamente porque las armas autónomas letales todavía no están lo bastante desarrolladas, y siempre queda implícito el matiz de “todavía”
Es mejor que OpenAI, sí, pero al final sigue siendo solo la “opción menos mala”
Existe la realidad de que la investigación en defensa puede ser necesaria, pero los sistemas automatizados de toma de decisiones son peligrosos si se salen del control humano
Creo que legalmente debería exigirse un ‘human-in-the-loop’
La “guerra” de 2007 era Irak, y la de ahora incluye Gaza, Irán, Venezuela y hasta la posibilidad de una invasión de Ucrania o Taiwán
Imagino que dentro de Anthropic también tienen en mente ese contexto
En la universidad tenía un amigo que quería trabajar en DARPA; cuando le pregunté por el aspecto ético, me respondió: “ese no es mi problema”
Lo que sentí al estudiar en Estados Unidos es que ni los directivos de la industria ni las universidades tienen interés en el pensamiento crítico y la formación ética, y más bien se enfocan en convertir a la gente en simples herramientas técnicas
Incluso en la semana de innovación de VR en Harvard, casi no había fundadores ni desarrolladores en la sesión de “ética y ley”. La discusión sobre el impacto social estaba totalmente excluida
Al final, siento que esta locura por el dinero ha destruido la capacidad de pensar de la sociedad
Si alguien muere como resultado de eso, yo también tengo responsabilidad
Pero el problema es que, en la práctica, es difícil mantener una línea moral cuando necesitas ganarte la vida. Al final, todos estamos en el mismo barco
En un texto de George Orwell (enlace) también decía que una educación científica por sí sola no garantiza una mirada humana
Me sorprendió leer la frase “Anthropic tiene más cosas en común con el Departamento de Defensa que diferencias”
Pero ahora hablar del alineamiento de IA (alignment) en el mismo marco que el “alineamiento con el Departamento de Guerra” resulta intelectualmente inapropiado
Ninguno de los países atacados este año representa una amenaza existencial para la humanidad. Más bien, estas guerras aumentan riesgos fundamentales
Me pregunto por qué no hay más voces críticas entre los investigadores
Es muy probable que la IA termine nacionalizándose con fines militares, y resulta contradictorio que Anthropic diga que su tecnología es más peligrosa que la bomba atómica mientras al mismo tiempo colabora militarmente con Palantir
La declaración de Anthropic sobre el “combatiente” (warfighter) me hizo dudar
¿De verdad es posible mantener un límite ético solo con estas dos excepciones?
Anthropic, con todo esto, logra verse como “el lado bueno” mientras gana dinero con la industria de la guerra
No hay nada que muestre mejor la realidad orwelliana de Estados Unidos en 2026 que la palabra “warfighter”
Cita un artículo de Techdirt de Mike Masnick
Con gobiernos anteriores, una postura como “queremos evitar que la IA tome decisiones letales sin intervención humana” habría sido una condición de negociación totalmente normal
Pero ahora el secretario de Defensa acusa públicamente a la empresa de ser “traidora”, el presidente ordena a todas las agencias gubernamentales dejar de usar sus productos, y el CEO termina escribiendo una disculpa que parece una carta de rehén
Si el poder y la corrupción del gobierno no se controlan, las empresas inevitablemente terminan haciendo este tipo de tratos
Al principio todo empieza con dinero y patriotismo, pero poco a poco se involucran en cosas irreversibles y luego ya es difícil salir
Llega un nuevo CEO diciendo “mi antecesor era débil, yo seré distinto”, y se repite el mismo círculo vicioso
A quienes quieren poner tecnología al servicio de la industria de la guerra, les diría esto
“Todo te lo pueden quitar, pero la conciencia no la pierdes a menos que la abandones por voluntad propia”
Muchas personas trabajan ahí simplemente por la convicción de que están ayudando al gobierno
Me parece muy interesante cómo va a terminar este caso tanto en los tribunales como en el tribunal de la opinión pública
Creo que será un precedente importante y espero que el resultado sea el correcto
El vicesecretario del Departamento de Guerra, Emil Michael, declaró oficialmente que “no habrá negociación con Anthropic”
Se trata con más detalle en esta entrevista de a16z News