5 puntos por GN⁺ 2026-03-07 | 1 comentarios | Compartir por WhatsApp
  • El Departamento de Guerra de EE. UU. designó a Anthropic como un factor de riesgo de cadena de suministro para la seguridad nacional, y la empresa considera que esta medida no está legalmente justificada, por lo que se prepara para responder por la vía legal
  • La carta del Departamento de Guerra indica que el alcance de las restricciones de uso de los modelos Claude es muy limitado y solo se aplica al uso por parte de clientes directamente relacionado con contratos del Departamento de Guerra
  • La ley relacionada (10 USC 3252) existe con el propósito de proteger al gobierno, y el secretario del Departamento de Guerra debe usar solo los medios más restrictivos posibles
  • Anthropic está discutiendo con el Departamento de Guerra cómo mantener la cooperación y facilitar una transición fluida, al tiempo que conserva sus principios de excepción respecto a armas autónomas y vigilancia doméstica masiva
  • La empresa subrayó un objetivo común sobre el uso de la IA para seguridad nacional y afirmó que seguirá apoyando para que las fuerzas armadas estadounidenses en guerra y los expertos en seguridad no pierdan acceso a las herramientas que necesitan

Designación de riesgo de cadena de suministro por parte del Departamento de Guerra

  • El Departamento de Guerra notificó que clasificó a Anthropic como un riesgo de cadena de suministro para la seguridad nacional de Estados Unidos
    • Anthropic considera que esta medida no es legalmente válida y planea impugnarla ante los tribunales
  • Según la redacción de la carta del Departamento de Guerra, esta designación solo se aplica a clientes que usan modelos Claude como parte directa de contratos del Departamento de Guerra
    • Incluso si existe un contrato con el Departamento de Guerra, no hay restricciones sobre el uso de Claude no relacionado con ese contrato ni sobre las transacciones con Anthropic

Fundamento legal y alcance de aplicación

  • La medida del Departamento de Guerra se basa en la sección 10 USC 3252, y esta ley exige usar el medio de restricción mínimo necesario para proteger la cadena de suministro
    • El propósito de la ley es proteger al gobierno, no castigar a los proveedores
  • Por lo tanto, el alcance de la designación es muy limitado y no afecta a clientes fuera de los contratistas del Departamento de Guerra

Cooperación con el Departamento de Guerra y principios de excepción

  • En los últimos días, Anthropic ha discutido con el Departamento de Guerra formas de continuar la cooperación y los procedimientos de transición
    • La empresa ha apoyado al Departamento de Guerra en diversas áreas, como análisis de inteligencia, modelado y simulación, planificación operativa y operaciones cibernéticas
  • Anthropic mantiene dos principios de excepción respecto a armas autónomas y vigilancia doméstica masiva
    • La empresa dejó clara su postura de que las compañías privadas no deben involucrarse en decisiones sobre operaciones militares

Filtración de una publicación interna

  • La empresa se disculpó por una publicación interna que se filtró a la prensa el día anterior
    • Esa publicación fue escrita inmediatamente después de una publicación del presidente en Truth Social, una publicación del secretario del Departamento de Guerra en X y el anuncio del contrato entre OpenAI y el Departamento de Defensa
    • Anthropic afirmó que no filtró esa publicación y que tampoco tuvo la intención de agravar la situación
    • La publicación fue escrita hace seis días y es una evaluación desactualizada que no refleja la situación actual

Apoyo futuro y objetivo compartido

  • Anthropic planea seguir apoyando para que las fuerzas armadas estadounidenses en guerra y los expertos en seguridad nacional puedan seguir usando las herramientas que necesitan
    • Tiene previsto seguir proporcionando modelos y soporte técnico a costo nominal al Departamento de Guerra y a agencias de seguridad
  • La empresa comparte con el Departamento de Guerra el objetivo común de fortalecer la seguridad de Estados Unidos y ampliar el uso gubernamental de la IA
    • Todas las decisiones futuras se tomarán sobre la base de esta premisa compartida

1 comentarios

 
GN⁺ 2026-03-07
Opiniones en Hacker News
  • Sorprende cuánto se ha desplazado la ventana de Overton en este tema
    Cuando me gradué en 2007, era común que las empresas tecnológicas se negaran a que sus sistemas se usaran en la guerra, y también había muchos compañeros que rechazaban trabajar en esas empresas por motivos morales
    Pero ahora Anthropic intenta establecer solo dos excepciones por razones prácticas, no morales. Incluso eso lo envuelven con un lenguaje como si quisieran apoyar la guerra pero no les quedara de otra. El mundo realmente ha cambiado muchísimo

    • Esto me recuerda al cortometraje alemán de 1969 Nicht löschbares Feuer (Inextinguishable Fire)
      Es una película contra el napalm que satiriza la situación de trabajadores que no saben que lo que producen en realidad son armas
      La frase final, “de qué producimos se encargan los trabajadores, estudiantes e ingenieros”, sigue vigente hasta hoy
    • En la película Real Genius también estaba la idea de que los estudiantes terminaban construyendo armas sin saberlo
      Antes este tipo de historias eran parte de la formación ética, pero hoy parece que hasta esas clases han desaparecido
    • Solo una de las dos excepciones de Anthropic responde a una razón moral
      Rechazan esa tecnología únicamente porque las armas autónomas letales todavía no están lo bastante desarrolladas, y siempre queda implícito el matiz de “todavía”
      Es mejor que OpenAI, sí, pero al final sigue siendo solo la “opción menos mala”
    • Después de ver el dolor que vivieron estudiantes de preparatoria por el caso MH17, mi forma de pensar sobre la I+D relacionada con la guerra se volvió más compleja
      Existe la realidad de que la investigación en defensa puede ser necesaria, pero los sistemas automatizados de toma de decisiones son peligrosos si se salen del control humano
      Creo que legalmente debería exigirse un ‘human-in-the-loop’
    • La actitud hacia la guerra cambia según el contexto de cada época
      La “guerra” de 2007 era Irak, y la de ahora incluye Gaza, Irán, Venezuela y hasta la posibilidad de una invasión de Ucrania o Taiwán
      Imagino que dentro de Anthropic también tienen en mente ese contexto
  • En la universidad tenía un amigo que quería trabajar en DARPA; cuando le pregunté por el aspecto ético, me respondió: “ese no es mi problema”
    Lo que sentí al estudiar en Estados Unidos es que ni los directivos de la industria ni las universidades tienen interés en el pensamiento crítico y la formación ética, y más bien se enfocan en convertir a la gente en simples herramientas técnicas
    Incluso en la semana de innovación de VR en Harvard, casi no había fundadores ni desarrolladores en la sesión de “ética y ley”. La discusión sobre el impacto social estaba totalmente excluida
    Al final, siento que esta locura por el dinero ha destruido la capacidad de pensar de la sociedad

    • Trabajando en la industria de AdTech sentí que el código publicitario que yo escribía podía terminar usándose para manipulación electoral, contenido antivacunas o anuncios fraudulentos
      Si alguien muere como resultado de eso, yo también tengo responsabilidad
      Pero el problema es que, en la práctica, es difícil mantener una línea moral cuando necesitas ganarte la vida. Al final, todos estamos en el mismo barco
    • Creo que esta insensibilidad ética está relacionada con el declive de las humanidades
      En un texto de George Orwell (enlace) también decía que una educación científica por sí sola no garantiza una mirada humana
    • Decir que “los fundadores o CEOs no tienen derecho a participar en debates éticos” suena a una arrogancia meritocrática
    • Me recuerda la frase de von Braun: “donde caiga el cohete no es asunto de mi departamento”
    • El furor de la IA de los últimos años destruyó por completo mi confianza en la humanidad. La codicia está en el aire como si fuera oxígeno
  • Me sorprendió leer la frase “Anthropic tiene más cosas en común con el Departamento de Defensa que diferencias”

    • Después de la bomba atómica, se cambió “War Department” por “Defense Department” porque la humanidad entendió el peso de sus propias creaciones
      Pero ahora hablar del alineamiento de IA (alignment) en el mismo marco que el “alineamiento con el Departamento de Guerra” resulta intelectualmente inapropiado
      Ninguno de los países atacados este año representa una amenaza existencial para la humanidad. Más bien, estas guerras aumentan riesgos fundamentales
      Me pregunto por qué no hay más voces críticas entre los investigadores
    • Si se interpreta como “queremos una masa obediente”, la frase queda mucho más clara
    • Al leer todo el texto, quedé tan impactado que casi se me borran las cejas
    • Visto desde fuera de Estados Unidos, todo este proceso da mucho miedo
      Es muy probable que la IA termine nacionalizándose con fines militares, y resulta contradictorio que Anthropic diga que su tecnología es más peligrosa que la bomba atómica mientras al mismo tiempo colabora militarmente con Palantir
    • Si uno mira las actividades en Venezuela e Irán, la palabra ‘Defense’ quizá sea, de hecho, la expresión menos orwelliana disponible
  • La declaración de Anthropic sobre el “combatiente” (warfighter) me hizo dudar
    ¿De verdad es posible mantener un límite ético solo con estas dos excepciones?

    • La palabra ‘warfighter’ en sí misma es extraña. Antes se decía ‘servicemen’, pero ahora parece enfatizar una imagen agresiva
    • Aunque no sea perfecto, creo que tiene sentido mover el dinero hacia una opción aunque sea un poco más ética
    • En realidad, en esta historia no hay “buenos”. Ambas compañías buscan maximizar ganancias y solo maquillan su imagen con PR
      Anthropic, con todo esto, logra verse como “el lado bueno” mientras gana dinero con la industria de la guerra
    • Al final no es más que una estrategia de marketing, y diría que funcionó
    • Fue una buena jugada de PR
  • No hay nada que muestre mejor la realidad orwelliana de Estados Unidos en 2026 que la palabra “warfighter”

    • Ese término ya se usa desde hace más de 20 años. De hecho, el nombre tipo neolengua de ‘Departamento de Defensa (DoD)’ es todavía más orwelliano
    • Me viene a la mente el pasaje del Tao Te Ching, capítulo 46: “Cuando el Tao prevalece, los caballos de guerra aran los campos; cuando el Tao no prevalece, los caballos de guerra se reproducen en las fronteras”
    • La frase del político “no estamos en guerra con Irán” suena vacía
    • También va en la misma línea que cuando Trump llamó a su nuevo nombramiento un “guerrero MAGA”
  • Cita un artículo de Techdirt de Mike Masnick
    Con gobiernos anteriores, una postura como “queremos evitar que la IA tome decisiones letales sin intervención humana” habría sido una condición de negociación totalmente normal
    Pero ahora el secretario de Defensa acusa públicamente a la empresa de ser “traidora”, el presidente ordena a todas las agencias gubernamentales dejar de usar sus productos, y el CEO termina escribiendo una disculpa que parece una carta de rehén

  • Si el poder y la corrupción del gobierno no se controlan, las empresas inevitablemente terminan haciendo este tipo de tratos
    Al principio todo empieza con dinero y patriotismo, pero poco a poco se involucran en cosas irreversibles y luego ya es difícil salir
    Llega un nuevo CEO diciendo “mi antecesor era débil, yo seré distinto”, y se repite el mismo círculo vicioso

  • A quienes quieren poner tecnología al servicio de la industria de la guerra, les diría esto
    “Todo te lo pueden quitar, pero la conciencia no la pierdes a menos que la abandones por voluntad propia”

    • La industria de defensa no paga mejor que el sector tecnológico general
      Muchas personas trabajan ahí simplemente por la convicción de que están ayudando al gobierno
  • Me parece muy interesante cómo va a terminar este caso tanto en los tribunales como en el tribunal de la opinión pública
    Creo que será un precedente importante y espero que el resultado sea el correcto

  • El vicesecretario del Departamento de Guerra, Emil Michael, declaró oficialmente que “no habrá negociación con Anthropic”

    • También vale la pena leer la postura que expresó recientemente
      Se trata con más detalle en esta entrevista de a16z News