9 puntos por GN⁺ 2026-02-28 | 3 comentarios | Compartir por WhatsApp
  • Pete Hegseth ordenó al Departamento de Defensa designar a Anthropic como empresa de riesgo para la cadena de suministro de seguridad nacional y prohibir el uso de Anthropic a todos los contratistas que hagan negocios con el ejército de EE. UU.
  • Exigió acceso ilimitado a los modelos para todos los fines de defensa legales, pero criticó a Anthropic por no aceptar esa condición
  • El presidente Trump ordenó por Truth Social la suspensión inmediata del uso de la tecnología de Anthropic en todas las agencias federales, otorgando un periodo de transición de 6 meses
  • En negociaciones que duraron varios meses, Anthropic había exigido salvaguardas para evitar que sus modelos se usaran en vigilancia doméstica masiva y en el desarrollo de armas autónomas sin intervención humana, pero el Departamento de Defensa rechazó esas condiciones
  • Claude es actualmente el único modelo de IA usado en sistemas clasificados del ejército de EE. UU. y ya se había utilizado en la operación de captura de Maduro, por lo que se espera una transición considerablemente difícil
  • Esta medida es el primer caso en que una designación de riesgo para la cadena de suministro se aplica a una empresa estadounidense, lo que deja un precedente importante en la relación entre las empresas de IA y la seguridad nacional

Declaración oficial del secretario de Defensa Pete Hegseth

  • Criticó a Anthropic y a su CEO Dario Amodei por intentar esconderse detrás de la retórica del "altruismo efectivo (effective altruism)" para ejercer un veto sobre el ejército estadounidense
  • Recalcó que el Departamento de Defensa ha exigido acceso completo e ilimitado a los modelos de Anthropic para todos los fines legales y que esa postura no cambiará
  • Declaró que los términos de uso de Anthropic no pueden estar por encima de la seguridad, preparación de combate y vida de los combatientes estadounidenses
  • Con efecto inmediato, ningún contratista, proveedor o socio que haga negocios con el ejército de EE. UU. podrá mantener actividades comerciales con Anthropic
  • Anthropic deberá seguir prestando servicios al Departamento de Defensa durante hasta 6 meses para facilitar una transición ordenada
  • Afirmó que "los combatientes estadounidenses nunca serán rehenes de los caprichos ideológicos de Big Tech" y dejó claro que se trata de una decisión final

Contexto del conflicto: meses de negociaciones

  • Anthropic y el Departamento de Defensa sostuvieron meses de negociaciones tensas sobre las condiciones de uso de Claude por parte del ejército
  • Anthropic estaba dispuesta a ajustar su política de uso, pero mantuvo dos salvaguardas: impedir que sus modelos se usaran para vigilancia masiva sobre ciudadanos estadounidenses y para el desarrollo de armas que disparen sin intervención humana
  • El Departamento de Defensa consideró esas condiciones restricciones excesivas y sostuvo que, debido a la gran cantidad de zonas grises en la definición de vigilancia masiva y armas autónomas, serían inviables en la práctica
  • El Departamento de Defensa también está negociando con OpenAI, Google y xAI para exigir el uso de modelos bajo el criterio de "todos los fines legales (all lawful purposes)"
  • Según reportes, altos funcionarios del Departamento de Defensa llevaban tiempo molestos con Anthropic y aprovecharon activamente la oportunidad de un enfrentamiento público

Reunión directa entre Hegseth y Amodei (24 de febrero)

  • Hegseth informó a Amodei que el Departamento de Defensa elegiría entre designar a la empresa como riesgo para la cadena de suministro o invocar la Defense Production Act
  • La Defense Production Act es una ley de la década de 1950 que otorga al gobierno poder para obligar a una empresa a producir ciertos bienes en situaciones de emergencia nacional
  • Sobre el ambiente de la reunión, un funcionario dijo que "no fue cordial", mientras que otra fuente afirmó que fue "educada" y sin alzar la voz
  • Hegseth elogió a Claude ante Amodei, pero dejó claro que ninguna empresa puede imponer condiciones a las decisiones operativas del Departamento de Defensa ni objetar casos de uso individuales
  • Hegseth mencionó en concreto la acusación del Departamento de Defensa de que Anthropic expresó a Palantir preocupaciones sobre el uso de Claude durante la operación contra Maduro, algo que Amodei negó
  • A la reunión asistieron varias figuras de alto nivel, entre ellas el subsecretario de Defensa Steve Feinberg, el subsecretario de Investigación e Ingeniería Emil Michael y el subsecretario de Adquisiciones Michael Duffey

Rechazo final de Amodei y reacción del Departamento de Defensa

  • Amodei rechazó el jueves la "mejor y última oferta" del Departamento de Defensa y declaró que "en conciencia no puede aceptar sus exigencias"
  • Emil Michael calificó a Amodei de "mentiroso" y de alguien con "complejo de dios", y lo acusó de haber aceptado poner en riesgo la seguridad nacional
  • Incluso después de la reunión, Anthropic mantuvo un tono conciliador y declaró que "sigue en conversaciones de buena fe sobre la política de uso para que Anthropic pueda continuar apoyando la misión de seguridad nacional del gobierno"

Importancia estratégica de Claude y dificultad de la transición

  • Claude es actualmente el único modelo de IA usado en sistemas clasificados del ejército estadounidense
  • Se usó en la operación de captura de Maduro mediante una asociación con Palantir, y también podría emplearse en una posible operación militar contra Irán
  • Funcionarios del Departamento de Defensa reconocen las capacidades de Claude y describen la transición como un "dolor enorme"
  • Un funcionario afirmó: "La única razón por la que seguimos hablando es porque los necesitamos y los necesitamos ahora mismo; el problema es que son así de buenos"
  • El valor del contrato de Anthropic con el Departamento de Defensa alcanza hasta 200 millones de dólares, una fracción mínima de sus 14 mil millones de dólares en ingresos anuales
  • Sin embargo, Anthropic afirma que 8 de las 10 principales empresas de EE. UU. usan Claude, por lo que se anticipa que el impacto de esta designación de riesgo para la cadena de suministro será amplio

Modelos alternativos y movimientos de la competencia

  • xAI de Elon Musk firmó recientemente un contrato para introducir Grok en entornos clasificados, aunque no está claro si podrá reemplazar por completo a Claude
  • El Departamento de Defensa está acelerando las conversaciones para trasladar modelos de OpenAI y Google desde entornos no clasificados a sistemas clasificados
  • Un alto funcionario del gobierno reconoció que los modelos competidores están "ligeramente rezagados" en aplicaciones especializadas para el gobierno, lo que dificulta una transición abrupta
  • OpenAI, Google y xAI ya aceptaron eliminar salvaguardas en sistemas no clasificados, pero todavía no se usan para tareas clasificadas

Respuesta de OpenAI

  • El CEO de OpenAI, Sam Altman, anunció en un memorando del viernes que OpenAI mantiene las mismas líneas rojas que Anthropic
  • Señaló que "la IA no debe usarse para vigilancia masiva ni para armas letales autónomas, y debe haber intervención humana en decisiones automatizadas de alto riesgo"
  • OpenAI también tiene un contrato independiente de 200 millones de dólares con el Departamento de Defensa, aunque para trabajo no clasificado

Declaración del presidente Trump

  • En Truth Social ordenó la "suspensión inmediata del uso de la tecnología de Anthropic en todas las agencias federales"
  • Declaró que "no la necesitamos, no la queremos y nunca volveremos a hacer negocios con ella"
  • Calificó a Anthropic de "lunáticos de izquierda" y lo acusó de cometer un "error desastroso" al intentar obligar al Departamento de Defensa a seguir sus términos de uso en lugar de la Constitución

Reacciones políticas y preocupaciones

  • El senador Mark Warner, vicepresidente del Comité de Inteligencia del Senado, criticó la medida de Trump
  • Expresó seria preocupación por si las decisiones de seguridad nacional se están tomando por consideraciones políticas y no por análisis cuidadoso
  • Advirtió que amenazar y denigrar a una empresa estadounidense como pretexto para dirigir contratos hacia proveedores preferidos implica un enorme riesgo para el país
  • También expresó preocupación por la posibilidad de cambiar hacia modelos que algunas agencias federales ya habían identificado como amenazas para la confiabilidad, seguridad y protección

Postura de Anthropic y perspectivas futuras

  • En un ensayo de enero, Dario Amodei identificó como preocupación central que "haya demasiado pocos dedos sobre el botón", advirtiendo sobre un escenario en el que un pequeño número de personas pueda operar ejércitos de drones sin cooperación de otros seres humanos
  • Anthropic planea una IPO este año, y no está claro qué impacto tendrá el conflicto con la administración sobre los inversionistas
  • Amodei afirmó que, incluso después de enfrentarse a la administración Trump, la valuación y los ingresos de Anthropic han seguido creciendo
  • Esta designación de riesgo para la cadena de suministro era una medida que hasta ahora se aplicaba solo a empresas de países adversarios, como Rusia o China, y se informa que es la primera vez que se aplica a una empresa estadounidense
  • Palantir también venía usando Claude para trabajo clasificado, por lo que ahora necesitará migrar a modelos de la competencia

3 comentarios

 
cnaa97 2026-02-28

Estados Unidos “China”

 
kimjoin2 2026-03-01

Qué desagradable, perdón

 
GN⁺ 2026-02-28
Comentarios de Hacker News
  • Creo que DoW (Department of War) y Anthropic ya tenían un contrato, y que ahí había cláusulas claras sobre lo permitido y lo prohibido
    Pero ahora DoW está intentando darle la vuelta a esas condiciones. Al releer la declaración oficial de Dario, los casos de uso que alega DoW ni siquiera estaban incluidos en el contrato original
    Al final, Anthropic está respetando el acuerdo original, y parece que DoW está intentando cambiar el contrato de mala fe

    • En el artículo de Astral Codex Ten queda aún más claro
      El Pentágono aceptó las condiciones originales, y ahora intenta cambiarlas unilateralmente
    • Es totalmente normal que un proveedor restrinja cómo puede usarse su producto
      Es la misma lógica que decir que no se usen tuberías con plomo para agua potable
    • Para cambiarle el nombre a Department of War hace falta aprobación del Congreso. Su nombre oficial sigue siendo DoD
    • Esta administración se comporta de forma poco confiable en cualquier negociación, ya sea comercio internacional o contratos empresariales
    • La administración Trump ya tiene historial de no pagarles a sus contratistas. Cuesta creer que esta vez sí vaya a respetar el contrato
  • Si de verdad fuera una empresa tan peligrosa como para amenazar la seguridad nacional, resulta contradictorio que la vayan a seguir usando durante 6 meses más

    • No hay una explicación racional para eso. Parece simplemente una maniobra de extorsión (shakedown)
    • Como referencia, Anthropic es actualmente la única empresa de IA que opera en los sistemas clasificados del Pentágono (artículo de NYT)
    • Suena a amenaza mafiosa de “bonita IA tienes ahí, sería una pena que le pasara algo”
    • Esta administración se mueve de manera predecible: declara emergencias improvisadas sobre la marcha
    • La estrategia de negociación típica del gobierno es empezar con exigencias extremas y luego ceder hasta un punto medio que le favorezca
  • Me impresiona que Anthropic mantenga sus principios. Es el tipo de empresa con la que sí dan ganas de trabajar

    • Claro, las empresas pueden cambiar, pero la Anthropic de hoy merece respeto
    • A diferencia de Google, Facebook y OpenAI, tiene una diferencia clara en sus estándares éticos
    • En los últimos 9 meses, el equipo de PR ha respondido de forma excelente
    • Pero tampoco hay que olvidar que ya existen víctimas de los ataques de EE. UU. en el extranjero
  • Yo apoyo la postura de Anthropic de no involucrarse en armas letales ni vigilancia
    Como veterano patriota de Estados Unidos, incluso me parecería mejor que Anthropic se mudara a Europa
    Como dijo Rutger Bregman, Europa controla el cuello de botella del hardware de IA a través de ASML, y si Anthropic se sumara podría convertirse en la base de una superpotencia de IA (enlace al tuit)

    • Pero si Anthropic realmente se mudara a Europa, sus empleados podrían tener dificultades por idioma, familia y vida cotidiana
    • Si Europa hubiera podido crear Claude, ya lo habría hecho
    • Canadá también sería una buena alternativa. Tiene una base de investigación en IA como el instituto Mila y mantiene valores liberales
    • Aun así, es poco probable que trasladen toda la empresa. Solo pasaría si el gobierno intentara nacionalizar el modelo
  • Esta medida podría ser un golpe devastador para Anthropic
    Si se prohíbe a todas las empresas que hacen negocios con el DoD tener actividad comercial con Anthropic, Claude corre el riesgo de ser expulsado de plataformas en la nube como AWS, Google y Microsoft

    • Pero en la práctica eso parece imposible. Las grandes empresas de nube son inversores clave de Anthropic, así que al final el DoD va a retroceder para no quedar en ridículo
    • En realidad, la restricción solo se aplicaría a proyectos relacionados con el gobierno. Para uso interno, seguiría siendo posible usar Claude
    • Legalmente, lo único prohibido sería facturarlo a contratos del DoD o incluirlo dentro de una solución para esos contratos
    • O sea, AWS podría seguir ofreciendo Claude en Bedrock, pero no incluirlo en contratos exclusivos para el DoD
    • Al final solo habría ineficiencias en proyectos gubernamentales; en el sector privado seguiría usándose
    • Aun así, como gran parte de los ingresos de Anthropic proviene de clientes corporativos grandes, el golpe reputacional sería serio
  • Las restricciones que pidió Anthropic fueron solo dos
    (1) prohibición de vigilancia masiva interna, (2) intervención humana obligatoria en decisiones letales
    Para ser honestos, son condiciones hasta demasiado moderadas (declaración oficial)

    • Pero algunas personas ni siquiera intentan ocultar que quieren usar esta tecnología contra la población
  • Siento que este tipo de temas son difíciles de tratar en HN
    Se supone que hay que evitar discusiones políticas, pero este caso es un ejemplo directo de cómo la ideología y la política afectan a la tecnología

    • Es imposible discutirlo sin decir que el gobierno está actuando de mala fe
      Pero como las reglas de HN dicen “interpreta con buena fe”, estos temas se vuelven difíciles de abordar por naturaleza
    • En mi experiencia, en HN no se prohíbe la política como tal, sino las discusiones malintencionadas
      Hablar de la relación entre tecnología y políticas públicas siempre ha sido bien recibido
    • En realidad todo es político. La tecnología no es la excepción
    • Aun así, conviene evitar hablar solo de política. Ya hay demasiada gente dedicada a eso
    • La cultura hacker en sí misma fue originalmente un movimiento político e ideológico. Ya es hora de recuperar esa esencia
  • La frase “todas las empresas que hagan negocios con el ejército de EE. UU. tienen prohibido realizar actividad comercial con Anthropic” me impactó
    Me pregunto si eso significa que AWS o GCP ya no podrían revender Claude

    • Probablemente sí, y en especial AWS podría incluso tener prohibido usarlo internamente
      Universidades como MIT, Stanford o Caltech, que reciben financiamiento público para investigación, también podrían verse obligadas a dejar de usar Claude
    • Al final los abogados se van a pelear por la interpretación, pero cualquier sistema relacionado con software de riesgo de cadena de suministro quedaría fuera de la posibilidad de venderle al DoD
    • El problema mayor es que, con esa misma lógica, hasta el software de código abierto podría terminar prohibido
    • Al final todos van a quedarse esperando una orden judicial (injunction)
    • En la práctica, parece que solo quedarían restringidas las empresas que hacen negocios con el DoD; los clientes comunes podrían seguir usándolo
  • Como latinoamericano, antes apoyaba a Estados Unidos, pero ya no
    EE. UU. tiene una tendencia a tratar a América Latina de forma coercitiva, y a estas alturas un mundo liderado por China me parece menos invasivo

    • Tampoco hay que olvidar que EE. UU. fue uno de los principales responsables de crear el terrorismo islamista
    • Aun así, quizá Australia o una UE integrada serían alternativas mejores que China
  • El macartismo (McCarthyism) de la era Truman en 1947 empezó con pruebas de lealtad y terminó en listas negras y encarcelamientos (enlace de Wikipedia)
    La situación actual parece una repetición de esa época. Si no sigues la línea del gobierno, terminas en una lista negra o bajo sanciones

    • Se siente parecido a lo que les pasó a Jack Ma y Alibaba en China
    • Pero algunas personas incluso sostienen que “McCarthy tenía razón”