- Pete Hegseth ordenó al Departamento de Defensa designar a Anthropic como empresa de riesgo para la cadena de suministro de seguridad nacional y prohibir el uso de Anthropic a todos los contratistas que hagan negocios con el ejército de EE. UU.
- Exigió acceso ilimitado a los modelos para todos los fines de defensa legales, pero criticó a Anthropic por no aceptar esa condición
- El presidente Trump ordenó por Truth Social la suspensión inmediata del uso de la tecnología de Anthropic en todas las agencias federales, otorgando un periodo de transición de 6 meses
- En negociaciones que duraron varios meses, Anthropic había exigido salvaguardas para evitar que sus modelos se usaran en vigilancia doméstica masiva y en el desarrollo de armas autónomas sin intervención humana, pero el Departamento de Defensa rechazó esas condiciones
- Claude es actualmente el único modelo de IA usado en sistemas clasificados del ejército de EE. UU. y ya se había utilizado en la operación de captura de Maduro, por lo que se espera una transición considerablemente difícil
- Esta medida es el primer caso en que una designación de riesgo para la cadena de suministro se aplica a una empresa estadounidense, lo que deja un precedente importante en la relación entre las empresas de IA y la seguridad nacional
Declaración oficial del secretario de Defensa Pete Hegseth
- Criticó a Anthropic y a su CEO Dario Amodei por intentar esconderse detrás de la retórica del "altruismo efectivo (effective altruism)" para ejercer un veto sobre el ejército estadounidense
- Recalcó que el Departamento de Defensa ha exigido acceso completo e ilimitado a los modelos de Anthropic para todos los fines legales y que esa postura no cambiará
- Declaró que los términos de uso de Anthropic no pueden estar por encima de la seguridad, preparación de combate y vida de los combatientes estadounidenses
- Con efecto inmediato, ningún contratista, proveedor o socio que haga negocios con el ejército de EE. UU. podrá mantener actividades comerciales con Anthropic
- Anthropic deberá seguir prestando servicios al Departamento de Defensa durante hasta 6 meses para facilitar una transición ordenada
- Afirmó que "los combatientes estadounidenses nunca serán rehenes de los caprichos ideológicos de Big Tech" y dejó claro que se trata de una decisión final
Contexto del conflicto: meses de negociaciones
- Anthropic y el Departamento de Defensa sostuvieron meses de negociaciones tensas sobre las condiciones de uso de Claude por parte del ejército
- Anthropic estaba dispuesta a ajustar su política de uso, pero mantuvo dos salvaguardas: impedir que sus modelos se usaran para vigilancia masiva sobre ciudadanos estadounidenses y para el desarrollo de armas que disparen sin intervención humana
- El Departamento de Defensa consideró esas condiciones restricciones excesivas y sostuvo que, debido a la gran cantidad de zonas grises en la definición de vigilancia masiva y armas autónomas, serían inviables en la práctica
- El Departamento de Defensa también está negociando con OpenAI, Google y xAI para exigir el uso de modelos bajo el criterio de "todos los fines legales (all lawful purposes)"
- Según reportes, altos funcionarios del Departamento de Defensa llevaban tiempo molestos con Anthropic y aprovecharon activamente la oportunidad de un enfrentamiento público
Reunión directa entre Hegseth y Amodei (24 de febrero)
- Hegseth informó a Amodei que el Departamento de Defensa elegiría entre designar a la empresa como riesgo para la cadena de suministro o invocar la Defense Production Act
- La Defense Production Act es una ley de la década de 1950 que otorga al gobierno poder para obligar a una empresa a producir ciertos bienes en situaciones de emergencia nacional
- Sobre el ambiente de la reunión, un funcionario dijo que "no fue cordial", mientras que otra fuente afirmó que fue "educada" y sin alzar la voz
- Hegseth elogió a Claude ante Amodei, pero dejó claro que ninguna empresa puede imponer condiciones a las decisiones operativas del Departamento de Defensa ni objetar casos de uso individuales
- Hegseth mencionó en concreto la acusación del Departamento de Defensa de que Anthropic expresó a Palantir preocupaciones sobre el uso de Claude durante la operación contra Maduro, algo que Amodei negó
- A la reunión asistieron varias figuras de alto nivel, entre ellas el subsecretario de Defensa Steve Feinberg, el subsecretario de Investigación e Ingeniería Emil Michael y el subsecretario de Adquisiciones Michael Duffey
Rechazo final de Amodei y reacción del Departamento de Defensa
- Amodei rechazó el jueves la "mejor y última oferta" del Departamento de Defensa y declaró que "en conciencia no puede aceptar sus exigencias"
- Emil Michael calificó a Amodei de "mentiroso" y de alguien con "complejo de dios", y lo acusó de haber aceptado poner en riesgo la seguridad nacional
- Incluso después de la reunión, Anthropic mantuvo un tono conciliador y declaró que "sigue en conversaciones de buena fe sobre la política de uso para que Anthropic pueda continuar apoyando la misión de seguridad nacional del gobierno"
Importancia estratégica de Claude y dificultad de la transición
- Claude es actualmente el único modelo de IA usado en sistemas clasificados del ejército estadounidense
- Se usó en la operación de captura de Maduro mediante una asociación con Palantir, y también podría emplearse en una posible operación militar contra Irán
- Funcionarios del Departamento de Defensa reconocen las capacidades de Claude y describen la transición como un "dolor enorme"
- Un funcionario afirmó: "La única razón por la que seguimos hablando es porque los necesitamos y los necesitamos ahora mismo; el problema es que son así de buenos"
- El valor del contrato de Anthropic con el Departamento de Defensa alcanza hasta 200 millones de dólares, una fracción mínima de sus 14 mil millones de dólares en ingresos anuales
- Sin embargo, Anthropic afirma que 8 de las 10 principales empresas de EE. UU. usan Claude, por lo que se anticipa que el impacto de esta designación de riesgo para la cadena de suministro será amplio
Modelos alternativos y movimientos de la competencia
- xAI de Elon Musk firmó recientemente un contrato para introducir Grok en entornos clasificados, aunque no está claro si podrá reemplazar por completo a Claude
- El Departamento de Defensa está acelerando las conversaciones para trasladar modelos de OpenAI y Google desde entornos no clasificados a sistemas clasificados
- Un alto funcionario del gobierno reconoció que los modelos competidores están "ligeramente rezagados" en aplicaciones especializadas para el gobierno, lo que dificulta una transición abrupta
- OpenAI, Google y xAI ya aceptaron eliminar salvaguardas en sistemas no clasificados, pero todavía no se usan para tareas clasificadas
Respuesta de OpenAI
- El CEO de OpenAI, Sam Altman, anunció en un memorando del viernes que OpenAI mantiene las mismas líneas rojas que Anthropic
- Señaló que "la IA no debe usarse para vigilancia masiva ni para armas letales autónomas, y debe haber intervención humana en decisiones automatizadas de alto riesgo"
- OpenAI también tiene un contrato independiente de 200 millones de dólares con el Departamento de Defensa, aunque para trabajo no clasificado
Declaración del presidente Trump
- En Truth Social ordenó la "suspensión inmediata del uso de la tecnología de Anthropic en todas las agencias federales"
- Declaró que "no la necesitamos, no la queremos y nunca volveremos a hacer negocios con ella"
- Calificó a Anthropic de "lunáticos de izquierda" y lo acusó de cometer un "error desastroso" al intentar obligar al Departamento de Defensa a seguir sus términos de uso en lugar de la Constitución
Reacciones políticas y preocupaciones
- El senador Mark Warner, vicepresidente del Comité de Inteligencia del Senado, criticó la medida de Trump
- Expresó seria preocupación por si las decisiones de seguridad nacional se están tomando por consideraciones políticas y no por análisis cuidadoso
- Advirtió que amenazar y denigrar a una empresa estadounidense como pretexto para dirigir contratos hacia proveedores preferidos implica un enorme riesgo para el país
- También expresó preocupación por la posibilidad de cambiar hacia modelos que algunas agencias federales ya habían identificado como amenazas para la confiabilidad, seguridad y protección
Postura de Anthropic y perspectivas futuras
- En un ensayo de enero, Dario Amodei identificó como preocupación central que "haya demasiado pocos dedos sobre el botón", advirtiendo sobre un escenario en el que un pequeño número de personas pueda operar ejércitos de drones sin cooperación de otros seres humanos
- Anthropic planea una IPO este año, y no está claro qué impacto tendrá el conflicto con la administración sobre los inversionistas
- Amodei afirmó que, incluso después de enfrentarse a la administración Trump, la valuación y los ingresos de Anthropic han seguido creciendo
- Esta designación de riesgo para la cadena de suministro era una medida que hasta ahora se aplicaba solo a empresas de países adversarios, como Rusia o China, y se informa que es la primera vez que se aplica a una empresa estadounidense
- Palantir también venía usando Claude para trabajo clasificado, por lo que ahora necesitará migrar a modelos de la competencia
3 comentarios
Estados Unidos “China”
Qué desagradable, perdón
Comentarios de Hacker News
Creo que DoW (Department of War) y Anthropic ya tenían un contrato, y que ahí había cláusulas claras sobre lo permitido y lo prohibido
Pero ahora DoW está intentando darle la vuelta a esas condiciones. Al releer la declaración oficial de Dario, los casos de uso que alega DoW ni siquiera estaban incluidos en el contrato original
Al final, Anthropic está respetando el acuerdo original, y parece que DoW está intentando cambiar el contrato de mala fe
El Pentágono aceptó las condiciones originales, y ahora intenta cambiarlas unilateralmente
Es la misma lógica que decir que no se usen tuberías con plomo para agua potable
Si de verdad fuera una empresa tan peligrosa como para amenazar la seguridad nacional, resulta contradictorio que la vayan a seguir usando durante 6 meses más
Me impresiona que Anthropic mantenga sus principios. Es el tipo de empresa con la que sí dan ganas de trabajar
Yo apoyo la postura de Anthropic de no involucrarse en armas letales ni vigilancia
Como veterano patriota de Estados Unidos, incluso me parecería mejor que Anthropic se mudara a Europa
Como dijo Rutger Bregman, Europa controla el cuello de botella del hardware de IA a través de ASML, y si Anthropic se sumara podría convertirse en la base de una superpotencia de IA (enlace al tuit)
Esta medida podría ser un golpe devastador para Anthropic
Si se prohíbe a todas las empresas que hacen negocios con el DoD tener actividad comercial con Anthropic, Claude corre el riesgo de ser expulsado de plataformas en la nube como AWS, Google y Microsoft
Las restricciones que pidió Anthropic fueron solo dos
(1) prohibición de vigilancia masiva interna, (2) intervención humana obligatoria en decisiones letales
Para ser honestos, son condiciones hasta demasiado moderadas (declaración oficial)
Siento que este tipo de temas son difíciles de tratar en HN
Se supone que hay que evitar discusiones políticas, pero este caso es un ejemplo directo de cómo la ideología y la política afectan a la tecnología
Pero como las reglas de HN dicen “interpreta con buena fe”, estos temas se vuelven difíciles de abordar por naturaleza
Hablar de la relación entre tecnología y políticas públicas siempre ha sido bien recibido
La frase “todas las empresas que hagan negocios con el ejército de EE. UU. tienen prohibido realizar actividad comercial con Anthropic” me impactó
Me pregunto si eso significa que AWS o GCP ya no podrían revender Claude
Universidades como MIT, Stanford o Caltech, que reciben financiamiento público para investigación, también podrían verse obligadas a dejar de usar Claude
Como latinoamericano, antes apoyaba a Estados Unidos, pero ya no
EE. UU. tiene una tendencia a tratar a América Latina de forma coercitiva, y a estas alturas un mundo liderado por China me parece menos invasivo
El macartismo (McCarthyism) de la era Truman en 1947 empezó con pruebas de lealtad y terminó en listas negras y encarcelamientos (enlace de Wikipedia)
La situación actual parece una repetición de esa época. Si no sigues la línea del gobierno, terminas en una lista negra o bajo sanciones