- Un juez federal de California determinó que el intento del Departamento de Defensa de designar a Anthropic como ‘riesgo de cadena de suministro’ violaba la Constitución y lo bloqueó de forma indefinida
- La sentencia señala que la medida violó la libertad de expresión y el debido proceso, y que no existe base legal para estigmatizar a una empresa estadounidense como enemiga
- Esta decisión es el tercer caso en que un tribunal frena medidas restrictivas de expresión del secretario de Defensa Pete Hegseth, imponiendo límites a acciones administrativas de represalia del gobierno
- Anthropic celebró el fallo y destacó su disposición a colaborar para garantizar la seguridad y confiabilidad de la IA
- Este caso podría influir en futuros criterios legales sobre la relación contractual entre empresas de IA y el gobierno, así como los límites de su uso militar
Juez bloquea la medida del Departamento de Defensa para designar a Anthropic como ‘riesgo de cadena de suministro’
- Un juez federal de California bloqueó de forma indefinida el intento del Departamento de Defensa de designar a Anthropic como ‘riesgo de cadena de suministro’ para cortar su relación con el gobierno
- La sentencia concluyó que esta medida violó derechos constitucionales
- La aplicación del fallo queda suspendida por una semana para permitir la apelación del gobierno
- El juez dejó claro que “no existe base legal para que una empresa estadounidense sea marcada como potencial enemiga o saboteadora por desacuerdos con el gobierno”
- La medida fue considerada una violación de la libertad de expresión (First Amendment) y del debido proceso (due process)
- La sentencia, de 43 páginas, describió la acción del gobierno como una “idea orwelliana”
- Este fallo es el tercer caso en los últimos meses en que un tribunal frena medidas tomadas por el secretario de Defensa Pete Hegseth contra periodistas y políticos
- Antes, jueces federales en Washington D.C. dictaminaron por separado que Hegseth violó la libertad de expresión mediante políticas hacia la prensa y restricciones a declaraciones de senadores
- Poco después del fallo, Anthropic declaró: “Agradecemos que el tribunal haya actuado con rapidez y reconocido la validez de nuestros argumentos”
- La empresa señaló que esta demanda fue una medida para proteger a la compañía, sus clientes y socios, y dijo que seguirá colaborando con el gobierno para desarrollar IA segura y confiable
Qué significa y cuál es el contexto de la designación de riesgo de cadena de suministro
- La designación de ‘riesgo de cadena de suministro’ implica que todas las empresas que hacen negocios con el ejército deben demostrar que no usaron productos de Anthropic
- Esta designación originalmente solo se había aplicado a empresas vinculadas con países extranjeros adversarios
- Anthropic sostuvo que la medida provocó una violación de la libertad de expresión, difamación y una amenaza a contratos por cientos de millones de dólares
- El conflicto con el Departamento de Defensa comenzó cuando Anthropic mantuvo su postura de restringir el uso del modelo Claude para armas autónomas y vigilancia masiva
- En febrero, Hegseth designó a Anthropic como riesgo de cadena de suministro y ordenó a agencias federales dejar de usar sus productos y cortar vínculos con empresas relacionadas
Principales fundamentos del fallo
- El juez consideró que la medida del Departamento de Defensa fue un acto de represalia sin relación con objetivos de seguridad nacional
- Los registros del Departamento de Defensa indicaban que Anthropic fue designada por mostrar una “actitud hostil a través de la prensa”
- El juez afirmó que castigar a una empresa por criticar públicamente la postura del gobierno sobre contratos es una represalia ilegal contra la libertad de expresión
Postura del Departamento de Defensa y próximos pasos
- El Departamento de Defensa exigió para el modelo Claude “acceso completo para todos los fines legales”
- El CTO del Departamento de Defensa, Emil Michael, dijo en una entrevista con CNBC que no se puede permitir que una empresa con preferencias políticas integradas en su modelo contamine la cadena de suministro y reduzca la eficiencia en combate
- Anthropic mantiene dos principios: prohibir armas autónomas y la vigilancia doméstica
- La empresa sostiene que esa postura es expresión protegida por la Constitución
- Michael calificó el fallo en X (antes Twitter) como una “decisión vergonzosa” y expresó su intención de apelar
- Afirmó que la sentencia contiene “decenas de errores fácticos”, aunque no presentó detalles concretos
Demandas adicionales y perspectiva futura
- Anthropic también mantiene en un tribunal federal de Washington D.C. una demanda separada sobre otra autoridad legal utilizada por Hegseth para imponer la designación de riesgo de cadena de suministro
- Este fallo podría influir en los criterios legales sobre la relación contractual entre empresas de IA y el gobierno, en particular sobre los límites del uso militar de la IA
1 comentarios
Opiniones en Hacker News
Da alivio ver que el sistema judicial a veces sí funciona bien
Pero, viéndolo con menos cinismo, el presidente ha dicho públicamente varias veces que admira a Xi Jinping, y su estilo de gobierno se está pareciendo más al de China
Todos se arrodillan como los CEOs tecnológicos, y él está intentando controlar con puño de hierro todos los aspectos del Ejecutivo
Más bien se parece más a la situación actual de Turquía. Trump está acelerando ese proceso mucho más rápido
Es una cacistocracia (kakistocracy) compuesta por aduladores leales al mayor narcisista de la generación
Se ha convertido en una oligarquía donde los multimillonarios obsesionados con el dinero y la atención pueden hacer lo que quieran
China no es así. Xi Jinping y el Partido Comunista son mucho más guiados por principios
Sin importar qué decida el juez, si el presidente no quiere que se use cierto producto, nadie lo va a usar dentro del gobierno
Al final, Anthropic será una presencia muerta en la práctica dentro del gobierno hasta la próxima elección presidencial
Pero con esta designación, todas las empresas que hacen negocios con el gobierno quedan impedidas de usar Anthropic en cualquier parte de la empresa
Por suerte, si el juez frena el exceso del gobierno, las empresas podrán seguir usándolo internamente
Si les resulta rentable, la mayoría de las empresas seguirá usándolo
Artículo relacionado (CNBC)
De hecho, parece que esto reforzó la percepción de Anthropic como una plataforma moral y racional
Casi todas las empresas tech tienen contratos con el gobierno, así que en la práctica es un bloqueo generalizado
Hablando con un amigo, sentí que sí se puede ser optimista sobre la solidez institucional de la democracia estadounidense
Últimamente hay mucho pesimismo, pero las instituciones siguen funcionando
Cuando una persona que llegó al poder por decisión de la mayoría se pasa de la raya, los tribunales y las instituciones la contienen
Viéndolo en conjunto, el sistema está funcionando bien
El presidente ignora los límites morales y legales y actúa como quiere
Su círculo cercano va a intentar expulsar a Anthropic del gobierno, y los CEOs también lo seguirán para evitar represalias
Que el poder judicial emita órdenes y en su mayoría se ignoren no significa que el sistema esté funcionando
El optimismo legal ignora la realidad. Quienes aplican la ley están protegidos por inmunidad, y no rinden cuentas
El sistema de justicia no funciona
Me pregunto si esta demanda tendrá que ver con 10 U.S. Code § 3252
Documento judicial relacionado
Me pregunto cuánta gente dejó de usar Claude por la orden del Pentágono
Ahora ya se dejaron de usar, pero no hubo anuncio oficial. Como trabajamos en temas de Medicare/Medicaid, la designación tuvo un impacto directo
¿Este fallo realmente va a ayudar? La administración actual no parece muy interesada en cumplir la ley
Este fallo es a nivel de tribunal de distrito, así que es muy probable que la administración Trump apele
Lo que decida la Corte de Apelaciones del Noveno Circuito será más importante
En realidad Anthropic sí es un riesgo de cadena de suministro, pero lo mismo pasa con otras empresas de software privativo con mala seguridad
Tampoco es tan difícil para el gobierno conectar directamente los GPU y usar herramientas FOSS
El verdadero riesgo es que un gobierno con presupuesto infinito ni siquiera tenga esa capacidad básica
No creo que el resultado real vaya a ser muy distinto
Igual no van a poder obtener contratos, así que esta designación es solo un trámite formal
Es solo ponerle un ropaje institucional a lo que en la práctica es “vamos a bloquearlos”
Es impedir que todas las empresas que hacen negocios con el gobierno usen Anthropic en cualquier lado
Por ejemplo, nuestra empresa Calaveras.ai también se ve afectada porque le suministra indirectamente al DoD
Si Palantír estuviera usando Claude, ellos también habrían quedado prohibidos
En la práctica, afecta a toda la economía
Por desgracia, el Pentágono puede apelar, y los tribunales superiores suelen ser demasiado favorables al gobierno en asuntos de “seguridad nacional”