- El secretario de Defensa de Estados Unidos entregó a Anthropic un ultimátum para que proporcione su tecnología de inteligencia artificial sin restricciones militares
- El Departamento de Defensa amenazó con designar a Anthropic como una empresa de ‘riesgo para la cadena de suministro (supply chain risk)’ si se niega
- Anthropic ha declarado públicamente como principio que prohíbe el uso para sistemas de armas autónomas y fines de vigilancia
- En enero de 2026, Anthropic reafirmó ese principio al sospechar que su IA fue utilizada en un ataque contra Venezuela durante su colaboración con Palantir
- La EFF enfatiza que, pese a la presión del gobierno, las empresas tecnológicas no deben degradarse hasta convertirse en herramientas de vigilancia
La presión del Departamento de Defensa y la postura de Anthropic
- El secretario de Defensa de Estados Unidos presiona a Anthropic exigiendo la entrega de tecnología sin restricciones militares
- Si Anthropic se niega, podría ser designada como de ‘riesgo para la cadena de suministro’, lo que podría bloquear sus negocios con el Departamento de Defensa
- Se explica que esta designación normalmente se aplica a empresas que comercian con países vigilados por agencias federales, como China
- Anthropic mantiene su postura de que no apoyará el uso para sistemas de armas autónomas ni para fines de vigilancia
- Esto corresponde a las “dos líneas rojas que no deben cruzarse” planteadas por su CEO, Dario Amodei, quien indicó que se requieren revisiones estrictas y salvaguardas para prevenir abusos
- Los principios fundamentales de seguridad de IA de Anthropic y la Constitución de Claude (Constitution) están publicados en su sitio web
Trasfondo de la controversia
- En 2025, Anthropic fue conocida como la primera empresa de IA autorizada para manejar información clasificada
- En enero de 2026, comenzó la controversia al detectar indicios de que su IA fue utilizada en un ataque contra Venezuela durante una colaboración con Palantir
- Después, Amodei publicó una carta reafirmando la prohibición del uso para vigilancia y armas autónomas
- Actualmente, el gobierno de Estados Unidos está exigiendo cambios en la política de Anthropic mediante la amenaza de cancelar contratos
La postura de la EFF
- La EFF subraya que las empresas no deben abandonar sus principios de derechos humanos y libertades civiles por presión del gobierno
- Señala que, aunque muchas empresas tecnológicas no logran mantener sus principios por diversas razones, incluido el lucro, la coerción del gobierno no debe ser una de ellas
- Clientes corporativos, el público y los ingenieros esperan que Anthropic mantenga sus principios
- Advierte que es importante que las empresas tecnológicas en general no se conviertan en herramientas de sistemas de vigilancia
Temas relacionados
- Se clasifica como un tema relacionado con inteligencia artificial (IA) y aprendizaje automático (Machine Learning)
- La EFF presenta este asunto como un problema de límites entre la ética de la IA y la vigilancia gubernamental
1 comentarios
Opiniones de Hacker News
Al final, a menos que la gente se levante y fuerce un cambio, veo difícil que la situación mejore
Aun así, Anthropic parece ser la única gran empresa que al menos está teniendo debates sobre seguridad, como no usar IA para vigilancia ni para tecnologías letales de guerra
Pero como la administración actual está empujando a las empresas en una dirección antidemocrática, no estoy seguro de que Anthropic aguante hasta el final. Pienso ver qué pasa este viernes
Esta administración fue elegida con el apoyo de multimillonarios tecnológicos, y creo que incluso podría haber creado esta situación a propósito para conseguir acceso a datos y financiamiento público
El resultado es justamente más vigilancia. Desde la perspectiva de las víctimas, hablar de reducir la vigilancia puede sonar poco realista
Al final, estas son empresas de vigilancia, y eso es parte del problema
El gobierno debería trabajar para la ciudadanía, y en vez de expandir la vigilancia debería limitarla por ley. La Constitución es justamente la guía para eso
Pero ahora todos cambiaron, excepto Anthropic. Incluso Apple ya no parece dispuesta a enfrentarse a las exigencias del gobierno
Llevo 25 años usando Apple, pero ahora mi confianza quedó completamente destruida. Ojalá Anthropic al menos conserve sus principios y su valentía
Pero Anthropic también está impulsando el proyecto KOSA mediante financiamiento a PAC
Si esta ley se aprueba, desaparecerá la libertad de expresión anónima, y todo el contenido tendrá que pasar por verificación facial y de identidad
Este texto muestra que impulsa la centralización con el argumento de la seguridad y la propiedad intelectual
Yo creo que deberíamos vivir en un mundo donde cualquiera pueda ejecutar AGI de código abierto directamente en su propia PC
Repetir solo la expresión de “diálogo constructivo” con el gobierno me parece una señal de falta de transparencia
Fue durante el caso de San Bernardino
Generan ganancias mediante la recolección de telemetría, y recopilan datos con el pretexto de resolver problemas de entornos multicliente
Al final, los usuarios entran atraídos por beneficios gratuitos y terminan como víctimas atrapadas en el vendor lock-in
Por lo que he visto en estos últimos 20 años, en la mayoría de los casos fueron acuerdos pactados, y al final solo era negocio
Decir “si no obedeces, conecta tu IA a mi sistema” es como un ladrón de banco obligando al cajero a entregarle el arma
Buena parte de su valor corporativo ya se basa en su capacidad de cooperar con la vigilancia gubernamental. No son víctimas, son cómplices
La velocidad de crecimiento de la inteligencia en la IA es demasiado alta, así que tarde o temprano los humanos perderán el control
La investigación actual en seguridad y las políticas de escalado responsable al final solo compran tiempo, pero no cambian la dirección de fondo. Esa es la parte que más miedo me da
Según una charla de Steve Blank, antes de los 80 la mayoría de las startups de Silicon Valley comenzaron con financiamiento militar
Incluso hoy, tecnologías estratégicas como internet, la búsqueda y la IA son objeto de control. Le damos datos a Facebook o Google, pero no al gobierno. Sin embargo, al final es la misma información
La cultura de desarrolladores de esa época giraba más en torno al espíritu hacker, la privacidad estilo cyberpunk y el movimiento de código abierto, y chocaba con la cultura militar