- El Departamento de Defensa de EE. UU. designó oficialmente a Anthropic como riesgo para la cadena de suministro y tomó medidas para bloquear transacciones con contratistas que colaboran con el Pentágono
- Esta designación suele aplicarse a empresas de países extranjeros adversarios, y es uno de los primeros casos en que se aplica a una empresa estadounidense
- Mientras el Departamento de Defensa quiere usar la IA para todos los usos legales, Anthropic exige garantías explícitas de que su tecnología no se utilizará para armas autónomas ni vigilancia doméstica masiva
- Existe la posibilidad de un impacto amplio también sobre socios e inversionistas de Anthropic, como Lockheed Martin, Amazon y Google
- Anthropic ya anticipó una respuesta legal contra esta designación, y hay análisis que advierten que podría generar un efecto inhibidor en la relación entre la industria de IA y el gobierno
Designación oficial y contexto
- El Departamento de Defensa notificó oficialmente el jueves a la dirección de Anthropic que consideraba que la empresa y sus herramientas de IA constituían una amenaza de seguridad
- Un alto funcionario del Departamento de Defensa declaró que “no se puede permitir que un proveedor interfiera en la cadena de mando para restringir el uso legal de capacidades críticas y ponga en riesgo al personal militar”
- El secretario de Defensa Pete Hegseth había anticipado la semana pasada la designación como riesgo para la cadena de suministro, pero ambas partes continuaron negociando para intentar llegar a un acuerdo
Choque de posturas entre ambas partes
- El Pentágono exigió a Anthropic permitir el uso de su IA para todos los usos legales
- Anthropic exigió garantías explícitas de que su tecnología no se usaría para armas autónomas ni para vigilancia doméstica masiva
- La semana pasada, Anthropic anunció que impugnaría la designación en los tribunales
Alcance de la designación y controversia legal
- La designación como riesgo para la cadena de suministro puede aplicarse de forma muy amplia o de manera limitada
- El anuncio de Hegseth de la semana pasada instruía que todas las empresas que colaboran con el ejército no podían hacer negocios con Anthropic, y algunos analistas señalan que esto excede la autoridad legal del Pentágono
- Según esos analistas, el Departamento de Defensa solo puede instruir a las empresas a no usar Claude en trabajos para el Pentágono
- Se advierte que, al ser uno de los primeros casos en que esta designación se aplica a una empresa estadounidense, podría tener un efecto inhibidor sobre otras compañías que buscan hacer negocios con el gobierno
Memorando interno del CEO de Anthropic
- Según informó The Information, en un memorando enviado la semana pasada a los empleados, el CEO Dario Amodei escribió que la razón por la que el gobierno estaba apuntando a Anthropic era que la empresa “no envió elogios dictatoriales a Trump” y se opuso a la agenda de IA del gobierno
- Ese memorando también criticaba a su competidor OpenAI, que tiene un contrato con el Departamento de Defensa para el uso de sistemas clasificados
- OpenAI agregó explícitamente esta semana una cláusula de prohibición de vigilancia al contrato, después de la reacción negativa de sus empleados
Estado actual del uso militar
- Hasta ahora, Claude de Anthropic era la única IA con aprobación para uso en entornos clasificados; recientemente también obtuvo esa aprobación xAI de Elon Musk
- Claude está siendo utilizado actualmente por el ejército en operaciones relacionadas con Irán y también tiene antecedentes de uso en una operación para la captura del exlíder venezolano Nicolás Maduro
- Anthropic mantiene una asociación con Palantir, empresa de minería de datos que suministra software al Departamento de Defensa
Impacto en socios e inversionistas
- Esta medida podría generar consecuencias amplias para socios e inversionistas de Anthropic, incluidos Lockheed Martin, Amazon y Google
1 comentarios
Opiniones de Hacker News
Parece que una medida así hará que las empresas de EE. UU. teman firmar contratos con el gobierno
Si el gobierno se lo propone, en vez de romper o renegociar contratos existentes, puede empujar la situación hasta una prohibición de transacciones con toda una industria
Muchos tecnólogos intentan evitar hablar de política, pero este es un caso que muestra cómo al final la política vuelve y golpea a la industria tecnológica
La sociedad civil debería preocuparse seriamente por este tipo de ataques
Una vez que ese poder existe, termina volviéndose también contra el bando opuesto
EE. UU. ya va camino a una sociedad de control al nivel de la Alemania nazi, y más de la mitad de la ciudadanía lo apoya
entonces una designación de ‘riesgo para la cadena de suministro’ como esta no va a generar ninguna alarma
Como cruza sin consecuencias las líneas rojas que administraciones anteriores no cruzaban, parece que ya ni siquiera le importa
El cierre de USAID es un ejemplo representativo: por la lógica simplista de “no usemos impuestos para ayudar a extranjeros”, terminó tirando también los intereses de EE. UU.
el tuit sobre que el Departamento de Defensa designó a Anthropic como riesgo para la cadena de suministro y
el artículo de Reuters sobre la advertencia de acciones legales por parte de Anthropic
El problema fue intentar hacer un trato con el diablo creyendo que podían controlar las condiciones
Aun así, se valora que intentara mantener sus propias líneas rojas sobre el uso de la tecnología
El problema es la parte humana, que no leyó la letra chica
También hace muchas cosas en áreas no combatientes, así que colaborar en esos ámbitos no necesariamente es malo
Me pregunto qué elección harán ahora los firmantes de notdivided.org
también es posible que haya manipulado directamente la situación
Está claramente indicado incluso en el artículo de Wikipedia
porque ya tienen antecedentes de haber trabajado con empresas de muy mala reputación
Solo lo uso gratis para pruebas sencillas, pero hasta ahora me ha dejado mucho más satisfecho
Me basta para lo que necesito, así que cancelar la suscripción a ChatGPT fue una decisión fácil
Usa archivos locales como si fueran memoria, y se puede acceder de inmediato con una sola palabra de comando
Al final podría volverse imposible operar dentro de EE. UU., y quizá habría que mudarse al extranjero
Si vuelve a haber una decisión de confiscar activos empresariales, entonces sí sería una prueba clara
es interesante ver lo variadas que son las respuestas y lo amplio que es el rango de negación
Pero si algunos (por ejemplo, OpenAI) se someten, eso se vuelve el nuevo estándar y aparece el siguiente objetivo