1 puntos por GN⁺ 2026-03-07 | 1 comentarios | Compartir por WhatsApp
  • El Departamento de Defensa de EE. UU. designó oficialmente a Anthropic como riesgo para la cadena de suministro y tomó medidas para bloquear transacciones con contratistas que colaboran con el Pentágono
  • Esta designación suele aplicarse a empresas de países extranjeros adversarios, y es uno de los primeros casos en que se aplica a una empresa estadounidense
  • Mientras el Departamento de Defensa quiere usar la IA para todos los usos legales, Anthropic exige garantías explícitas de que su tecnología no se utilizará para armas autónomas ni vigilancia doméstica masiva
  • Existe la posibilidad de un impacto amplio también sobre socios e inversionistas de Anthropic, como Lockheed Martin, Amazon y Google
  • Anthropic ya anticipó una respuesta legal contra esta designación, y hay análisis que advierten que podría generar un efecto inhibidor en la relación entre la industria de IA y el gobierno

Designación oficial y contexto

  • El Departamento de Defensa notificó oficialmente el jueves a la dirección de Anthropic que consideraba que la empresa y sus herramientas de IA constituían una amenaza de seguridad
  • Un alto funcionario del Departamento de Defensa declaró que “no se puede permitir que un proveedor interfiera en la cadena de mando para restringir el uso legal de capacidades críticas y ponga en riesgo al personal militar”
  • El secretario de Defensa Pete Hegseth había anticipado la semana pasada la designación como riesgo para la cadena de suministro, pero ambas partes continuaron negociando para intentar llegar a un acuerdo

Choque de posturas entre ambas partes

  • El Pentágono exigió a Anthropic permitir el uso de su IA para todos los usos legales
  • Anthropic exigió garantías explícitas de que su tecnología no se usaría para armas autónomas ni para vigilancia doméstica masiva
  • La semana pasada, Anthropic anunció que impugnaría la designación en los tribunales

Alcance de la designación y controversia legal

  • La designación como riesgo para la cadena de suministro puede aplicarse de forma muy amplia o de manera limitada
  • El anuncio de Hegseth de la semana pasada instruía que todas las empresas que colaboran con el ejército no podían hacer negocios con Anthropic, y algunos analistas señalan que esto excede la autoridad legal del Pentágono
    • Según esos analistas, el Departamento de Defensa solo puede instruir a las empresas a no usar Claude en trabajos para el Pentágono
  • Se advierte que, al ser uno de los primeros casos en que esta designación se aplica a una empresa estadounidense, podría tener un efecto inhibidor sobre otras compañías que buscan hacer negocios con el gobierno

Memorando interno del CEO de Anthropic

  • Según informó The Information, en un memorando enviado la semana pasada a los empleados, el CEO Dario Amodei escribió que la razón por la que el gobierno estaba apuntando a Anthropic era que la empresa “no envió elogios dictatoriales a Trump” y se opuso a la agenda de IA del gobierno
  • Ese memorando también criticaba a su competidor OpenAI, que tiene un contrato con el Departamento de Defensa para el uso de sistemas clasificados
    • OpenAI agregó explícitamente esta semana una cláusula de prohibición de vigilancia al contrato, después de la reacción negativa de sus empleados

Estado actual del uso militar

  • Hasta ahora, Claude de Anthropic era la única IA con aprobación para uso en entornos clasificados; recientemente también obtuvo esa aprobación xAI de Elon Musk
  • Claude está siendo utilizado actualmente por el ejército en operaciones relacionadas con Irán y también tiene antecedentes de uso en una operación para la captura del exlíder venezolano Nicolás Maduro
  • Anthropic mantiene una asociación con Palantir, empresa de minería de datos que suministra software al Departamento de Defensa

Impacto en socios e inversionistas

  • Esta medida podría generar consecuencias amplias para socios e inversionistas de Anthropic, incluidos Lockheed Martin, Amazon y Google

1 comentarios

 
GN⁺ 2026-03-07
Opiniones de Hacker News
  • Esta designación normalmente se aplica a empresas extranjeras adversarias, así que resulta impactante que se haya aplicado a una empresa estadounidense por una simple disputa contractual
    Parece que una medida así hará que las empresas de EE. UU. teman firmar contratos con el gobierno
    Si el gobierno se lo propone, en vez de romper o renegociar contratos existentes, puede empujar la situación hasta una prohibición de transacciones con toda una industria
    • Se siente un ambiente de amenaza, como de “qué buen negocio, sería una pena que le pasara algo…”
    • El fascismo es, en esencia, la unión del poder estatal y el poder industrial
      Muchos tecnólogos intentan evitar hablar de política, pero este es un caso que muestra cómo al final la política vuelve y golpea a la industria tecnológica
  • Es terrible que una empresa pueda quebrar por motivos políticos
    La sociedad civil debería preocuparse seriamente por este tipo de ataques
    • Un precedente así podría abrirle la puerta a que un gobierno demócrata sancione proveedores por sus propios motivos políticos
      Una vez que ese poder existe, termina volviéndose también contra el bando opuesto
    • Decir que “preocupa” se queda corto
      EE. UU. ya va camino a una sociedad de control al nivel de la Alemania nazi, y más de la mitad de la ciudadanía lo apoya
    • Si la sociedad civil ya se mostró indiferente ante la invitación a Putin, acciones militares sin aprobación del Congreso, amenazas de anexar territorio de aliados y la muerte de ciudadanos a manos de ICE,
      entonces una designación de ‘riesgo para la cadena de suministro’ como esta no va a generar ninguna alarma
  • Este gobierno no parece tener capacidad para considerar los efectos de segundo y tercer orden
    Como cruza sin consecuencias las líneas rojas que administraciones anteriores no cruzaban, parece que ya ni siquiera le importa
    • Ya ha quedado claro muchas veces que no tiene esa capacidad
      El cierre de USAID es un ejemplo representativo: por la lógica simplista de “no usemos impuestos para ayudar a extranjeros”, terminó tirando también los intereses de EE. UU.
    • Cruzar los tabúes de gobiernos anteriores ahora parece haberse vuelto el objetivo en sí mismo
  • Como contexto relacionado, están
    el tuit sobre que el Departamento de Defensa designó a Anthropic como riesgo para la cadena de suministro y
    el artículo de Reuters sobre la advertencia de acciones legales por parte de Anthropic
  • Desde el principio, Anthropic no debió haberse aliado con el ejército ni con agencias de inteligencia
    El problema fue intentar hacer un trato con el diablo creyendo que podían controlar las condiciones
    Aun así, se valora que intentara mantener sus propias líneas rojas sobre el uso de la tecnología
    • Según la leyenda, el diablo cumple exactamente los términos del contrato
      El problema es la parte humana, que no leyó la letra chica
    • El ejército no es una organización que solo se dedica a bombardear
      También hace muchas cosas en áreas no combatientes, así que colaborar en esos ámbitos no necesariamente es malo
  • El Departamento de Defensa hizo lo que había anticipado, y OpenAI se movió para aprovechar el hueco
    Me pregunto qué elección harán ahora los firmantes de notdivided.org
    • Puede que OpenAI no solo haya aprovechado la oportunidad; según el texto de Gary Marcus,
      también es posible que haya manipulado directamente la situación
    • Cambiar el nombre del Departamento de Defensa requiere aprobación del Congreso, así que actuar así sin aprobación es improcedente
      Está claramente indicado incluso en el artículo de Wikipedia
    • Cuesta tomarse en serio los estándares morales de estos desarrolladores
      porque ya tienen antecedentes de haber trabajado con empresas de muy mala reputación
  • Cerré mi cuenta de ChatGPT y me cambié a Claude
    Solo lo uso gratis para pruebas sencillas, pero hasta ahora me ha dejado mucho más satisfecho
    • Yo también llevo meses usando Le Chat por razones parecidas
      Me basta para lo que necesito, así que cancelar la suscripción a ChatGPT fue una decisión fácil
    • En lo personal, la interfaz CLI de Claude me resulta mucho más práctica
      Usa archivos locales como si fueran memoria, y se puede acceder de inmediato con una sola palabra de comando
    • Pero si Claude llegara a ser designado como riesgo para la cadena de suministro, entonces nubes como AWS, Azure o GCP también quedarían expuestas
      Al final podría volverse imposible operar dentro de EE. UU., y quizá habría que mudarse al extranjero
  • Me pregunto si este incidente debería quedar registrado como el día en que se pasó de una democracia liberal a una democracia no liberal
    Si vuelve a haber una decisión de confiscar activos empresariales, entonces sí sería una prueba clara
    • Si uno les pregunta a los estadounidenses “¿desde cuándo consideran que EE. UU. dejó de ser una democracia?”,
      es interesante ver lo variadas que son las respuestas y lo amplio que es el rango de negación
    • Si casos así se repiten apenas unas cuantas veces más, habrá que admitir que algo anda gravemente mal
    • ¿No debimos darnos cuenta ya cuando la policía secreta empezó a secuestrar personas?
  • Artículo relacionado: archive.ph/IVDtq
  • Este tipo de hostigamiento desde el poder solo se frena cuando todos se le oponen con una sola voz
    Pero si algunos (por ejemplo, OpenAI) se someten, eso se vuelve el nuevo estándar y aparece el siguiente objetivo
    • Pero no creo que la forma de pensar de los multimillonarios sea tan simple