1 puntos por GN⁺ 2026-03-01 | 1 comentarios | Compartir por WhatsApp
  • El gobierno de Estados Unidos suspendió por completo el uso de la tecnología de IA de Anthropic, y el Departamento de Defensa la designó como empresa de riesgo para la seguridad nacional
  • Inmediatamente después del anuncio, OpenAI firmó un contrato con el Departamento de Defensa para suministrar IA para redes confidenciales, surgiendo como proveedor alternativo
  • Anthropic perdió el contrato por mantener restricciones sobre el uso en armas autónomas y vigilancia masiva dentro del país, y anunció acciones legales
  • La administración Trump afirmó que debía garantizar el acceso a la IA para todos los fines legales, mientras que Anthropic subrayó las preocupaciones sobre la seguridad de la tecnología y las violaciones de derechos humanos
  • La medida es considerada un caso que marca el inicio abierto del conflicto sobre la autoridad de las empresas de IA para fijar límites a los usos militares

Medida de prohibición de Anthropic por parte de la administración Trump

  • El presidente Trump ordenó a todas las agencias federales dejar de usar la tecnología de Anthropic, y el Departamento de Defensa clasificó a la empresa como riesgo para la cadena de suministro de seguridad nacional
    • El presidente publicó en Truth Social: “Anthropic puso sus propios términos de servicio por encima de la Constitución”, y añadió: “El gobierno de Estados Unidos ya no hará negocios con ellos”
    • Se estableció un periodo de retirada gradual de 6 meses
  • El secretario de Defensa Pete Hegseth incluyó a Anthropic en la lista de entidades prohibidas para hacer negocios con las fuerzas armadas de EE. UU. y sus contratistas, y anunció que “se hará la transición a un servicio más patriótico”
    • El Departamento de Defensa utilizó el nombre renombrado de ‘Department of War’

Respuesta de Anthropic y acciones legales

  • Anthropic anunció que planea demandar en los tribunales, argumentando que la designación como riesgo para la cadena de suministro carece de base legal
    • La empresa sostiene que la designación solo se aplica al uso de los modelos Claude en contratos militares y que no afecta sus operaciones con otros clientes
  • Anthropic reafirmó su postura contra la vigilancia interna y el uso de armas totalmente autónomas
    • “Los modelos actuales de IA no son lo suficientemente confiables como para usarse en armas totalmente autónomas, y la vigilancia masiva viola derechos fundamentales”, señaló
    • La empresa explicó que negoció durante meses con el Departamento de Defensa, pero mantuvo esas dos excepciones

OpenAI firma contrato con el Departamento de Defensa

  • Justo después del anuncio de Trump, OpenAI firmó un contrato con el Departamento de Defensa para IA destinada a redes clasificadas
    • El CEO Sam Altman anunció que el contrato incluía “la prohibición de vigilancia interna y el principio de responsabilidad humana en el uso de la fuerza”
    • Esto refleja cláusulas de resguardo que Anthropic había exigido
  • OpenAI, Google, xAI y otras también mantienen contratos con el Departamento de Defensa y aceptaron la condición de permitir su uso para ‘todos los fines legales’

Plan de IPO de Anthropic e impacto en el mercado

  • Anthropic se encuentra preparando su IPO este año con una valoración de 380 mil millones de dólares
    • El contrato del Departamento de Defensa, de hasta 200 millones de dólares, es pequeño en comparación con sus ingresos totales (14 mil millones de dólares), pero no está claro cómo el conflicto de políticas afectará la confianza de los inversionistas
  • El CEO Dario Amodei comentó que “el valor de la empresa y sus ingresos siguieron creciendo incluso después de mantener nuestra postura sobre el uso de la IA en el campo de batalla”

Debate sobre las restricciones al uso militar de la IA

  • El Departamento de Defensa dio a Anthropic plazo hasta el viernes a las 5:01 p. m. ET para retirar las restricciones del modelo, y advirtió que, de no hacerlo, cancelaría el contrato
    • El Departamento también mencionó la posibilidad de invocar la Defense Production Act, promulgada durante la Guerra de Corea
  • El secretario Hegseth criticó a Anthropic diciendo que “intentó controlar las decisiones operativas del ejército estadounidense”, y afirmó que “las fuerzas armadas de EE. UU. no se dejan llevar por los caprichos ideológicos del Big Tech”
  • Emil Michael, subsecretario de Defensa para Investigación e Ingeniería, enfatizó que “el uso de vigilancia interna y de armas autónomas ya está prohibido por la ley y la política federales”
  • Expertos independientes evaluaron la situación como un choque público inusual en la historia de los contratos del Pentágono
    • “La IA sigue siendo una tecnología no probada, y este caso refleja esa característica”, analizaron

1 comentarios

 
GN⁺ 2026-03-01
Opiniones en Hacker News
  • Puede que, a raíz de esto, Anthropic gane popularidad entre quienes no apoyan a la actual administración de EE. UU.

    • En los últimos meses los modelos estadounidenses han estado arriba, pero creo que esa diferencia se irá reduciendo poco a poco.
      Por ahora, para consultas complejas todavía hay que usar modelos de EE. UU., pero al menos da gusto que entre ellos exista una empresa que se puede apoyar con la conciencia tranquila.
      Yo quiero apoyar a compañías que no se usen para drones de guerra ni vigilancia masiva.
      Por eso estoy migrando la infraestructura de la empresa de MS 365 a Nextcloud on Hetzner.
    • Otras empresas de IA también deberían tomar como referencia esta línea ética clara.
      No permitir vigilancia masiva ni automatización letal debería ser un criterio básico.
    • Cuando lo escuché por primera vez, pensé que si Europa empieza a discutir infraestructura de IA, Anthropic sería la primera que me vendría a la mente.
      Me pregunto si ha habido algún caso en que una empresa estadounidense haya “emigrado” por completo de esta forma.
    • En este momento Claude Code está al nivel más alto en programación.
      Si Anthropic mantiene esa ventaja, parece probable que su base de clientes empresariales siga creciendo.
    • Esta decisión podría mejorar su reputación en un lado del mercado, pero también hacerla menos atractiva en otro.
  • Según entiendo, esto tiene que ver con que Anthropic prohibió su uso para armas autónomas y vigilancia doméstica.
    En términos realistas, no creo que un sistema de IA totalmente controlado a escala estatal tenga muchas posibilidades de hacerse realidad.

    • En la práctica, se reporta que cuando Anthropic puso estas restricciones, el Departamento de Defensa prohibió todos los usos relacionados con defensa.
      (Edición posterior: se añadió una broma sobre estar pensando si ir caminando al autolavado o ir en carro).
    • El punto central de la disputa es que Anthropic intentó prohibir la vigilancia doméstica y las armas totalmente autónomas, mientras que el Departamento de Defensa quería permitirlas si eran de “uso legal”.
  • Se siente extraño que, después de que fracasaran las negociaciones, el gobierno esté amenazando públicamente a una empresa privada.
    Uno se pregunta a dónde se fue eso de la libertad de expresión.

    • A la frase “¿No era libertad de expresión?”, alguien respondió con cinismo: “Te engañó la publicidad”.
  • Enlace a la publicación relacionada de la cuenta oficial de Twitter de la Casa Blanca
    Tuit original de WhiteHouse
    Enlace alternativo

  • Esta situación podría enviar una señal negativa a toda la industria.
    Si se extiende la idea de que poner límites éticos claros te excluye de contratos con el gobierno, las empresas tendrán incentivos para volver ambiguos sus estándares de seguridad.

  • Resulta irónico que una institución a la que llaman el “Department of War” dependa de la capacidad tecnológica.
    Da risa ver a gente que ni siquiera puede crear esa tecnología criticar a Big Tech y al mismo tiempo rogar por acceso a ella.
    Es admirable que Anthropic no se haya doblado y haya mantenido sus principios.
    Ojalá OpenAI también logre impulsar cambios internos, aunque sea de otra manera.

  • Al final, Anthropic podría terminar siendo la única gran tecnológica que no vendió su alma.

    • Pero es difícil decir que un laboratorio de IA financiado por el gobierno o por grandes corporaciones “no vendió su alma”.
    • Suena optimista, pero tal vez al final solo terminen pidiendo un precio más alto.
  • Hay un movimiento interesante alrededor de las declaraciones de Trump.
    Algunos asesores dentro de la Casa Blanca están ignorando sus comentarios y dando instrucciones de concentrarse en la política económica.
    El estratega político James Blair está liderando esa línea, y fue una figura clave en el éxito de la campaña de Trump.
    Ya ha habido casos antes en que un presidente fue controlado parcialmente por su equipo de asesores.
    Habrá que ver qué amenazas se traducen en acciones reales.
    Artículos relacionados: artículo de The Atlantic / wiki de James Blair

    • También hubo una broma diciendo: “Entonces ahora solo hace falta usar una pluma automática para ir sacando órdenes ejecutivas, ¿no?”.
  • Esto se siente como la mejor carta de recomendación posible para Anthropic.

  • También hubo un comentario preguntando si esto no sería otro caso como esas noticias falsas sobre un “barco hospital generado por IA rumbo a Groenlandia”.