2 puntos por GN⁺ 2026-02-28 | 1 comentarios | Compartir por WhatsApp
  • Declaró que el anuncio de designación de riesgo en la cadena de suministro de Pete Hegseth carece de base legal y que lo impugnará en los tribunales
  • Afirma que, durante meses de negociaciones, Anthropic solo pidió dos excepciones: vigilancia doméstica masiva y armas completamente autónomas, y que esas excepciones no han afectado hasta ahora ni una sola misión gubernamental
  • Sostiene que los modelos frontier de IA actuales no son lo suficientemente confiables para usarse en armas completamente autónomas, y que permitirlo pondría en mayor riesgo a combatientes estadounidenses y a civiles
  • La designación de riesgo en la cadena de suministro históricamente solo se ha aplicado a adversarios de Estados Unidos, y no existe precedente de su aplicación pública a una empresa estadounidense
  • Informó a los clientes que no habrá impacto en el acceso a Claude para clientes generales ni contratistas comerciales, y que la medida se limita al trabajo bajo contratos del Departamento de Defensa

Antecedentes y progreso de las negociaciones

  • El secretario Hegseth anunció en X que ordenaría designar a Anthropic como riesgo en la cadena de suministro
  • La medida llegó después de que las negociaciones, que se extendieron por meses, quedaran estancadas en torno a dos excepciones que Anthropic solicitó respecto al uso militar de Claude
    • Excepción 1: vigilancia doméstica masiva dirigida a estadounidenses
    • Excepción 2: armas completamente autónomas
  • Al momento de publicar su declaración, Anthropic no había recibido ninguna notificación oficial directa del Departamento de Defensa ni de la Casa Blanca sobre el estado de las negociaciones

La postura de Anthropic

  • Dejó claro al Departamento de Defensa que apoya todos los usos legales de IA para seguridad nacional, excepto las dos excepciones anteriores
  • Afirma que estas excepciones no han afectado hasta ahora ni una sola misión gubernamental
  • Dos razones para mantener estas excepciones:
    • Los modelos frontier de IA actuales no son lo suficientemente confiables para usarse en armas completamente autónomas, y permitirlo generaría riesgos para combatientes estadounidenses y civiles
    • La vigilancia doméstica masiva constituye una violación de derechos fundamentales

Respuesta legal y preocupación por el precedente

  • La designación de riesgo en la cadena de suministro históricamente ha sido una medida aplicada solo a adversarios de Estados Unidos, y no existe precedente de su aplicación pública a una empresa estadounidense
  • Anthropic advirtió que esta designación carece de fundamento legal (legally unsound) y que sentaría un precedente peligroso para cualquier empresa estadounidense que negocie con el gobierno
  • Señaló que no cambiará su postura sobre la vigilancia doméstica masiva ni sobre las armas completamente autónomas ante ninguna amenaza o castigo del Departamento de Defensa
  • Declaró que impugnará esta designación en los tribunales

Impacto para los clientes

  • Aunque el secretario Hegseth insinuó que se restringirían las relaciones con Anthropic de todos los proveedores que hacen negocios con el ejército, Anthropic respondió que el secretario no tiene autoridad legal para respaldar eso
  • Una designación de riesgo en la cadena de suministro bajo 10 USC 3252 solo puede aplicarse cuando Claude se use como parte del trabajo de un contrato del Departamento de Defensa, y no puede afectar el trabajo de otros clientes de un contratista
  • Alcance específico del impacto:
    • Si eres un cliente individual o tienes un contrato comercial con Anthropic: no hay ningún impacto en el acceso a Claude mediante la API, claude.ai, etc.
    • Si eres contratista del Departamento de Defensa: incluso si se adopta formalmente, solo afectaría el uso de Claude en trabajo bajo contratos del Departamento de Defensa, y no su uso para otros fines

Próximos pasos de Anthropic

  • Desde junio de 2024, ha apoyado a combatientes estadounidenses como la primera empresa de IA frontier en desplegar modelos en redes clasificadas del gobierno de Estados Unidos, y afirma que seguirá haciéndolo
  • Su prioridad principal es evitar interrupciones del servicio para los clientes a raíz de esta situación y apoyar una transición fluida para el ejército y las operaciones militares de Estados Unidos
  • Expresó su agradecimiento a colegas de la industria, responsables de políticas públicas, veteranos y público general que recientemente mostraron su apoyo

1 comentarios

 
GN⁺ 2026-02-28
Comentarios en Hacker News
  • La postura de Anthropic esta vez es realmente admirable
    Reconocer con honestidad que no se puede predecir cómo podría malutilizarse una tecnología poderosa es una actitud inteligente y valiente

  • Es irónico que Anthropic u OpenAI recopilen datos de usuarios casi como si vigilaran al mundo entero, pero al mismo tiempo reaccionen con tanta sensibilidad ante la posibilidad de que ocurra algo parecido dentro de su propio país
    Sobre todo viendo que en los informes relacionados con China incluso analizan historiales de chat, la privacidad en la práctica no existe

  • Ojalá Anthropic se mantenga firme incluso en esta situación
    Precisamente por esa actitud, hasta me cae mejor

  • Ojalá no ayuden a que “el Gran Hermano” vea todavía más
    Si el resultado termina siendo un fortalecimiento de la vigilancia, ya es momento de pensar seriamente si deberían seguir haciendo ese trabajo
    Tal vez ahora haya que empezar a pensar en cómo perturbar sus datasets de entrenamiento

  • Me pregunto si Anthropic es la primera empresa en enfrentarse de frente a la administración actual

    • No. El año pasado varios bufetes de abogados que fueron blanco de órdenes ejecutivas (EOs) ganaron en los tribunales
    • Como otro ejemplo, varias pequeñas y medianas empresas enfrentaron las medidas arancelarias de la administración bajo la IEEPA y ganaron en la Corte Suprema
      Se puede consultar el caso relacionado: Learning Resources, Inc. v. Trump
  • Esto es lo que se llama liderazgo de verdad
    Es completamente distinto del silencio y la sumisión que muestran las grandes tecnológicas

  • Esta declaración se siente como una forma muy cortés de decir: “a ver, inténtalo
    Anthropic está mostrando una postura fiel a sus principios, y si aguanta hasta el final, creo que tiene muchas probabilidades de ganar

  • Resumen del contenido del comunicado
    El secretario Hegseth dijo que “las empresas que hagan negocios con el ejército no podrán hacerlos también con Anthropic”, pero no tiene base legal
    Según 10 USC 3252, la ‘designación de riesgo de cadena de suministro’ solo se aplica al uso de Claude en contratos del Departamento de Guerra
    Es decir, para usuarios generales o contratistas comerciales no hay ningún impacto en el uso de Claude API ni de claude.ai

    • En la práctica, la clave será si la administración presiona a los contratistas
      Incluso podrían verse afectadas empresas como Google, que proporcionan recursos de cómputo a Anthropic
      Si la ley funciona como debe, el daño sería limitado, pero parece que dependerá de qué tan agresivamente quiera empujar esto la administración
      Personalmente, casi no tengo confianza en el sistema legal; al final parece una cuestión de voluntad política
    • Otra posibilidad es clasificar esta tecnología como ‘datos restringidos’ al estilo de la tecnología nuclear
      Si eso ocurriera, habría una batalla legal, pero la mayoría de las empresas probablemente no asumirían ese riesgo y terminarían cediendo
  • Creo que el título está equivocado
    En realidad sería “declaración para clientes sobre los comentarios del secretario del Departamento de Guerra Pete Hegseth”
    Este tipo de respuesta incluso podría tocar un punto débil del otro lado y provocar más conflicto

    • Ya quedó corregido, gracias