2 puntos por GN⁺ 2026-03-01 | 3 comentarios | Compartir por WhatsApp
  • El Departamento de Defensa de EE. UU. (DoW) está amenazando a Anthropic con invocar la Defense Production Act y forzarle a proporcionar modelos para uso militar y ajustarlos a las exigencias del ejército
  • Anthropic se niega a que sus modelos se usen para vigilancia masiva interna o letalidad autónoma sin control humano, y como represalia el Departamento de Defensa busca designar a la empresa como riesgo para la cadena de suministro (supply chain risk)
  • El Departamento de Defensa también está negociando con Google y OpenAI para que acepten las condiciones que Anthropic rechazó, intentando poner a las empresas a competir entre sí
  • En respuesta, 709 empleados actuales de Google y OpenAI (614 de Google, 95 de OpenAI) firmaron una carta abierta conjunta exhortando a que ambas compañías actúen en solidaridad y rechacen las exigencias del Departamento de Defensa
  • La carta es un gesto simbólico de resistencia interna y solidaridad en la industria frente al uso indebido militar de la IA

Puntos principales de la carta abierta

  • El Departamento de Defensa está amenazando a Anthropic con invocar la Defense Production Act y con designarla como riesgo para la cadena de suministro
    • La exigencia es obligarla a proporcionar sus modelos de IA al ejército y ajustarlos a las necesidades militares
    • Anthropic mantiene sus principios internos de prohibir el uso para vigilancia interna y armas letales autónomas
  • Tras la negativa de Anthropic, el Departamento de Defensa está negociando con Google y OpenAI
    • Se describe como una estrategia para sembrar miedo a que una empresa ceda antes que la otra
  • La carta representa una posición conjunta para impedir este intento de división
    • Con la frase “esta estrategia solo funciona cuando no conocemos las posturas de los demás”, se subraya la necesidad de solidaridad

Firmantes y participación

  • Firmaron 614 empleados de Google y 95 empleados de OpenAI
    • Todos fueron verificados como empleados actuales
    • Algunos participaron con su nombre real y muchos de forma anónima (Anonymous)
  • Las firmas podían hacerse de forma anónima o con nombre real, y todas fueron verificadas mediante un proceso de comprobación laboral
    • Métodos de verificación: autenticación con correo corporativo, inicio de sesión en Google Form, o envío de una foto de identificación, entre otros
    • La información personal de los firmantes anónimos se elimina automáticamente dentro de las 24 horas posteriores a la verificación

Importancia de la carta

  • Un caso que deja claras las límites éticos sobre el uso militar dentro de las empresas de IA
  • Empleados de Google y OpenAI expresaron públicamente que priorizan principios compartidos por encima de la competencia entre empresas
  • Tiene importancia como mecanismo de control interno de la industria frente al uso indebido de la IA en vigilancia y armas letales autónomas

3 comentarios

 
chcv0313 2026-03-03

Siendo una agencia de inteligencia de EE. UU., uno pensaría que podrían desarrollarlo directamente... Más bien, hasta serían mejores recopilando materiales para entrenarlo.

 
kimjoin2 2026-03-01

Guau

 
GN⁺ 2026-03-01
Opiniones de Hacker News
  • Parece que este asunto tendrá un impacto mucho mayor en la economía de EE. UU. y en el estado de derecho en general
    Si el gobierno puede usar reglas de contratación creadas bajo el argumento de la seguridad nacional para castigar a Anthropic por “falta de lealtad”, entonces otras empresas como Apple o Amazon también podrían quedar expuestas al mismo riesgo en el futuro
    Este es un momento de punto de inflexión importante para Estados Unidos

    • El gobierno se está convirtiendo en una cacistocracia fuera de la ley que reescribe los hechos
      Me parece acertado que Anthropic haya dejado claro que sus modelos no están alineados con los fines de “matanza automatizada a gran escala” del Departamento de Defensa de EE. UU.
      Operar armas con LLM es un error históricamente terrible
    • Esto se siente como una versión moderna de la audiencia de seguridad de Oppenheimer en 1954
    • Esta administración está creando un nuevo “momento crucial para Estados Unidos” cada vez
    • Ya no sé en quién confiar. Pasé demasiado tiempo creyendo que todo iba a estar bien
    • En realidad, esto ya ni sorprende; se siente como la normalidad de siempre
  • Si Anthropic cae, eso sería otro clavo en el ataúd de la confianza en Estados Unidos
    Las empresas suscriptoras perderían herramientas importantes por una sola frase del presidente, y empezarían a dudar de si está bien depender de otras compañías estadounidenses

    • En todo el mundo ya se siente que depender de empresas de EE. UU. es riesgoso
      Hoy en día, algo que antes habría tomado años puede pasar en un día por una sola publicación en Truth Social
    • Sinceramente, parte de mí quiere ver caer a Anthropic, pero el efecto colateral sería tan grande que al final yo también saldría perjudicado
    • Cualquier país tiene leyes que permiten confiscar propiedad privada por “interés nacional”
      Al final alguien aceptará las exigencias del Departamento de Defensa, y aunque Anthropic resista, el resultado no cambiará
      Fue un error que el Departamento de Defensa los marcara como una “vulnerabilidad de la cadena de suministro”. Si simplemente hubieran usado la DPA para obligarlos, habría sido mucho más barato y silencioso
    • Anthropic al final se irá de Estados Unidos
      Así como científicos huyeron de la Alemania nazi hacia EE. UU. para participar en el Proyecto Manhattan, esta vez el talento en IA se irá de EE. UU.
    • Decir “no” no destruye la confianza; es mantener los principios
  • La vigilancia masiva dentro del propio país podrá parecer tolerable para sus ciudadanos, pero ¿cómo se sentirían los estadounidenses si otro país hiciera lo mismo?
    Estas políticas en el fondo autorizan a que todo el mundo se vigile mutuamente

    • Los estadounidenses creen que son excepcionales, así que piensan que pueden hacer cosas que los demás no deberían hacer
    • Hasta siento que preferiría que me vigilara China antes que EE. UU. El sistema judicial estadounidense puede ser mucho más aterrador
    • La declaración de Anthropic fue llamativa
      Daba la impresión de que la vigilancia extranjera o las armas autónomas están bien, siempre que no amenacen la vida de ciudadanos estadounidenses
      Me pregunto si eso refleja cómo piensa parte de la gente en EE. UU., o si es una redacción para atraer a patriotas extremos
    • Alguien como yo, que lleva más de 10 años criticando públicamente al gobierno, siente que una IA de vigilancia no me dejaría pasar por alto
      Viendo cómo actúa el gobierno hoy, preocupa imaginar cómo tratarán a personas así
    • Si uno revisa los artículos importantes de IA hoy, la mayoría llevan nombres de investigadores no estadounidenses
      EE. UU. lleva demasiado tiempo como potencia dominante y parece haber caído en una adicción al poder de creer que “siempre tenemos la razón”
  • Las empresas al final están hechas de personas, así que si el gobierno impone políticas, la innovación muere
    Obligar a científicos e ingenieros brillantes a someterse es un desperdicio

    • Si el gobierno quiere X y la empresa A dice “eso no lo podemos hacer”, es institucionalmente normal cortar relaciones comerciales
      Pero detener todas las transacciones puede ser excesivo
      Por ejemplo, si una empresa de tomates enlatados dice “no lo usen para la guerra contra el terrorismo”, puede ser razonable que el gobierno evite a esa empresa
    • La esencia del gobierno es el monopolio de la coerción
      Aunque pierda poder, ese monopolio no desaparece. Más aún si el líder controla a figuras influyentes de la sociedad a través de sus debilidades
    • También se oye el cinismo de “entonces, ¿a dónde te vas a ir, a Rusia? ¿China? ¿EAU?”
  • El rechazo de Anthropic a la “vigilancia masiva doméstica y el asesinato autónomo” mencionado en su comunicado es una trampa
    La palabra “doméstica” no significa nada.
    Según el acuerdo Eyes, los países comparten datos de ciudadanos entre sí para esquivar las prohibiciones de vigilar a su propia población
    Al final todos los Estados se vigilan entre sí, y la ley es solo un adorno para tranquilizar al público

    • Nos sentimos seguros por ser ciudadanos de EE. UU., pero internet no tiene fronteras
      Los bots espía no entienden de ciudadanía, y toda actividad digital está sujeta a vigilancia
      Si Google o TikTok pueden hacerlo, entonces el gobierno o una IA agente como ChatGPT también pueden, por supuesto
    • Anthropic debió haber exigido que el ejército de EE. UU. no pudiera aplicar a ciudadanos estadounidenses datos recolectados por organismos extranjeros
    • La esperanza no es una estrategia
      Lo que está pasando no es un problema de IA sino una prueba de lealtad
      Es el intercambio entre financiamiento estatal y lealtad, y el momento en que todos tendrán que elegir
      Al final, volverse cómplice será la prueba de lealtad
      Así que no hay que esperar, sino exigir y resistir
    • En realidad, ni siquiera está claro que los LLM sean necesarios para la vigilancia interna
      Modelos como EmbeddingGemma o Qwen3 bastan para hacer clustering de datos
    • Entonces, ¿por qué el Departamento de Defensa quiere específicamente un LLM? Esa es la pregunta clave
  • Estados Unidos ya se mueve como una economía dirigida
    Incluso durante la pandemia, creció solo a partir del gasto estatal bajo la fachada de “empresa privada”
    Si el Departamento de Defensa no tiene una IA mejor que la del sector privado, eso es una confesión de incompetencia
    Ya toca reformar la organización militar y reemplazar a un liderazgo incapaz

    • Sin gasto público, el crecimiento sería negativo, pero eso pasa en cualquier país
      Y me parece natural que el gobierno no tenga una IA generativa mejor que la de Anthropic
    • Es muy probable que pronto EE. UU. termine rescatando a OpenAI o Nvidia
      Aunque cambie el gobierno, el gasto militar seguirá aumentando, y ese dinero irá a empresas a las que no les importa matar personas
      La advertencia de Eisenhower se habrá hecho realidad
    • También hay quien señala que el gasto militar no es la partida número uno del presupuesto fiscal
    • Que el ejército compre cosas inútiles tampoco es ninguna novedad
    • En realidad, esta estructura de economía controlada existe en todos los países
      La diferencia era que el capitalismo seleccionaba a las élites por resultados, pero incluso eso se ha ido desdibujando desde 2011
  • Resumen en línea de tiempo de lo ocurrido hasta ahora

  • Junto con las discusiones para designar a Anthropic como riesgo de seguridad de la cadena de suministro, también hubo amenazas de tomar control de la empresa bajo el argumento de la seguridad nacional
    La predicción es que OpenAI terminará de forma parecida: privatización de ganancias, socialización de pérdidas

    • George Hotz dijo alguna vez que empezó tinygrad por preocupación ante la posible nacionalización de Nvidia
    • Esta tendencia parece una teoría de la herradura donde se tocan los extremos de la nacionalización. Es gracioso, pero también una realidad amarga
  • Un sitio está recopilando datos de identidad de empleados actuales y anteriores de OpenAI y Google que tendrían cierta inclinación política
    Según dicen, piden verificación con correo corporativo, foto de credencial y los almacenan en una nube basada en EE. UU.
    El operador es anónimo, y parece que esos datos podrían ser usados por distintos grupos con fines diversos

  • Suena bien eso de “esperamos que los líderes dejen de lado sus diferencias y rechacen esto juntos”, pero hay que pensar qué pasa si esa esperanza fracasa

    • La humanidad siempre se ha lanzado hacia los problemas en medio de la división colectiva. Es solo otra forma de selección natural
    • Si Anthropic de verdad mantuviera sus principios, incluso podría elegir disolverse voluntariamente
      En la práctica sería difícil, pero si tomaran una decisión así, sería admirable
    • Hoy cuesta confiar en el liderazgo tecnológico
    • Viendo cómo Google manejó las protestas de empleados o la cultura tipo Amazon, parece probable que esta vez también firmen contratos en silencio o aplasten la resistencia interna
    • Ya no parece posible depositar más esperanza en líderes como Sam o Dario