- El Departamento de Defensa de EE. UU. (DoW) está amenazando a Anthropic con invocar la Defense Production Act y forzarle a proporcionar modelos para uso militar y ajustarlos a las exigencias del ejército
- Anthropic se niega a que sus modelos se usen para vigilancia masiva interna o letalidad autónoma sin control humano, y como represalia el Departamento de Defensa busca designar a la empresa como riesgo para la cadena de suministro (supply chain risk)
- El Departamento de Defensa también está negociando con Google y OpenAI para que acepten las condiciones que Anthropic rechazó, intentando poner a las empresas a competir entre sí
- En respuesta, 709 empleados actuales de Google y OpenAI (614 de Google, 95 de OpenAI) firmaron una carta abierta conjunta exhortando a que ambas compañías actúen en solidaridad y rechacen las exigencias del Departamento de Defensa
- La carta es un gesto simbólico de resistencia interna y solidaridad en la industria frente al uso indebido militar de la IA
Puntos principales de la carta abierta
- El Departamento de Defensa está amenazando a Anthropic con invocar la Defense Production Act y con designarla como riesgo para la cadena de suministro
- La exigencia es obligarla a proporcionar sus modelos de IA al ejército y ajustarlos a las necesidades militares
- Anthropic mantiene sus principios internos de prohibir el uso para vigilancia interna y armas letales autónomas
- Tras la negativa de Anthropic, el Departamento de Defensa está negociando con Google y OpenAI
- Se describe como una estrategia para sembrar miedo a que una empresa ceda antes que la otra
- La carta representa una posición conjunta para impedir este intento de división
- Con la frase “esta estrategia solo funciona cuando no conocemos las posturas de los demás”, se subraya la necesidad de solidaridad
Firmantes y participación
- Firmaron 614 empleados de Google y 95 empleados de OpenAI
- Todos fueron verificados como empleados actuales
- Algunos participaron con su nombre real y muchos de forma anónima (Anonymous)
- Las firmas podían hacerse de forma anónima o con nombre real, y todas fueron verificadas mediante un proceso de comprobación laboral
- Métodos de verificación: autenticación con correo corporativo, inicio de sesión en Google Form, o envío de una foto de identificación, entre otros
- La información personal de los firmantes anónimos se elimina automáticamente dentro de las 24 horas posteriores a la verificación
Importancia de la carta
- Un caso que deja claras las límites éticos sobre el uso militar dentro de las empresas de IA
- Empleados de Google y OpenAI expresaron públicamente que priorizan principios compartidos por encima de la competencia entre empresas
- Tiene importancia como mecanismo de control interno de la industria frente al uso indebido de la IA en vigilancia y armas letales autónomas
3 comentarios
Siendo una agencia de inteligencia de EE. UU., uno pensaría que podrían desarrollarlo directamente... Más bien, hasta serían mejores recopilando materiales para entrenarlo.
Guau
Opiniones de Hacker News
Parece que este asunto tendrá un impacto mucho mayor en la economía de EE. UU. y en el estado de derecho en general
Si el gobierno puede usar reglas de contratación creadas bajo el argumento de la seguridad nacional para castigar a Anthropic por “falta de lealtad”, entonces otras empresas como Apple o Amazon también podrían quedar expuestas al mismo riesgo en el futuro
Este es un momento de punto de inflexión importante para Estados Unidos
Me parece acertado que Anthropic haya dejado claro que sus modelos no están alineados con los fines de “matanza automatizada a gran escala” del Departamento de Defensa de EE. UU.
Operar armas con LLM es un error históricamente terrible
Si Anthropic cae, eso sería otro clavo en el ataúd de la confianza en Estados Unidos
Las empresas suscriptoras perderían herramientas importantes por una sola frase del presidente, y empezarían a dudar de si está bien depender de otras compañías estadounidenses
Hoy en día, algo que antes habría tomado años puede pasar en un día por una sola publicación en Truth Social
Al final alguien aceptará las exigencias del Departamento de Defensa, y aunque Anthropic resista, el resultado no cambiará
Fue un error que el Departamento de Defensa los marcara como una “vulnerabilidad de la cadena de suministro”. Si simplemente hubieran usado la DPA para obligarlos, habría sido mucho más barato y silencioso
Así como científicos huyeron de la Alemania nazi hacia EE. UU. para participar en el Proyecto Manhattan, esta vez el talento en IA se irá de EE. UU.
La vigilancia masiva dentro del propio país podrá parecer tolerable para sus ciudadanos, pero ¿cómo se sentirían los estadounidenses si otro país hiciera lo mismo?
Estas políticas en el fondo autorizan a que todo el mundo se vigile mutuamente
Daba la impresión de que la vigilancia extranjera o las armas autónomas están bien, siempre que no amenacen la vida de ciudadanos estadounidenses
Me pregunto si eso refleja cómo piensa parte de la gente en EE. UU., o si es una redacción para atraer a patriotas extremos
Viendo cómo actúa el gobierno hoy, preocupa imaginar cómo tratarán a personas así
EE. UU. lleva demasiado tiempo como potencia dominante y parece haber caído en una adicción al poder de creer que “siempre tenemos la razón”
Las empresas al final están hechas de personas, así que si el gobierno impone políticas, la innovación muere
Obligar a científicos e ingenieros brillantes a someterse es un desperdicio
Pero detener todas las transacciones puede ser excesivo
Por ejemplo, si una empresa de tomates enlatados dice “no lo usen para la guerra contra el terrorismo”, puede ser razonable que el gobierno evite a esa empresa
Aunque pierda poder, ese monopolio no desaparece. Más aún si el líder controla a figuras influyentes de la sociedad a través de sus debilidades
El rechazo de Anthropic a la “vigilancia masiva doméstica y el asesinato autónomo” mencionado en su comunicado es una trampa
La palabra “doméstica” no significa nada.
Según el acuerdo Eyes, los países comparten datos de ciudadanos entre sí para esquivar las prohibiciones de vigilar a su propia población
Al final todos los Estados se vigilan entre sí, y la ley es solo un adorno para tranquilizar al público
Los bots espía no entienden de ciudadanía, y toda actividad digital está sujeta a vigilancia
Si Google o TikTok pueden hacerlo, entonces el gobierno o una IA agente como ChatGPT también pueden, por supuesto
Lo que está pasando no es un problema de IA sino una prueba de lealtad
Es el intercambio entre financiamiento estatal y lealtad, y el momento en que todos tendrán que elegir
Al final, volverse cómplice será la prueba de lealtad
Así que no hay que esperar, sino exigir y resistir
Modelos como EmbeddingGemma o Qwen3 bastan para hacer clustering de datos
Estados Unidos ya se mueve como una economía dirigida
Incluso durante la pandemia, creció solo a partir del gasto estatal bajo la fachada de “empresa privada”
Si el Departamento de Defensa no tiene una IA mejor que la del sector privado, eso es una confesión de incompetencia
Ya toca reformar la organización militar y reemplazar a un liderazgo incapaz
Y me parece natural que el gobierno no tenga una IA generativa mejor que la de Anthropic
Aunque cambie el gobierno, el gasto militar seguirá aumentando, y ese dinero irá a empresas a las que no les importa matar personas
La advertencia de Eisenhower se habrá hecho realidad
La diferencia era que el capitalismo seleccionaba a las élites por resultados, pero incluso eso se ha ido desdibujando desde 2011
Resumen en línea de tiempo de lo ocurrido hasta ahora
Junto con las discusiones para designar a Anthropic como riesgo de seguridad de la cadena de suministro, también hubo amenazas de tomar control de la empresa bajo el argumento de la seguridad nacional
La predicción es que OpenAI terminará de forma parecida: privatización de ganancias, socialización de pérdidas
Un sitio está recopilando datos de identidad de empleados actuales y anteriores de OpenAI y Google que tendrían cierta inclinación política
Según dicen, piden verificación con correo corporativo, foto de credencial y los almacenan en una nube basada en EE. UU.
El operador es anónimo, y parece que esos datos podrían ser usados por distintos grupos con fines diversos
Suena bien eso de “esperamos que los líderes dejen de lado sus diferencias y rechacen esto juntos”, pero hay que pensar qué pasa si esa esperanza fracasa
En la práctica sería difícil, pero si tomaran una decisión así, sería admirable