- Se excluyen del contrato dos áreas: la vigilancia doméstica masiva y las armas totalmente autónomas
- Anthropic considera como misión central el uso de la IA para la defensa de Estados Unidos y los países democráticos, y por ello colabora con el Departamento de Defensa y agencias de inteligencia
- Los modelos Claude se están usando en redes clasificadas, laboratorios nacionales y organismos de seguridad nacional para tareas como análisis de inteligencia, planificación operativa y operaciones cibernéticas
- La empresa protege la ventaja de EE. UU. en IA mediante acciones como la suspensión de negocios con empresas vinculadas al Partido Comunista Chino, el bloqueo de ciberataques que abusan de la IA y el respaldo al endurecimiento de los controles de exportación de semiconductores
- Sin embargo, deja explícitamente fuera dos áreas de uso: la vigilancia doméstica masiva y las armas totalmente autónomas, por cuestiones de valores democráticos y confiabilidad tecnológica
- Anthropic afirma que, aun bajo presión del Departamento de Defensa, mantendrá estas dos salvaguardas y espera continuar la cooperación
Cooperación de Anthropic con defensa y despliegue de IA
- Anthropic es una empresa pionera que desplegó por primera vez modelos de IA en redes clasificadas del gobierno de Estados Unidos
- También fue la primera en ofrecer modelos personalizados para laboratorios nacionales y clientes de seguridad nacional
- Los modelos Claude se utilizan en el Departamento de Defensa y en varias agencias de seguridad para análisis de inteligencia, modelado y simulación, planificación operativa y operaciones cibernéticas
- La empresa presenta ejemplos de haber renunciado a ganancias de corto plazo para mantener la ventaja tecnológica de EE. UU. en IA
- Suspendió negocios con empresas vinculadas al Partido Comunista Chino, renunciando a cientos de millones de dólares en ingresos
- Bloqueó ciberataques provenientes de China que abusaban de Claude
- Respaldó el endurecimiento de los controles de exportación de semiconductores para asegurar la ventaja tecnológica del bloque democrático
Dos excepciones por valores democráticos y confiabilidad tecnológica
- Anthropic excluye explícitamente dos casos de uso en los que la IA podría socavar valores democráticos
- Vigilancia doméstica masiva: apoya las actividades legítimas de inteligencia en el extranjero, pero la vigilancia masiva de la población dentro del país va en contra de los principios democráticos
- La vigilancia basada en IA permite combinar automáticamente datos de desplazamiento personal, uso web y relaciones sociales para hacer posible el perfilado masivo de personas
- Las leyes actuales no siguen el ritmo del avance tecnológico, por lo que algunas prácticas de vigilancia siguen siendo legales
- Armas totalmente autónomas: las armas que identifican y atacan objetivos sin intervención humana carecen de confiabilidad suficiente con la tecnología actual
- Anthropic no proporciona productos para este tipo de armas
- Propuso al Departamento de Defensa una colaboración de investigación para mejorar la confiabilidad, pero no fue aceptada
- Declara explícitamente que hoy no pueden desplegarse debido a la falta de supervisión y salvaguardas adecuadas
Exigencias del Departamento de Defensa y respuesta de Anthropic
- El Departamento de Defensa exigió a las empresas de IA que acepten todos los usos legales y eliminen estas dos salvaguardas
- Advirtió que, si se negaban, podría designar a Anthropic como riesgo para la cadena de suministro (supply chain risk) o forzarla mediante la Ley de Producción para la Defensa (Defense Production Act)
- Ambas medidas tienen naturalezas contradictorias: una la trataría como amenaza de seguridad, mientras que la otra la considera una tecnología esencial para la seguridad nacional
- Anthropic declara claramente que, aun bajo esta presión, no puede aceptar esa exigencia por motivos de conciencia
- Reconoce el derecho del Departamento de Defensa a elegir a otros contratistas, pero espera seguir cooperando manteniendo estas dos salvaguardas
- Incluso si el contrato terminara, promete apoyar una transición fluida para evitar interrupciones en las operaciones o la planificación militar
Postura a futuro
- Anthropic reafirma su voluntad de apoyar la seguridad nacional de Estados Unidos
- La empresa quiere seguir colaborando con el Departamento de Defensa, pero mantiene su postura de no ceder en sus principios de valores democráticos y seguridad tecnológica
1 comentarios
Comentarios en Hacker News
La parte más fuerte del texto es cuando el gobierno exige que Anthropic elimine sus medidas de seguridad y, al mismo tiempo, amenaza con clasificarla como un “riesgo para la cadena de suministro”
Por un lado dicen que es esencial para la seguridad nacional y, por otro, la llaman un riesgo: una postura contradictoria
Impresiona que Anthropic respondiera: “entonces el gobierno no tiene por qué usar nuestro servicio”. Es una estrategia de mensaje, pero también les devolvió la pelota a las autoridades
Trabajé antes en Anthropic, y tengo un comentario que escribí sobre esta actualización del RSP
Es inspirador ver a líderes de Anthropic dispuestos a perder cargos u oportunidades para mantenerse fieles a sus valores
Personas como Dario, Jared y Sam realmente parecen sinceras hasta el punto de aceptar consecuencias si algo va contra sus convicciones
Claro, no es una empresa perfecta, pero la mayoría de quienes toman decisiones importantes actúan motivados por la buena fe y por sus valores
Al leer el texto me detuve en la frase: “la IA actual no es lo suficientemente confiable como para operar armas totalmente autónomas”
O sea, suena como si dejaran abierta la posibilidad de que las armas autónomas sí sean aceptables cuando lleguen a ser suficientemente confiables
También me decepciona que solo critique la “vigilancia masiva doméstica”, sin negar la “vigilancia parcialmente autónoma” ni la “vigilancia en el extranjero”
Pensaba que el nombre “Anthropic” implicaba trabajar por toda la humanidad, pero al final da la impresión de un marco de “nuestra gente vs. su gente”
Es como cuando OpenAI se llama “abierta” o Corea del Norte se llama “república popular”: el nombre y la realidad pueden no coincidir
Me hizo pensar en la página satírica People’s Republic of Tyranny
Lo que Anthropic está diciendo es solo que “por ahora no se puede”. Más adelante es muy probable que relajen esas restricciones
El hardware y el software general también tienen límites de confiabilidad, así que esa postura no es irracional por sí sola
La verdadera naturaleza de una organización se revela cuando chocan los valores y las ganancias
Es admirable ver a Anthropic intentando mantener sus principios. La mayoría de las empresas no habría tomado esa decisión
Depender de sistemas malos por razones morales está condenado a fracasar a largo plazo
Hace falta un mecanismo fuerte de disuasión contra las malas conductas, aunque da la impresión de que ya vamos tarde
Este texto realmente me deprimió. No sé hacia dónde va Estados Unidos
Ojalá en la próxima elección aparezca un liderazgo racional
Vivo en San Francisco: los maestros tienen que usar GoFundMe para comprar útiles escolares, mientras la ciudad gasta 36 millones de dólares en retirar casas rodantes
Este artículo relacionado muestra qué tan distorsionada está la realidad
La raíz de todos estos problemas es que el Congreso le cedió su autoridad al poder ejecutivo
El ejército debería estar controlado por la ley, y solo la acción ciudadana puede cambiar esto
Es absurdo que las empresas determinen el comportamiento militar. La tecnología siempre puede ser requisada, y las empresas no pueden impedirlo
Que se convierta a los CEO en héroes por algo así demuestra lo distorsionada que está la percepción de la realidad
Al principio me decepcionó enterarme de que Anthropic, mientras se presenta como defensora de una “IA para la humanidad”, también vendió acceso prioritario al Pentágono
Aun así, si alguien inevitablemente va a colaborar con el complejo militar-industrial, entiendo la lógica de que sea mejor que lo haga quien tenga los estándares morales más altos
Al final, las empresas existen para generar ganancias
Mientras existan inversionistas y accionistas, la supervivencia terminará estando por encima de la moral
La verdadera independencia solo es posible en una estructura que no dependa de las ganancias
Soy suscriptor de Claude Max, y por esto me enorgullece ver que Anthropic no se doblegó ante el poder
Ojalá otras empresas también saquen valor de esto
El uso literal de la expresión “Department of War” se debe simplemente a que el Congreso nunca le cambió el nombre. Fuera de eso, me parece una expresión aceptable
Estamos tan acostumbrados a suavizar todo con eufemismos que terminamos sin ver la realidad como es
Valoro mucho que Dario y Anthropic hayan asumido una postura moral. Hoy en día es algo poco común en la industria tecnológica
Que Dario no actuara como Sam Altman o Sundar Pichai ya es bastante notable
En la práctica, Anthropic ya está desplegando modelos para defensa y agencias de inteligencia
En el fondo, sostienen que ninguna empresa puede seguir siendo pura frente a contratos gubernamentales de miles de millones de dólares