- Dario Amodei, CEO de Anthropic, criticó duramente en un memo interno el contrato de OpenAI con el Departamento de Defensa de EE. UU., calificándolo de "teatro de seguridad" (
safety theater)
- Anthropic ya contaba con un contrato militar previo por 200 millones de dólares, pero no logró cerrar un acuerdo porque el Departamento de Defensa exigía acceso ilimitado a la tecnología
- OpenAI firmó el contrato con el Departamento de Defensa en su lugar, y Sam Altman anunció que incluía las mismas protecciones de líneas rojas que Anthropic había exigido
- Amodei dijo a sus empleados que Altman se está presentando como un "mediador de paz y hacedor de acuerdos", y que el mensaje de OpenAI es "mentiras descaradas"
- Tras este contrato, las eliminaciones de ChatGPT aumentaron 295%, mientras que la opinión pública mostró una reacción más favorable hacia Anthropic
Contenido del memo interno de Dario Amodei
- En el memo interno reportado por The Information, Amodei describió el acuerdo de OpenAI con el Departamento de Defensa como "teatro de seguridad"
- Escribió que "la principal razón por la que OpenAI aceptó este contrato y nosotros lo rechazamos es que ellos se preocuparon por tranquilizar a los empleados, mientras que nosotros nos preocupamos por prevenir abusos reales"
- También dijo que Altman se presenta como un "mediador de paz y hacedor de acuerdos" y calificó directamente el mensaje de OpenAI como "straight up lies" (mentiras descaradas)
Cómo se rompieron las negociaciones entre Anthropic y el Departamento de Defensa
- Anthropic rechazó la exigencia del Departamento de Defensa de EE. UU. de tener acceso ilimitado a su tecnología de IA
- La empresa quería garantías de que el DoD no usaría su IA para vigilancia masiva doméstica ni desarrollo de armas autónomas
- Como esa condición no fue aceptada, se cayó el contrato de 200 millones de dólares
- Después, el DoD firmó un nuevo contrato con OpenAI
- Bajo la administración Trump, el Departamento de Defensa, conocido como "Department of War", cerró el contrato con OpenAI en lugar de Anthropic
- Sam Altman anunció que el nuevo contrato de defensa incluía las mismas salvaguardas sobre líneas rojas que Anthropic había exigido
- En una publicación de blog, OpenAI indicó que sus sistemas de IA pueden usarse para "all lawful purposes" (todos los fines legales)
- Según el blog de OpenAI, "el Departamento de Defensa considera ilegal la vigilancia masiva doméstica y en nuestras interacciones quedó claro que no planea usarlo para ese propósito"
- Explicó que eso fue reflejado explícitamente en el contrato como algo fuera del alcance de los usos legales permitidos
Objeciones concretas de Anthropic
- Anthropic objetó específicamente que el Departamento de Defensa pidiera poder usar su IA para "any lawful use" (cualquier uso legal)
- Los críticos señalaron que las leyes pueden cambiar, y que algo que hoy es ilegal podría permitirse en el futuro
Reacción pública e impacto en el mercado
- Tras el anuncio del contrato de OpenAI con el Departamento de Defensa, las eliminaciones de ChatGPT aumentaron 295%
- Esto muestra que el público percibe con sospecha o falta de transparencia los contratos militares de OpenAI
- En el memo, Amodei escribió que "este intento de spin/gaslighting no está funcionando muy bien con el público ni con los medios; la mayoría ve el contrato de OpenAI como sospechoso y nos ve a nosotros como héroes"
Ambiente interno en Anthropic
- Amodei enfatizó ante sus empleados que no debían dejar que el "mensaje distorsionado" de OpenAI afectara al personal interno
- Evaluó que la estrategia de relaciones públicas de OpenAI solo está funcionando con algunos usuarios en línea, pero ha fracasado a la hora de convencer al público en general
3 comentarios
Pero entonces, ¿por qué bloquearon opencode?.. snif..
Comentarios en Hacker News
Cuando @sama anunció pocas horas después que OpenAI firmaría el mismo contrato en lugar de Anthropic bajo las mismas condiciones, me quedó claro que o el DoW o OAI estaba tergiversando los hechos
Si el DoW rechazó las condiciones de Anthropic, entonces las de OAI probablemente eran prácticamente imposibles de hacer cumplir
Al leerlo, sonaba a condiciones del tipo “el DoW no rompe las reglas que él mismo estableció”
Sam Altman dijo que incorporaría reglas al modelo para evitar el mal uso por parte del DoD, pero eso equivale a decir que va a resolver el problema de alineación (alignment) en el corto plazo. Cuesta creerlo
Antes me gustaban sus ensayos, pero cada vez me parece alguien con poca autocrítica y para quien las startups son toda la vida
Esta vez también decepciona mucho ver cómo sale a defender a Altman. En su tuit parece estar ignorando la realidad
Probablemente siente que no puede criticarlo por la responsabilidad que tuvo al darlo a conocer al mundo
La mayoría de los tecnólogos nunca estudió filosofía política, y la antigua historia del anillo de Giges sigue totalmente vigente
Esto no puede verse solo como una cuestión ética. Aquí hay capital enorme en juego
Entrenar modelos de frontera cuesta cantidades astronómicas, y las únicas entidades que pueden absorber eso son organismos como el DoD
Que Anthropic rechazara un contrato con el Departamento de Defensa por motivos de seguridad es una gran apuesta. A cambio, espera que el mercado recompense su enfoque de Constitutional AI
OpenAI quiere el dinero del Departamento de Defensa y al mismo tiempo conservar una imagen amigable para el consumidor. Pero no se puede quedar bien con ambos lados
De hecho, con todo esto Anthropic quizá hasta terminó generando más ingresos
El verdadero riesgo sería que el gobierno llegara a clasificar a Anthropic como riesgo para la cadena de suministro
Parece contradictorio que Anthropic se oponga a la vigilancia del DoD mientras colabora con Palantir
Si el DoD cortó el acuerdo y luego firmó uno nuevo con OpenAI, está claro que había una diferencia sustancial entre las condiciones de ambas empresas
Bajo contratos gubernamentales integra múltiples tipos de datos, incluidos los de investigación y seguridad, pero no los recopila directamente
Ver el artículo de Wired
Ver el artículo de TechCrunch
El memo completo de Dario fue publicado aquí
No parece solo competencia, sino un verdadero choque ideológico
Además, llamar a empleados de OpenAI “idiotas crédulos de Twitter” no fue una gran decisión desde el punto de vista de atraer talento
Ver este tuit de ejemplo
@pg describió a @sama como “alguien que aunque lo dejen en una isla de caníbales, en 5 años sería el rey”, y ahora suena como una cita simbólica de ambición de poder
Dario parece una figura sinceramente íntegra, algo raro en esta época. Ojalá no ceda
Al final todos son empresas con fines de lucro, y que una parte esté equivocada no significa automáticamente que la otra tenga razón
Ver el anuncio oficial
Reconozco que Altman defendió a Anthropic en la cláusula SCR, pero eso era apenas lo mínimo esperable
Esa cita me sonó negativa desde el principio. Esta comunidad también necesita un escepticismo natural frente a las jerarquías
En realidad, ambos laboratorios están haciendo ‘teatro de seguridad’ (safety theater)
Sin haber resuelto el problema de alineación, están compitiendo en una peligrosa carrera de capacidades por presión del mercado
Esto es un llamado a la acción para cancelar las suscripciones de OpenAI y borrar las cuentas a raíz de lo ocurrido
No hacer nada es casi lo mismo que tolerarlo
¿Que Sam Altman miente? A estas alturas ya ni sorprende
Hace que la gente dependa cada vez más de él, hasta que después nadie pueda sacarlo
OpenAI está en una situación en la que intenta sobrevivir dependiendo de subsidios del gobierno
Sam y la dirección ya detectaron la crisis, y necesitan fondos públicos
También hay un cálculo político para sostener el mercado de cara a las elecciones
Nvidia, Micron, Oracle y Microsoft están todos metidos en esta dinámica
Hice un sitio web con una cronología que organiza los hechos recientes entre Anthropic, OpenAI y el gobierno de EE. UU.
Enlace al post en HN
DoD: Departamento de Defensa
..W: ..Guerra