2 puntos por GN⁺ 2026-03-05 | 3 comentarios | Compartir por WhatsApp
  • Dario Amodei, CEO de Anthropic, criticó duramente en un memo interno el contrato de OpenAI con el Departamento de Defensa de EE. UU., calificándolo de "teatro de seguridad" (safety theater)
  • Anthropic ya contaba con un contrato militar previo por 200 millones de dólares, pero no logró cerrar un acuerdo porque el Departamento de Defensa exigía acceso ilimitado a la tecnología
  • OpenAI firmó el contrato con el Departamento de Defensa en su lugar, y Sam Altman anunció que incluía las mismas protecciones de líneas rojas que Anthropic había exigido
  • Amodei dijo a sus empleados que Altman se está presentando como un "mediador de paz y hacedor de acuerdos", y que el mensaje de OpenAI es "mentiras descaradas"
  • Tras este contrato, las eliminaciones de ChatGPT aumentaron 295%, mientras que la opinión pública mostró una reacción más favorable hacia Anthropic

Contenido del memo interno de Dario Amodei

  • En el memo interno reportado por The Information, Amodei describió el acuerdo de OpenAI con el Departamento de Defensa como "teatro de seguridad"
  • Escribió que "la principal razón por la que OpenAI aceptó este contrato y nosotros lo rechazamos es que ellos se preocuparon por tranquilizar a los empleados, mientras que nosotros nos preocupamos por prevenir abusos reales"
  • También dijo que Altman se presenta como un "mediador de paz y hacedor de acuerdos" y calificó directamente el mensaje de OpenAI como "straight up lies" (mentiras descaradas)

Cómo se rompieron las negociaciones entre Anthropic y el Departamento de Defensa

  • Anthropic rechazó la exigencia del Departamento de Defensa de EE. UU. de tener acceso ilimitado a su tecnología de IA
    • La empresa quería garantías de que el DoD no usaría su IA para vigilancia masiva doméstica ni desarrollo de armas autónomas
    • Como esa condición no fue aceptada, se cayó el contrato de 200 millones de dólares
  • Después, el DoD firmó un nuevo contrato con OpenAI
    • Bajo la administración Trump, el Departamento de Defensa, conocido como "Department of War", cerró el contrato con OpenAI en lugar de Anthropic
    • Sam Altman anunció que el nuevo contrato de defensa incluía las mismas salvaguardas sobre líneas rojas que Anthropic había exigido
  • En una publicación de blog, OpenAI indicó que sus sistemas de IA pueden usarse para "all lawful purposes" (todos los fines legales)
    • Según el blog de OpenAI, "el Departamento de Defensa considera ilegal la vigilancia masiva doméstica y en nuestras interacciones quedó claro que no planea usarlo para ese propósito"
    • Explicó que eso fue reflejado explícitamente en el contrato como algo fuera del alcance de los usos legales permitidos

Objeciones concretas de Anthropic

  • Anthropic objetó específicamente que el Departamento de Defensa pidiera poder usar su IA para "any lawful use" (cualquier uso legal)
  • Los críticos señalaron que las leyes pueden cambiar, y que algo que hoy es ilegal podría permitirse en el futuro

Reacción pública e impacto en el mercado

  • Tras el anuncio del contrato de OpenAI con el Departamento de Defensa, las eliminaciones de ChatGPT aumentaron 295%
    • Esto muestra que el público percibe con sospecha o falta de transparencia los contratos militares de OpenAI
  • En el memo, Amodei escribió que "este intento de spin/gaslighting no está funcionando muy bien con el público ni con los medios; la mayoría ve el contrato de OpenAI como sospechoso y nos ve a nosotros como héroes"

Ambiente interno en Anthropic

  • Amodei enfatizó ante sus empleados que no debían dejar que el "mensaje distorsionado" de OpenAI afectara al personal interno
  • Evaluó que la estrategia de relaciones públicas de OpenAI solo está funcionando con algunos usuarios en línea, pero ha fracasado a la hora de convencer al público en general

3 comentarios

 
jjpark78 2026-03-05

Pero entonces, ¿por qué bloquearon opencode?.. snif..

 
GN⁺ 2026-03-05
Comentarios en Hacker News
  • Cuando @sama anunció pocas horas después que OpenAI firmaría el mismo contrato en lugar de Anthropic bajo las mismas condiciones, me quedó claro que o el DoW o OAI estaba tergiversando los hechos
    Si el DoW rechazó las condiciones de Anthropic, entonces las de OAI probablemente eran prácticamente imposibles de hacer cumplir
    Al leerlo, sonaba a condiciones del tipo “el DoW no rompe las reglas que él mismo estableció”

    • Parece que OpenAI intenta cubrirse escondiéndose detrás de la frase “todos los usos legales
      Sam Altman dijo que incorporaría reglas al modelo para evitar el mal uso por parte del DoD, pero eso equivale a decir que va a resolver el problema de alineación (alignment) en el corto plazo. Cuesta creerlo
    • Los usuarios normales de ChatGPT deberían borrar sus GPT y eliminar su cuenta desde el portal de privacidad de OpenAI
    • No solo perdí por completo el respeto por Sam Altman, sino también por Paul Graham
      Antes me gustaban sus ensayos, pero cada vez me parece alguien con poca autocrítica y para quien las startups son toda la vida
      Esta vez también decepciona mucho ver cómo sale a defender a Altman. En su tuit parece estar ignorando la realidad
      Probablemente siente que no puede criticarlo por la responsabilidad que tuvo al darlo a conocer al mundo
    • Parece que el destino de Dario ya está sellado. Lo que gobierna el mundo es el poder, no el conocimiento ni la riqueza
      La mayoría de los tecnólogos nunca estudió filosofía política, y la antigua historia del anillo de Giges sigue totalmente vigente
    • Yo también pensé desde el principio que tanto el DoW como OAI estaban ocultando algo. Era demasiado obvio. Ojalá se lo hubieran preguntado a ChatGPT antes del anuncio
  • Esto no puede verse solo como una cuestión ética. Aquí hay capital enorme en juego
    Entrenar modelos de frontera cuesta cantidades astronómicas, y las únicas entidades que pueden absorber eso son organismos como el DoD
    Que Anthropic rechazara un contrato con el Departamento de Defensa por motivos de seguridad es una gran apuesta. A cambio, espera que el mercado recompense su enfoque de Constitutional AI
    OpenAI quiere el dinero del Departamento de Defensa y al mismo tiempo conservar una imagen amigable para el consumidor. Pero no se puede quedar bien con ambos lados

    • El contrato sería de unos 200 millones de dólares, lo cual no es tanto dinero para empresas que gastan miles de millones en infraestructura
      De hecho, con todo esto Anthropic quizá hasta terminó generando más ingresos
      El verdadero riesgo sería que el gobierno llegara a clasificar a Anthropic como riesgo para la cadena de suministro
    • Más que una “batalla ética”, es una pelea por intereses económicos, como casi siempre
  • Parece contradictorio que Anthropic se oponga a la vigilancia del DoD mientras colabora con Palantir

    • Pero Palantir aceptó las restricciones de uso de Anthropic, mientras que el DoD las rechazó
      Si el DoD cortó el acuerdo y luego firmó uno nuevo con OpenAI, está claro que había una diferencia sustancial entre las condiciones de ambas empresas
    • Palantir no es una empresa de vigilancia directa como Flock, sino que ofrece una plataforma de integración de datos
      Bajo contratos gubernamentales integra múltiples tipos de datos, incluidos los de investigación y seguridad, pero no los recopila directamente
      Ver el artículo de Wired
    • Tal vez el acuerdo con Palantir excluía la vigilancia interna. Es posible que Anthropic haya puesto como condición “prohibido para vigilancia doméstica”
    • De hecho, Anthropic explicitó incluso en su alianza con Palantir restricciones como “diseño de armas, censura, vigilancia doméstica, desinformación y operaciones cibernéticas maliciosas
      Ver el artículo de TechCrunch
    • Es muy probable que hubiera condiciones similares en el acuerdo con Palantir. Dar por hecho que no las había sería raro
  • El memo completo de Dario fue publicado aquí

    • Sorprende ver una hostilidad pública tan evidente entre los principales laboratorios de IA
      No parece solo competencia, sino un verdadero choque ideológico
      Además, llamar a empleados de OpenAI “idiotas crédulos de Twitter” no fue una gran decisión desde el punto de vista de atraer talento
      Ver este tuit de ejemplo
    • La versión en texto del memo también puede leerse en Pastebin
    • Dario dijo que el spin y el gaslighting de OpenAI no estaban funcionando con el público, y subrayó que había que evitar que los empleados de OpenAI cayeran en la narrativa de Altman
  • @pg describió a @sama como “alguien que aunque lo dejen en una isla de caníbales, en 5 años sería el rey”, y ahora suena como una cita simbólica de ambición de poder
    Dario parece una figura sinceramente íntegra, algo raro en esta época. Ojalá no ceda

    • Pero Anthropic tampoco está completamente limpio, porque también colaboró con Palantir
      Al final todos son empresas con fines de lucro, y que una parte esté equivocada no significa automáticamente que la otra tenga razón
      Ver el anuncio oficial
    • Si uno mira cuál de los dos CEOs intenta ejercer poder extraoficial sobre la toma de decisiones del gobierno, solo uno parece estar tratando realmente de expandir su poder
      Reconozco que Altman defendió a Anthropic en la cláusula SCR, pero eso era apenas lo mínimo esperable
    • Desde hace tiempo me incomoda la adoración excesiva hacia Sam Altman. La idolatría sin críticas siempre es sospechosa
      Esa cita me sonó negativa desde el principio. Esta comunidad también necesita un escepticismo natural frente a las jerarquías
    • Estas peleas en línea entre multimillonarios ya parecen la UFC de la industria tecnológica. La gente común ya no tiene por qué tomar partido
    • Nunca pensé que la frase “¿mirando hacia atrás?” pudiera sonar tan pesada
  • En realidad, ambos laboratorios están haciendo ‘teatro de seguridad’ (safety theater)
    Sin haber resuelto el problema de alineación, están compitiendo en una peligrosa carrera de capacidades por presión del mercado

  • Esto es un llamado a la acción para cancelar las suscripciones de OpenAI y borrar las cuentas a raíz de lo ocurrido
    No hacer nada es casi lo mismo que tolerarlo

  • ¿Que Sam Altman miente? A estas alturas ya ni sorprende

    • Es alguien que apila mentira sobre mentira
      Hace que la gente dependa cada vez más de él, hasta que después nadie pueda sacarlo
  • OpenAI está en una situación en la que intenta sobrevivir dependiendo de subsidios del gobierno
    Sam y la dirección ya detectaron la crisis, y necesitan fondos públicos

    • Sí. La estrategia de OpenAI es convertirse en una empresa demasiado grande para fracasar
      También hay un cálculo político para sostener el mercado de cara a las elecciones
      Nvidia, Micron, Oracle y Microsoft están todos metidos en esta dinámica
  • Hice un sitio web con una cronología que organiza los hechos recientes entre Anthropic, OpenAI y el gobierno de EE. UU.
    Enlace al post en HN

 
nemorize 2026-03-05

DoD: Departamento de Defensa
..W: ..Guerra