3 puntos por GN⁺ 2026-02-28 | 3 comentarios | Compartir por WhatsApp
  • El CEO de OpenAI, Sam Altman, anunció que llegaron a un acuerdo para desplegar modelos en una red clasificada del Departamento de Defensa de EE. UU. (DoD)
  • El acuerdo incluye los principios de prohibición de la vigilancia masiva a nivel nacional y responsabilidad humana en el uso de la fuerza, incluso en sistemas de armas autónomas, y el Departamento de Defensa también aceptó estos principios
  • Como condiciones, se establecerán salvaguardas técnicas para que los modelos funcionen como fue previsto, se desplegarán solo en redes en la nube y se asignarán ingenieros de despliegue en campo (FDE)
  • OpenAI pidió que el Departamento de Defensa ofrezca estas mismas condiciones a todas las empresas de IA, al considerar que son condiciones que cualquier empresa puede aceptar
  • También expresó que espera firmemente reducir la tensión mediante acuerdos razonables más que a través de medidas legales o gubernamentales

Contenido del acuerdo

  • OpenAI cerró un acuerdo para desplegar modelos en una red clasificada del Departamento de Defensa
  • Evaluó que, durante las negociaciones, el Departamento de Defensa mostró un profundo respeto por la seguridad y voluntad de colaborar para lograr el mejor resultado posible

Principios de seguridad

  • La seguridad de la IA y la distribución amplia de sus beneficios son el núcleo de la misión de OpenAI
  • Dos principios clave de seguridad incluidos en el acuerdo:
    • Prohibición de la vigilancia masiva nacional
    • Responsabilidad humana en el uso de la fuerza, incluidos los sistemas de armas autónomas
  • El Departamento de Defensa también está de acuerdo con estos principios, y los reflejará en leyes y políticas además de dejarlos explícitos en el acuerdo

Salvaguardas técnicas y condiciones de despliegue

  • Se construirán salvaguardas técnicas (technical safeguards) para que los modelos funcionen como fue previsto, algo que también pidió el Departamento de Defensa
  • Para dar soporte al modelo y garantizar la seguridad, se asignarán ingenieros de despliegue en campo FDE (Field Deployment Engineer)
  • La condición es que el despliegue se haga solo en redes en la nube

Solicitud de ampliación a toda la industria

  • OpenAI pidió al Departamento de Defensa que ofrezca estas mismas condiciones a todas las empresas de IA
  • Su postura es que son condiciones que todas las empresas estarían dispuestas a aceptar (willing to accept)
  • También expresó su fuerte deseo de reducir la tensión mediante acuerdos razonables en lugar de recurrir a medidas legales o gubernamentales

3 comentarios

 
xguru 2026-02-28

Al final, el Departamento de Defensa de EE. UU. descartó a Anthropic y eligió a OpenAI, pero hay una diferencia en el wording, como suele decirse.

OpenAI propuso junto con ello mecanismos concretos de implementación como la construcción de salvaguardas técnicas, el despliegue de FDE (ingenieros de campo) y una implementación dedicada en la nube.
Anthropic pidió cláusulas de excepción a nivel de términos de uso.

Desde la postura del Departamento de Defensa de EE. UU., esto se vio como que "una empresa privada ejerce poder de veto sobre casos de uso individuales", y lo anunciaron casi como una sanción por resentimiento.

Este acuerdo se anunció poco después de que Anthropic fuera designada como riesgo para la cadena de suministro,
y si uno ve el artículo de Axios, el Departamento de Defensa usó su confrontación con Anthropic para marcar el tono en las negociaciones con otras empresas de IA,
y OpenAI, bajo esa presión, terminó cerrando un acuerdo en una forma que el Departamento de Defensa podía aceptar.

La diferencia en la manera de expresarlo oficialmente también es grande.

Sam Altman dijo que "el Departamento de Defensa mostró un profundo respeto por la seguridad",
mientras que del lado de Anthropic mantuvieron hasta el final un tono de "no podemos aceptar en conciencia las exigencias del Departamento de Defensa".

Parece que, aun partiendo de los mismos principios, la diferencia estuvo en si se le permitía o no al Departamento de Defensa salvar las apariencias,
y al final, como OpenAI aceptó, la situación quedó con una forma extraña,
así que Sam Altman al final añadió que "estas condiciones deberían ofrecerse por igual a todas las empresas de IA",
lo que parece haber sido un mensaje indirecto para que se suavizaran las medidas contra Anthropic.

 
lamanus 2026-03-01

Aunque sea un contrato del mismo nivel, la confianza o la imagen se sienten muy distintas. Creo que ya voy a cancelar mi suscripción a GPT.

 
GN⁺ 2026-02-28
Comentarios en Hacker News
  • No entiendo cómo empleados de OpenAI participaron en la firma de ‘We Will Not Be Divided’ y aun así siguen trabajando allí después de todo esto
    Si OpenAI hubiera mantenido las condiciones que exigió Anthropic, el gobierno no habría aprobado este contrato
    Al final, solo puede verse como un acuerdo implícito de que OpenAI en realidad no hará cumplir las líneas rojas
    • Cuando despidieron a Sam Altman y luego volvió, creo que los empleados enfocados en la seguridad ya se habían ido
      Los que quedan ahora parecen estar ahí sobre todo por las acciones
    • Pero también se dice que OpenAI incluyó en el contrato los mismos principios que Anthropic
      Afirmó que dejó explícitos la “prohibición de vigilancia masiva doméstica” y la “responsabilidad humana por el uso de la fuerza”, y que el DoW(Department of War) también estuvo de acuerdo con eso
    • Esto al final sugiere que todas las grandes empresas de IA terminarán firmando el uso militar opaco de la tecnología
    • Viendo el último año de la administración Trump, este tipo de negociación irracional no sorprende en absoluto
      Su estilo es gastar capital político innecesariamente y terminar cerrando acuerdos peores
    • Creo que detrás de esto hay una intención política del gobierno de controlar a las empresas
      OpenAI pudo haber presentado las mismas condiciones que Anthropic, pero es posible que el gobierno lo haya dejado pasar gracias al dinero de lobby o al efecto de PR
  • Si esto te molesta, creo que hay que votar con la billetera
    Yo también eliminé ChatGPT, cancelé la suscripción y decidí apoyar más a Anthropic
    • Yo había cancelado mi suscripción a Claude en un momento parecido, pero por esto la reactivé
      Sentí que una postura con principios importa, y ahora ya no confío en OpenAI
    • Yo también acabo de cancelar mi suscripción
      Desapareció el respeto que me quedaba por Sam Altman, y me da asco la realidad de una IA contaminada por la codicia humana
      Los ideales con los que OpenAI empezó como organización sin fines de lucro ya desaparecieron por completo
      Todos deberían cancelar sus suscripciones, y a este tipo de empresas y CEOs habría que cobrarles impuestos fuertes
    • La verdad es que yo ya me había pasado a Claude y Gemini hace 4 meses
      Solo por la calidad del producto ya sentía que OpenAI ya no era lo que era antes
    • Borré todas mis conversaciones y eliminé la cuenta por completo
    • Estoy en la misma. Ya no voy a gastar ni un centavo en OpenAI
      Voy a ver qué decisión toma Google
  • Creo que Sam Altman es una de las personas menos confiables de la industria de la IA
    Expresiones como “responsabilidad humana por el uso de la fuerza” suenan a evasivas
    • “Responsabilidad humana” no es lo mismo que “decisión humana”
      En otras palabras, eso igual permite armas autónomas letales
      Aunque se nombre al presidente o al Departamento de Defensa como ‘responsables’, en la práctica sería imposible exigirles cuentas
  • Solo con ver que se decidió llamar a la agencia gubernamental “Department of War” ya se entiende todo
  • Hay una explicación sobre la diferencia entre los contratos de OpenAI y Anthropic dada por el subsecretario del Departamento de Estado
    En el primer post dice que el contrato de OpenAI incluye salvaguardas basadas en restricciones legales
    En el segundo post sostiene que el contrato se cerró con base en “todos los usos legales”, y que ese es un enfoque que deposita la autoridad en el sistema democrático
    Dice que Anthropic rechazó ese compromiso
    • Pero que el gobierno prometa que “solo hará cosas legales” no tranquiliza en absoluto
      Ya hubo muchos casos en el pasado en que se maquillaron actos ilegales como si fueran legales, e incluso se cambió la propia ley
      Al final, la ley por sí sola no puede frenar el abuso de poder del gobierno
    • Lo que dice ese subsecretario no pasa de ser propaganda interna del poder ejecutivo, no un análisis objetivo
    • Además, ni siquiera es alguien que haya participado directamente en la negociación
      Aunque su explicación fuera correcta, es difícil creerle hasta que un medio confiable publique el texto completo del contrato
      Si eso fuera cierto, entonces una respuesta adecuada sería boicotear a OpenAI y al ejército estadounidense
  • Según CNN, OpenAI también tiene las mismas líneas rojas (redlines) que Anthropic
    Artículo relacionado
    • Pero esperar coherencia lógica de la administración Trump es demasiado
      Quizá el problema no eran las líneas rojas, sino que el gobierno veía a Anthropic como un rival político
  • Al principio me pareció otro acto de oportunismo característico de Sam Altman, y pensé en cancelar mi suscripción
    Pero viéndolo de forma más objetiva, el punto clave es si quien decide qué cuenta como “uso legal” es el gobierno o la empresa de IA
    Según este tuit relacionado, Anthropic intentó reflejar ese criterio directamente en la constitución de Claude
    Al final cancelé mi suscripción hasta que OpenAI dé una postura clara
    • En realidad, el DoW llevaba más de un año aceptando las condiciones de Anthropic
      Pero de repente exigió renegociar amenazando con una designación SCR y una adquisición forzada bajo la DPA
      Si el contrato de OpenAI de verdad es similar al de Anthropic, entonces esto sí que es doble rasero e injusticia
  • Es raro que se haya firmado el contrato aunque OpenAI tenga las mismas líneas rojas que Anthropic
    • Supongo que Sam le prometió al Departamento de Defensa que eran líneas rojas temporales
      Con el tiempo permitiría modelos para armas autónomas, y la función de vigilancia podría esquivarse a través de Palantir
    • Parece que Sam usó sus conexiones con el gobierno para frenar a Anthropic
    • No se puede confiar en lo que dice Sam
      Es muy posible que sea una mentira estratégica para hacer quedar mal a Anthropic
    • Parece una postura doble del tipo “estamos de acuerdo con los principios, pero no los vamos a cumplir directamente”
    • Al final, el verdadero objetivo era “concentrar los contratos de IA en Sam”, y la polémica por las líneas rojas no fue más que un pretexto
  • Yo también eliminé la app y cancelé la suscripción
    Sin su base de usuarios, OpenAI no puede sostener su valoración empresarial inflada actual
    Otros modelos ya son lo bastante competitivos
  • Ahora hace falta un grupo donde puedan reunirse tecnólogos con ética
    Ya cansa este tipo de conductas corruptas
    • Hace falta una nueva bandera que permita expresar fácilmente que uno es un “tecnólogo ético” y que ayude a conectarse entre sí