- El CEO de OpenAI, Sam Altman, anunció que llegaron a un acuerdo para desplegar modelos en una red clasificada del Departamento de Defensa de EE. UU. (DoD)
- El acuerdo incluye los principios de prohibición de la vigilancia masiva a nivel nacional y responsabilidad humana en el uso de la fuerza, incluso en sistemas de armas autónomas, y el Departamento de Defensa también aceptó estos principios
- Como condiciones, se establecerán salvaguardas técnicas para que los modelos funcionen como fue previsto, se desplegarán solo en redes en la nube y se asignarán ingenieros de despliegue en campo (FDE)
- OpenAI pidió que el Departamento de Defensa ofrezca estas mismas condiciones a todas las empresas de IA, al considerar que son condiciones que cualquier empresa puede aceptar
- También expresó que espera firmemente reducir la tensión mediante acuerdos razonables más que a través de medidas legales o gubernamentales
Contenido del acuerdo
- OpenAI cerró un acuerdo para desplegar modelos en una red clasificada del Departamento de Defensa
- Evaluó que, durante las negociaciones, el Departamento de Defensa mostró un profundo respeto por la seguridad y voluntad de colaborar para lograr el mejor resultado posible
Principios de seguridad
- La seguridad de la IA y la distribución amplia de sus beneficios son el núcleo de la misión de OpenAI
- Dos principios clave de seguridad incluidos en el acuerdo:
- Prohibición de la vigilancia masiva nacional
- Responsabilidad humana en el uso de la fuerza, incluidos los sistemas de armas autónomas
- El Departamento de Defensa también está de acuerdo con estos principios, y los reflejará en leyes y políticas además de dejarlos explícitos en el acuerdo
Salvaguardas técnicas y condiciones de despliegue
- Se construirán salvaguardas técnicas (technical safeguards) para que los modelos funcionen como fue previsto, algo que también pidió el Departamento de Defensa
- Para dar soporte al modelo y garantizar la seguridad, se asignarán ingenieros de despliegue en campo FDE (Field Deployment Engineer)
- La condición es que el despliegue se haga solo en redes en la nube
Solicitud de ampliación a toda la industria
- OpenAI pidió al Departamento de Defensa que ofrezca estas mismas condiciones a todas las empresas de IA
- Su postura es que son condiciones que todas las empresas estarían dispuestas a aceptar (willing to accept)
- También expresó su fuerte deseo de reducir la tensión mediante acuerdos razonables en lugar de recurrir a medidas legales o gubernamentales
3 comentarios
Al final, el Departamento de Defensa de EE. UU. descartó a Anthropic y eligió a OpenAI, pero hay una diferencia en el wording, como suele decirse.
OpenAI propuso junto con ello mecanismos concretos de implementación como la construcción de salvaguardas técnicas, el despliegue de FDE (ingenieros de campo) y una implementación dedicada en la nube.
Anthropic pidió cláusulas de excepción a nivel de términos de uso.
Desde la postura del Departamento de Defensa de EE. UU., esto se vio como que "una empresa privada ejerce poder de veto sobre casos de uso individuales", y lo anunciaron casi como una sanción por resentimiento.
Este acuerdo se anunció poco después de que Anthropic fuera designada como riesgo para la cadena de suministro,
y si uno ve el artículo de Axios, el Departamento de Defensa usó su confrontación con Anthropic para marcar el tono en las negociaciones con otras empresas de IA,
y OpenAI, bajo esa presión, terminó cerrando un acuerdo en una forma que el Departamento de Defensa podía aceptar.
La diferencia en la manera de expresarlo oficialmente también es grande.
Sam Altman dijo que "el Departamento de Defensa mostró un profundo respeto por la seguridad",
mientras que del lado de Anthropic mantuvieron hasta el final un tono de "no podemos aceptar en conciencia las exigencias del Departamento de Defensa".
Parece que, aun partiendo de los mismos principios, la diferencia estuvo en si se le permitía o no al Departamento de Defensa salvar las apariencias,
y al final, como OpenAI aceptó, la situación quedó con una forma extraña,
así que Sam Altman al final añadió que "estas condiciones deberían ofrecerse por igual a todas las empresas de IA",
lo que parece haber sido un mensaje indirecto para que se suavizaran las medidas contra Anthropic.
Aunque sea un contrato del mismo nivel, la confianza o la imagen se sienten muy distintas. Creo que ya voy a cancelar mi suscripción a GPT.
Comentarios en Hacker News
Si OpenAI hubiera mantenido las condiciones que exigió Anthropic, el gobierno no habría aprobado este contrato
Al final, solo puede verse como un acuerdo implícito de que OpenAI en realidad no hará cumplir las líneas rojas
Los que quedan ahora parecen estar ahí sobre todo por las acciones
Afirmó que dejó explícitos la “prohibición de vigilancia masiva doméstica” y la “responsabilidad humana por el uso de la fuerza”, y que el DoW(Department of War) también estuvo de acuerdo con eso
Su estilo es gastar capital político innecesariamente y terminar cerrando acuerdos peores
OpenAI pudo haber presentado las mismas condiciones que Anthropic, pero es posible que el gobierno lo haya dejado pasar gracias al dinero de lobby o al efecto de PR
Yo también eliminé ChatGPT, cancelé la suscripción y decidí apoyar más a Anthropic
Sentí que una postura con principios importa, y ahora ya no confío en OpenAI
Desapareció el respeto que me quedaba por Sam Altman, y me da asco la realidad de una IA contaminada por la codicia humana
Los ideales con los que OpenAI empezó como organización sin fines de lucro ya desaparecieron por completo
Todos deberían cancelar sus suscripciones, y a este tipo de empresas y CEOs habría que cobrarles impuestos fuertes
Solo por la calidad del producto ya sentía que OpenAI ya no era lo que era antes
Voy a ver qué decisión toma Google
Expresiones como “responsabilidad humana por el uso de la fuerza” suenan a evasivas
En otras palabras, eso igual permite armas autónomas letales
Aunque se nombre al presidente o al Departamento de Defensa como ‘responsables’, en la práctica sería imposible exigirles cuentas
En el primer post dice que el contrato de OpenAI incluye salvaguardas basadas en restricciones legales
En el segundo post sostiene que el contrato se cerró con base en “todos los usos legales”, y que ese es un enfoque que deposita la autoridad en el sistema democrático
Dice que Anthropic rechazó ese compromiso
Ya hubo muchos casos en el pasado en que se maquillaron actos ilegales como si fueran legales, e incluso se cambió la propia ley
Al final, la ley por sí sola no puede frenar el abuso de poder del gobierno
Aunque su explicación fuera correcta, es difícil creerle hasta que un medio confiable publique el texto completo del contrato
Si eso fuera cierto, entonces una respuesta adecuada sería boicotear a OpenAI y al ejército estadounidense
Artículo relacionado
Quizá el problema no eran las líneas rojas, sino que el gobierno veía a Anthropic como un rival político
Pero viéndolo de forma más objetiva, el punto clave es si quien decide qué cuenta como “uso legal” es el gobierno o la empresa de IA
Según este tuit relacionado, Anthropic intentó reflejar ese criterio directamente en la constitución de Claude
Al final cancelé mi suscripción hasta que OpenAI dé una postura clara
Pero de repente exigió renegociar amenazando con una designación SCR y una adquisición forzada bajo la DPA
Si el contrato de OpenAI de verdad es similar al de Anthropic, entonces esto sí que es doble rasero e injusticia
Con el tiempo permitiría modelos para armas autónomas, y la función de vigilancia podría esquivarse a través de Palantir
Es muy posible que sea una mentira estratégica para hacer quedar mal a Anthropic
Sin su base de usuarios, OpenAI no puede sostener su valoración empresarial inflada actual
Otros modelos ya son lo bastante competitivos
Ya cansa este tipo de conductas corruptas