- OpenAI eliminó recientemente la expresión “de forma segura” de la redacción de su misión y definió un nuevo objetivo: garantizar que la inteligencia artificial beneficie a toda la humanidad
- Este cambio ocurrió al mismo tiempo que la transición de una estructura sin fines de lucro a una centrada en fines comerciales, junto con grandes inversiones de Microsoft, SoftBank y otros
- La nueva estructura se divide en la fundación sin fines de lucro (OpenAI Foundation) y la empresa de beneficio público con fines de lucro (OpenAI Group), donde la primera posee aproximadamente el 26% de participación en la segunda
- Sin embargo, la mención explícita de la seguridad desapareció de la misión, y como ninguna de las dos organizaciones tiene responsabilidades explícitas sobre seguridad, surgen preocupaciones por una menor rendición de cuentas del directorio
- Este cambio se considera un caso de prueba sobre si la IA priorizará el beneficio para toda la sociedad o el interés de los accionistas
Cambio de misión y reestructuración de OpenAI
- Hasta 2023, OpenAI declaraba como objetivo el “desarrollo de IA que beneficie a la humanidad de forma segura”, pero en su reporte al IRS de 2024 lo cambió por “garantizar una inteligencia artificial que beneficie a toda la humanidad”
- Se eliminaron tanto la palabra ‘safely’ como la frase ‘sin restricciones por la necesidad de generar retorno financiero (unconstrained by a need to generate financial return)’
- Según un reporte de Platformer, también se disolvió el mission alignment team
- OpenAI sigue mencionando en su sitio web el avance simultáneo de la seguridad, las capacidades y el impacto positivo, pero en la misión oficial ya no aparece ninguna referencia a la seguridad
De organización sin fines de lucro a empresa con fines de lucro
- OpenAI fue fundada en 2015 como un laboratorio de investigación sin fines de lucro, publicando sus resultados y ofreciéndolos sin regalías
- En 2019, bajo el liderazgo de Sam Altman, creó una subsidiaria con fines de lucro, y Microsoft realizó una inversión inicial de 1.000 millones de dólares
- Para 2024, la inversión acumulada de Microsoft alcanzó los 13.800 millones de dólares
- A fines de 2024, al obtener 6.600 millones de dólares adicionales de financiamiento, se estableció la condición de que se convertiría en deuda si no se transformaba en una empresa tradicional con fines de lucro
Nueva estructura legal e intereses en juego
- En octubre de 2025, tras un acuerdo con los fiscales generales de California y Delaware, OpenAI se reorganizó como public benefit corporation
- Se separó en OpenAI Foundation (sin fines de lucro) y OpenAI Group (con fines de lucro)
- La Foundation posee alrededor de una cuarta parte de Group, mientras que Microsoft posee el 27%
- Las public benefit corporations deben considerar beneficios sociales y ambientales, pero el equilibrio entre ganancias e interés público queda a discreción del directorio
- A fines de 2025, SoftBank completó una inversión de 41.000 millones de dólares, y luego entró en negociaciones para invertir 30.000 millones adicionales
Cláusulas de seguridad y sus límites
- El acuerdo de reestructuración incluye la instalación de un comité de seguridad y protección, la autoridad para detener lanzamientos de productos y el control sobre la composición del directorio
- El directorio de OpenAI Group debe dar prioridad a la misión por encima del interés financiero en asuntos relacionados con seguridad
- Sin embargo, como la misión ya no menciona explícitamente la seguridad, se debilita la base legal para que el directorio realmente la priorice
- La mayoría de los integrantes del directorio de ambas organizaciones son los mismos, por lo que la función de supervisión queda en la práctica duplicada
Modelos alternativos y debate regulatorio
- En 1992, cuando Health Net se transformó en una empresa con fines de lucro, fue obligada por regulación a transferir el 80% de sus activos a una fundación sin fines de lucro
- En 2016, Philadelphia Inquirer pasó a ser una public benefit corporation propiedad del Lenfest Institute, una organización sin fines de lucro, manteniendo su objetivo de periodismo comunitario
- Algunas organizaciones sin fines de lucro de California sostienen que todos los activos de OpenAI deberían transferirse a una entidad sin fines de lucro independiente
- El artículo señala como un fracaso de gobernanza que el directorio de OpenAI haya abandonado la misión de seguridad y que los gobiernos estatales lo hayan permitido
Expansión de la inversión y valoración de mercado
- A inicios de 2026, OpenAI podría captar hasta 60.000 millones de dólares en inversión de empresas como Amazon, Nvidia y Microsoft
- Su valoración subió de 300.000 millones de dólares en marzo de 2025 a más de 500.000 millones de dólares en octubre de 2025
- También se menciona la posibilidad de una IPO (oferta pública inicial), lo que probablemente aumentaría la presión por maximizar los retornos para los accionistas
- Se estima que el fondo de OpenAI Foundation ronda los 130.000 millones de dólares, aunque es una estimación basada en valor de mercado porque no cotiza en bolsa
Significado social
- El cambio de misión y la reestructuración de OpenAI se presentan como un caso de prueba sobre si las empresas de IA priorizarán el interés público o las ganancias
- La eliminación del lenguaje sobre seguridad puede interpretarse como un retroceso en la responsabilidad social y la gestión de riesgos de la IA
- En adelante, la efectividad del modelo de public benefit corporation y el rol de supervisión del gobierno emergerán como temas clave
1 comentarios
Opiniones de Hacker News
Las declaraciones de misión oficiales de cada año pueden verse en los documentos IRS 990 de ProPublica
Las reuní en una página de revisiones de Gist para poder ver de un vistazo los cambios de cada año
También resumí los detalles en una entrada de mi blog
Entre las palabras eliminadas están responsibly, safe, technology y world
La eliminación de la categoría de persuasion/manipulation del seguimiento en la actualización del Preparedness Framework de abril de 2025 ya había sido una gran señal
Según un artículo de Fortune, OpenAI ya no evalúa el riesgo de persuasión y manipulación antes del lanzamiento de modelos, y en su lugar lo limita mediante los términos de uso
Eso define de forma muy específica qué significa “seguridad de la IA”: una IA manipuladora que haga perder a la gente su capacidad de reconocer la realidad también puede ser una amenaza para la humanidad, tanto como el diseño de armas de destrucción masiva
Los seres humanos ya llevan décadas insensibilizados a las tecnologías de manipulación, y ahora solo aumentarán su escala y su eficiencia. Al final, una minoría se hará más rica y la mayoría la pasará peor
Lo más aterrador es que puede hiperpersonalizar el perfilado al estilo Cambridge Analytica y suministrar contenido de manipulación hecho a la medida de cada persona
El cambio decisivo fue que en la versión de 2024 se eliminó la frase “unconstrained by a need to generate financial return”. Si quitas eso, ¿qué queda?
Quitar la palabra “safely” más bien parece que los hizo más honestos. Como cuando Google abandonó “Don’t be evil”, es como si se hubieran quitado la máscara de hipocresía
Da la misma sensación de déjà vu cínico que cuando Google abandonó “Don’t be evil”
La pregunta definitiva es esta: ¿primero vamos a disfrutar de las chicas gato robot, o vamos a pasar directo a Terminator?
La misión de OpenAI desde el principio fue una declaración de chiste. Decían “si nuestra investigación contribuye a que otros logren AGI, la misión está cumplida”, pero luego fueron al Congreso a quejarse de que modelos open source usaron sus propios modelos para entrenamiento
No entiendo por qué las empresas hacen este tipo de frases de misión. Borrar una oración como “no seremos malvados” no las vuelve más malvadas; al final solo deja en evidencia la hipocresía
La nueva misión al final fue reemplazada por “profitably”.
Una vez un jefe me dejó encerrado todo el día en una sala de juntas para redactar una frase de misión, la colgaron enmarcada y nadie volvió a mirarla. Al final no es más que decoración de marketing
En junio de 2024, el exdirector de la NSA Paul Nakasone se unió a la junta de OpenAI, y en octubre de 2025 anunció que permitiría la generación de contenido para adultos