- En su Carta (Charter) de 2018, OpenAI dejó explícita una “cláusula de autosacrificio”: si otro proyecto centrado en la seguridad se acercaba al AGI, dejaría de competir y colaboraría.
- Según una tabla que resume declaraciones de Sam Altman, la fecha estimada de llegada al AGI se acortó drásticamente de 2033 a 2025, y recientemente incluso aparecieron comentarios de que “ya construimos AGI”.
- En la tabla de clasificación de modelos de Arena.ai, Claude de Anthropic y Gemini de Google ocupan los primeros lugares, mientras que GPT-5.4 de OpenAI queda rezagado en el puesto 6.
- El texto señala que esta situación cumple la condición planteada en la carta de “colaborar si aparece un competidor con más del 50% de probabilidad de éxito en los próximos 2 años”.
- Como resultado, OpenAI debería dejar de competir y colaborar según su carta, pero en la práctica se presenta como un caso que muestra el choque entre el idealismo y los incentivos económicos.
La cláusula de autosacrificio en la carta de OpenAI
- La carta de OpenAI de 2018 refleja la preocupación de que la carrera por desarrollar AGI pueda perjudicar la seguridad.
- Incluye una frase que dice que, si un proyecto que prioriza la alineación de valores y la seguridad se acerca al AGI, dejarán de competir y lo apoyarán.
- Se presenta como condición típica de activación cuando hay “más del 50% de probabilidad de éxito en los próximos 2 años”.
- Esta cláusula sigue publicada actualmente en el sitio oficial (openai.com/charter) y continúa siendo la política oficial de la empresa.
Cambios en las predicciones de Sam Altman sobre el AGI
- Según la tabla, Altman fue adelantando continuamente la fecha de llegada del AGI entre 2023 y 2026.
- En mayo de 2023 dijo que “en 10 años superará el nivel de un experto”, pero
- entre 2024 y 2025 llegó a decir “alcanzaremos AGI en 2025” e incluso “ya construimos AGI”.
- La mediana de las predicciones posteriores a 2025 es de aproximadamente 2 años o menos, lo que coincide con la condición de activación de la carta.
- En algunas entrevistas también apareció la expresión de que “vamos más allá del AGI hacia ASI (superinteligencia)”.
Comparación del ranking de modelos de Arena.ai
- Entre los 10 modelos mejor posicionados en el leaderboard de Arena.ai, Claude-opus-4-6 de Anthropic ocupa el puesto 1 y Gemini 3.1 de Google el puesto 3.
- GPT-5.4-high de OpenAI aparece en el puesto 6, con una evaluación inferior a la de los modelos de la competencia.
- El texto menciona que los modelos de Anthropic y Google son “centrados en la seguridad y alineados con valores”, y los considera sustitutos compatibles de GPT.
Si se cumplen o no las condiciones para dejar de competir
- Con el horizonte de desarrollo del AGI reducido a 2 años o menos y los modelos rivales por delante, se evalúa que ya se cumplen las condiciones de la carta para “dejar de competir y colaborar”.
- Hay debate sobre si Arena.ai es una herramienta adecuada para medir AGI, pero el espíritu de la carta está en evitar una carrera armamentista.
- Por lo tanto, se llega a la conclusión de que OpenAI debería colaborar con Anthropic y Google.
La brecha entre el idealismo y la realidad
- El texto deja claro que en la práctica es poco probable que OpenAI deje de competir.
- Este caso muestra la realidad en la que los principios idealistas quedan neutralizados frente a los incentivos económicos.
- También señala que la definición de AGI y su fecha objetivo siguen cambiando, y que recientemente el foco se ha desplazado hacia el debate sobre ASI.
1 comentarios
Comentarios de Hacker News
En este hilo todos solo están peleándose por definiciones.
Lo que de verdad importa es el momento económico: cuándo se pasa de la automatización asistida por humanos a una producción totalmente autónoma de la IA.
Si ves el entorno de producción actual de IA, los humanos todavía se encargan de revisar, corregir y supervisar. La IA maneja el volumen, y los humanos ponen el juicio. Al final, el juicio es el cuello de botella.
No se reemplazó el trabajo; solo se movió de lugar. La compensación laboral global ronda los 50 billones de dólares al año, y los mercados de capital están apostando a si la IA puede capturar de forma real una parte de eso. El nombre AGI no importa: al capital no le interesa la definición, sino si el trabajo y la producción se separan o no.
Cada vez que veo palabras como “AGI” o “ASI”, las reemplazo mentalmente por “algo que nadie puede definir bien”.
O sea, un concepto tan mal definido que no permite sacar conclusiones. Así que simplemente lo sustituyo por algo como “skibidibuf”.
Si defines AGI como “IA de propósito general, no limitada a tareas específicas”, entonces ya existe.
Si es “inteligencia a nivel humano en todas las tareas”, entonces algunos humanos no serían AGI.
Si es “un algoritmo mágico que hace todo perfectamente”, entonces probablemente no exista.
Cuando apareció por primera vez el término AGI, seguramente se refería a algo como HAL 9000, pero ahora se volvió un juego de metas que no dejan de moverse.
Desde el momento en que se apostó todo a la comercialización de la tecnología, el resultado ya estaba decidido.
Los LLM actuales ya se están usando de forma peligrosa, y si este tipo de noticias sigue atrayendo atención, OpenAI va a borrar discretamente la carta de su sitio web.
Los modelos actuales están lejos de ser AGI.
La predicción del siguiente token ha avanzado de forma impresionante, pero todavía no hay un modelo del mundo real ni una capacidad de aprendizaje genuina.
Sin supervisión humana, sus límites son evidentes.
Se hablaba de “la impotencia del idealismo ingenuo”, pero yo más bien lo veo como haber tomado prestado el lenguaje idealista como herramienta de marketing.
En la práctica, siempre fue una organización centrada en las ganancias que cada vez deja ver más claramente su verdadera cara.
El AGI no va a llegar en los próximos 30 años.
Eso también lo dicen investigadores.
El AGI real necesita aprendizaje continuo y memoria profunda, y los LLM no pueden hacer eso.
La “memoria” actual no es más que búsqueda y resumen: como si una persona asistiera a una clase de física, lo anotara todo en post-its, y luego otra persona los hojeara para escribir una respuesta.
Se necesita RL y reentrenamiento, pero eso es demasiado caro, lento y complejo.
Los LLM escriben código impresionante, pero incluso si les dices “no borres los archivos de la carpeta X”, igual los borran.
También obedecen sin más instrucciones insertadas por un atacante en un documento.
Sin memoria real y RL en tiempo real, estos problemas no se van a resolver.
El tuit de Daniel Kokotajlo, el comentario de Karpathy y esta encuesta a investigadores de IA muestran muchas predicciones bastante más cercanas.
Durante la conversación parecen inteligentes, pero cuando termina la sesión lo olvidan todo.
Incluso durante la sesión su rendimiento empeora; un contexto largo más bien les perjudica.
Al final, la ausencia de una estructura de memoria es el límite. Los humanos resolvieron esto con memoria de largo plazo y sueño, pero los LLM no.
Por más inteligente que sea, un genio sin memoria no deja de ser un savant de corto plazo.
Los LLM pueden copiar y reorganizar miles de páginas al instante.
Ya se está avanzando en RL en tiempo de inferencia y en aprendizaje continuo basado en LoRA, y según algunas definiciones el AGI ya estaría logrado.
Lo que pasa es que todavía no es rentable.
Y más que desaparecer los trabajos de programación, lo que va a pasar es que se va a necesitar aún más gente con capacidad de pensamiento computacional.
Es una experiencia personal, pero últimamente GPT 5.4 me pareció mejor que Opus 4.6.
Aun así, me resulta interesante que aparezca más abajo en la clasificación de Chatbot Arena.
Se basa en votos de usuarios generales, así que falta validación de experiencia, y además las grandes empresas también manipulan los rankings.
Para comparar modelos recientes, no tiene mucho valor.
Con el mismo prompt, GPT 5.4 introdujo refactors innecesarios y bugs, mientras que Opus 4.6 reconoció funciones ya implementadas y sugirió actualizar pruebas y documentación.
Sigo pensando que Opus 4.6 es el mejor agente de programación.
Me parece interesante la predicción de “pasantes automatizados de investigación en IA para septiembre de 2026, e investigadores de IA plenamente funcionales para marzo de 2028”.
También coincide con el momento en que el proyecto Autoresearch de Karpathy subió a la parte alta de HN.
Probablemente los grandes laboratorios ya estén probando versiones mucho más grandes.
Coincido con eso de “la impotencia del idealismo ingenuo” y de las metas cambiantes del AGI.
Últimamente muchos hablan de ASI en lugar de AGI, lo que deja la sensación de que quizá ya se alcanzó AGI.
Suena a broma, pero nadie está realmente cerca del AGI.
El propio Altman reconoció que para llegar al AGI hacen falta varios avances intermedios.
Predijo que hacia 2026 la IA va a pasar de recombinar información existente a generar nuevas ideas, y veo ese punto como el umbral del AGI.
Creo que los LLM actuales son en promedio más competentes que un humano promedio.