- El autor no cree que la AGI (inteligencia artificial general) vaya a aparecer en el corto plazo.
- Los LLM (modelos de lenguaje grandes) muestran capacidades sobresalientes, pero carecen de la habilidad de aprender de forma continua y mejorar gradualmente como los humanos.
- Los LLM actuales tienen límites para personalizarse o acumular contexto mediante retroalimentación del usuario, y eso es una gran barrera para la automatización real del trabajo de oficina.
- Se prevé que desafíos prácticos como el uso de computadoras y los datos multimodales avancen lentamente debido a la falta de datos, la larga duración de las tareas y la dificultad técnica.
- A largo plazo, se espera que si el aprendizaje en línea se vuelve posible ocurran cambios muy abruptos, pero no parece algo fácil de lograr en los próximos 10 años.
Introducción y debate sobre el momento en que llegaría la AGI
- El autor expone su postura con base en su experiencia discutiendo con varios expertos sobre cuándo se alcanzará la AGI.
- Aunque algunos predicen que la AGI llegará en 2 años, o en 20, él considera que, a junio de 2025, no está cerca de llegar.
Límites del aprendizaje continuo (Continual Learning)
- Mucha gente sostiene que la tecnología actual de IA ya es económicamente más transformadora que internet, pero el autor no está de acuerdo.
- La razón por la que las empresas Fortune 500 no están usando LLM para transformar de raíz el trabajo no es el conservadurismo de los directivos, sino la falta de aprendizaje continuo de la IA actual.
- Al construir y usar directamente varias herramientas basadas en LLM, el autor comprobó que los LLM rinden alrededor de 5/10 en tareas repetitivas, pero carecen de capacidad de mejora gradual.
- Los humanos aumentan su productividad gracias a habilidades como construir contexto, analizar sus propios fracasos y adquirir pequeñas mejoras mediante la repetición, mientras que los LLM carecen de una vía para transmitir retroalimentación de alto nivel, y ajustar prompts no permite un “aprendizaje” al estilo humano.
- Existe el fine-tuning con RL (RLHF), pero está lejos del aprendizaje adaptativo y orgánico de los humanos, y eso es una limitación decisiva para la automatización del trabajo real.
- Aún faltan formas viables de hacer que un modelo de IA acumule, recuerde y aproveche un contexto rico durante el trabajo como lo haría un empleado humano.
- Dentro de una sesión sí puede haber algo de aprendizaje contextual, pero al terminar la sesión, todo ese contexto aprendido se pierde.
- Se han intentado soluciones como la memoria de largo plazo (rolling context window), pero resumir conocimiento empírico rico es frágil, y fuera de dominios basados en texto funciona de manera todavía menos eficiente.
- Incluso si el avance de la IA se estanca en el nivel actual, será difícil reemplazar muchos trabajos de oficina con esta tecnología, y la capacidad humana de aprender contexto sigue siendo una ventaja competitiva.
- Es decir, solo cuando el aprendizaje continuo se implemente de verdad el valor de la IA se disparará de forma discontinua; y, en última instancia, si esa tecnología se vuelve posible, compartir el aprendizaje entre múltiples instancias permitiría llegar a una superinteligencia más rápido que los humanos.
- Sin embargo, como los laboratorios también tienen incentivos para publicar versiones incompletas antes de perfeccionar por completo una innovación, se espera que aparezcan señales antes del verdadero gran salto del aprendizaje continuo.
Dificultades reales del uso de computadoras y la automatización
- En conversaciones con investigadores de Anthropic, escuchó la predicción de que para finales de 2026 surgirán agentes de uso de computadoras altamente confiables, pero el autor se muestra escéptico.
- Incluso ahora existen agentes de uso de computadoras, pero en la práctica son poco eficientes de manejar.
- Para automatizar una tarea real como la declaración de impuestos, se necesita trabajar con múltiples sistemas, ejecutar agentes durante largos periodos y procesar diversos datos multimodales, lo que vuelve muy lento el proceso de entrenamiento y validación.
- A diferencia de los datos existentes de preentrenamiento en texto (es decir, grandes volúmenes de documentos de internet usados en modelos de lenguaje), escasean los datasets multimodales de uso de computadoras, por lo que desarrollar agentes realmente confiables tomará tiempo.
- Incluso los nuevos algoritmos innovadores necesitan años de ajustes de ingeniería antes de aplicarse en el mundo real, así que el avance en tareas de uso de computadoras será bastante lento.
Mayor capacidad de razonamiento y sus límites
- Los modelos más recientes, como Gemini 2.5, sí muestran capacidad de razonamiento en aspectos como interpretar la intención del hablante, hacer autoverificación lógica y responder al contexto.
- Claude Code, por ejemplo, genera rápidamente código funcional solo a partir de una especificación dada, así que claramente ya se perciben indicios iniciales de “inteligencia general” en dominios amplios.
- En los dominios donde los mejores LLM muestran capacidad, a veces logran resultados bastante impresionantes.
Predicciones de IA/AGI a corto y largo plazo
- El autor enfatiza que mantiene una visión probabilística de sus propias predicciones, y por eso sigue teniendo sentido preparar medidas de respuesta.
- Estaría dispuesto a apostar con 50% de probabilidad a los siguientes puntos:
- Para 2028: podría existir la posibilidad de que la IA alcance un nivel capaz de completar de punta a punta todo el proceso de declaración de impuestos de una pequeña empresa.
- La capacidad actual de uso de computadoras sigue en un nivel comparable al de GPT-2, y la falta de datos junto con horizontes temporales largos hace que la optimización sea difícil.
- Seguramente aparecerán demos llamativas en 2026~2027, pero prevé que será difícil llegar a un nivel totalmente autónomo capaz de realizar tareas complejas de larga duración.
- Para 2032: podría llegar el momento en que la IA aprenda de forma natural y gradual durante el trabajo, como los humanos, y tras unos meses de adaptación laboral pueda interiorizar contexto, preferencias y know-how al nivel de una persona.
- Aunque hoy no se vea cercano implementar aprendizaje continuo en línea, en un periodo de 7 años podría darse un avance fundamental.
Factores que limitan el avance de la IA y perspectivas futuras
- El momento en que se logre la AGI tiene una distribución probabilística muy amplia (lognormal), y el avance de la IA ha estado estrechamente ligado al aumento de cómputo (training compute) en los últimos 10 años.
- Se espera que el aumento del cómputo llegue a un límite después de 2030, y que la innovación algorítmica pase a ser el cuello de botella.
- Si no hay un cambio de paradigma realmente innovador, la probabilidad anual de que aparezca la AGI podría ir disminuyendo con el tiempo.
- Si la apuesta por el escenario “largo” resulta correcta, es posible que el mundo cotidiano no cambie drásticamente hasta 2030~2040; pero, por otro lado, si se superan las limitaciones actuales de la IA, podrían producirse cambios muy radicales.
4 comentarios
Creo que la AGI no se materializa porque existen límites físicos en la persistencia y el aprendizaje.
Son, literalmente, límites físicos; no es por falta de capacidad tecnológica.
Pienso que, si se avanzara un paso más hacia la AGI al no imponer esas limitaciones, después sería difícil dar marcha atrás, y como los desarrolladores de IA también lo saben, solo la hacen evolucionar de forma adaptada a los servicios en lugar de intentar eliminar esas restricciones.
¡Estoy totalmente de acuerdo contigo!
Opinión de Hacker News
Hasta ahora, otra vez con lo mismo.