- Al analizar 5 indicadores reales para medir el progreso de la IA y calcular el momento de llegada de la singularidad hasta el milisegundo, el resultado fue martes 18 de julio de 2034
- Tras ajustar de forma independiente 5 indicadores, como puntaje MMLU, tokens por dólar, intervalo entre lanzamientos de modelos frontier, número de artículos de arXiv sobre "emergent" y cuota de código de Copilot, el único que muestra una curvatura realmente hiperbólica es el número de artículos de arXiv sobre "emergent"
- Todos los indicadores de capacidad de las máquinas siguen una tendencia lineal y no muestran señales de singularidad; lo único que se acelera es el interés, la emoción y la ansiedad humanas frente a los fenómenos emergentes de la IA
- Ya en 2026, una singularidad social precede a la singularidad tecnológica mediante despidos masivos, retrasos institucionales, concentración de capital, caída de la confianza y reconfiguración política
- La esencia de la singularidad no es el momento en que las máquinas alcanzan la superinteligencia, sino el momento en que los humanos pierden la capacidad de tomar decisiones colectivas de forma consistente respecto a las máquinas
Datos: 5 indicadores del progreso de la IA
- Se usan 5 indicadores seleccionados con base en la "importancia antrópica (anthropic significance)" en el sentido griego del término (no se refiere a la empresa Anthropic)
- Puntaje MMLU: un benchmark equivalente al SAT para modelos de lenguaje, con datos desde GPT-3 (junio de 2020, 43.9%) hasta Claude Opus 4.5 (noviembre de 2025, 90.8%)
- Tokens de salida por dólar: mide el colapso del costo de la inteligencia y aplica una transformación logarítmica, desde GPT-3 davinci (16,667 tokens/$) hasta Gemini 2.0 Flash (2,500,000 tokens/$), cubriendo un rango de 5 órdenes de magnitud
- Intervalo entre lanzamientos de modelos frontier: la reducción del tiempo entre momentos "impactantes", cayendo bruscamente desde GPT-3→ChatGPT (902 días) hasta Gemini 2.5 Pro→GPT-4.1 (20 días)
- Número de artículos de arXiv sobre "emergent": basado en una ventana móvil de 12 meses, como medida memética del nivel de entusiasmo académico
- Cuota de código de Copilot: la proporción de código escrito por IA
- Cada indicador se normaliza a [0,1]; el intervalo entre lanzamientos se invierte (cuanto más corto, mayor el valor), tokens/$ se transforma con log antes de normalizar, y cada serie conserva su propia escala independiente
¿Por qué un modelo hiperbólico?
- La función exponencial f(t) = ae^(bt), usada en la mayoría de las extrapolaciones sobre IA, solo llega al infinito cuando t→∞, por lo que no puede representar una singularidad en tiempo finito
- El crecimiento polinómico (t^n) tampoco puede alcanzar el infinito en tiempo finito
- La función hiperbólica x(t) = k/(t_s − t) + c hace que el denominador sea 0 cuando t→t_s, por lo que diverge en un momento finito
- El crecimiento hiperbólico ocurre cuando el crecimiento acelera su propio crecimiento: mejor IA → mejores herramientas para investigar IA → mejor IA → un bucle de retroalimentación positiva superlineal
Metodología de ajuste
- Para cada indicador j, se ajusta una hipérbola independiente y_i^(j) = k_j/(t_s − t_i) + c_j, pero compartiendo el mismo momento de singularidad t_s
- Cada serie tiene su propia escala k_j y desplazamiento c_j, así que incluso indicadores con ejes y distintos, como puntaje MMLU y tokens por dólar, pueden ponerse de acuerdo sobre t_s
- Al minimizar el RSS total aparece el problema de que el t_s óptimo siempre se va al infinito: una hipérbola lejana degenera en una recta y se ajusta bien a datos ruidosos
- Como alternativa, se realiza una búsqueda en rejilla del pico de R² de forma independiente para cada serie
- Si R² alcanza un pico con un t_s finito, hay una señal hiperbólica real
- Si R² sigue aumentando cuando t_s→∞, en realidad la serie es lineal y no hay señal de singularidad
- Resultado: solo arXiv "emergent" muestra un pico claro de R²; las otras 4 series se ajustan mejor a una línea recta
La fecha obtenida
- Momento predicho de la singularidad: martes 18 de julio de 2034, 02:52:52.170 UTC
- n = 52 (5 series), intervalo de confianza del 95%: enero de 2030 a enero de 2041 (ancho de 132.4 meses)
- R² por serie (con t_s compartido): MMLU 0.747, tokens/$ 0.020, intervalo entre lanzamientos 0.291, arXiv "emergent" 0.926, cuota de código de Copilot 1.000
- El intervalo de confianza del 95% se deriva de la verosimilitud de perfil (profile likelihood) sobre t_s, con base en un umbral crítico F
Análisis de sensibilidad
- Análisis Drop-One-Out: mide cuánto se mueve t_s al eliminar cada indicador
- Al eliminar MMLU, tokens/$, intervalo entre lanzamientos o cuota de código de Copilot, t_s no cambia (+0.0 meses)
- Al eliminar arXiv "emergent", t_s se mueve a febrero de 2036, un desplazamiento de 18.6 meses (empujado al límite de búsqueda)
- Conclusión: arXiv hace todo el trabajo, y las otras series solo aportan curvas de contexto bajo el t_s compartido
- Copilot tiene 2 puntos de datos para 2 parámetros, así que tiene 0 grados de libertad y encaja perfectamente en cualquier hipérbola, sin influir en t_s
Lo que realmente significa t_s
- Que el número de artículos de arXiv se vaya al infinito no significa que se publicará una cantidad infinita de artículos el martes de 2034
- t_s es el punto en que la curvatura de la trayectoria actual ya no puede sostenerse, es decir, un marcador de transición de fase donde o bien se rompe hacia algo cualitativamente nuevo o bien se satura y demuestra que la hipérbola era incorrecta
- El hecho central e incómodo: el único indicador que realmente sigue una hipérbola es el interés humano, no la capacidad de las máquinas
- Los indicadores reales de capacidad e infraestructura, como MMLU, tokens/$ e intervalo entre lanzamientos, son todos lineales y sin punto extremo
- La única curva que apunta a una fecha finita es la frecuencia con la que los investigadores descubren y nombran nuevos comportamientos, es decir, el "entusiasmo académico medido meméticamente"
- La conclusión de los datos: las máquinas mejoran a un ritmo constante, mientras que los humanos se aceleran y se entusiasman a un ritmo acelerado respecto a ello
Singularidad social: un fenómeno que ya está en marcha
- Si t_s es el momento en que la velocidad de las sorpresas de la IA supera la capacidad humana de procesarlas, la pregunta interesante es qué les ocurre a los humanos, no a las máquinas
- Cambio brusco en el mercado laboral: en 2025 se anunciaron 1.1 millones de despidos (sexta vez que se supera ese umbral desde 1993), y más de 55,000 mencionaron explícitamente a la IA como causa
- Hallazgo de HBR: las empresas están recortando personal con base en el potencial de la IA, no en su desempeño real
- La curva no necesita llegar a un punto extremo; basta con que parezca que lo hará para detonar una reestructuración preventiva
- Fracaso de la respuesta institucional: las reglas de alto riesgo del EU AI Act se pospusieron a 2027; en EE. UU. la orden ejecutiva sobre IA de 2023 fue revocada en enero de 2025 y en diciembre se emitió una nueva orden para desplazar leyes estatales, mientras California y Colorado siguen su propia ruta
- Las leyes que hoy se redactan regulan problemas de 2023, y para cuando alcancen a GPT-4, ya se habrá llegado a GPT-7
- La incapacidad visible de los gobiernos no erosiona la confianza: la hace colapsar, y la confianza global en la IA cae a 56%
- Concentración de capital al nivel de la burbuja puntocom: las 10 principales acciones del S&P 500 (la mayoría vinculadas con IA) alcanzaron 40.7% del índice en 2025, superando el pico de la burbuja puntocom
- Desde el lanzamiento de ChatGPT, las acciones relacionadas con IA explican 75% de las ganancias del S&P 500, 80% del crecimiento de utilidades y 90% del crecimiento del gasto de capital
- El Shiller CAPE llega a 39.4, un nivel visto por última vez en 1999
- Impacto psicológico: terapeutas reportan un fuerte aumento de FOBO (Fear of Becoming Obsolete), y pacientes expresan que "el universo me está diciendo: ya no te necesita"
- 60% de los trabajadores en EE. UU. cree que la IA eliminará más empleos de los que creará
- El uso de IA subió 13% interanual, pero la confianza en ella cayó 18%: cuanto más se usa, menos se confía
- Fractura epistemológica: menos de un tercio de la investigación en IA es reproducible, menos del 5% de los investigadores comparte código, y disminuye la publicación desde laboratorios corporativos
- La brecha entre el conocimiento de los laboratorios frontier y el conocimiento público se amplía, mientras los responsables de políticas operan con información ya obsoleta
- Los expertos que testifican ante el Congreso se contradicen entre sí: el campo se mueve más rápido de lo que puede consolidarse la pericia
- Reconfiguración política: TIME reporta una reacción populista contra la IA, Foreign Affairs sostiene que "la economía de la rabia reforzará el populismo", y HuffPost afirma que la IA definirá las elecciones de medio término de 2026
- MAGA está dividido sobre si la IA es proempresa o antilaboral, y Sanders propone una moratoria a los centros de datos
- El eje tradicional izquierda-derecha no soporta el peso de esta pregunta y se está rompiendo
- Todo esto ocurre 8 años antes de t_s: la singularidad social precede a la tecnológica, y el caos institucional y psicológico no espera a que la capacidad suba en vertical; empieza en cuanto la trayectoria es percibida
Advertencias (Caveats)
- La fecha proviene de una sola serie: solo arXiv "emergent" tiene una curvatura hiperbólica real; las otras 4 se ajustan mejor a una recta
- El significado práctico de la fecha de la singularidad es "el momento en que la investigación sobre emergencia en IA se dispara verticalmente", y la cuestión clave es si el entusiasmo académico es un indicador adelantado o rezagado
- El modelo asume estacionariedad (stationarity): la curva eventualmente cambiará a una logística (saturación del hype) o a una forma que el modelo no puede representar (una transición de fase real); t_s es el punto en que el régimen actual se vuelve insostenible, no una predicción de lo que viene después
- Efecto techo en MMLU: un artefacto de compresión por saturación del benchmark; el R² bajo lo refleja
- Tokens/$ está transformado logarítmicamente y no es monótono: GPT-4 fue más caro que 3.5 y Opus 4.5 cuesta más que DeepSeek-R1; la curva de costos no es suave y mezcla mejoras de Pareto con modelos de alto costo
- Cinco indicadores no son suficientes: agregar SWE-bench, ARC, GPQA, volumen de compra de cómputo o salarios del talento podría reducir la dependencia de arXiv; la razón para usar 5 fue que "cabían en la tabla"
- Copilot tiene 2 puntos de datos: con 0 grados de libertad, no contribuye a t_s
Conclusión
- Con datos reales y un modelo matemático se obtiene un único momento claro de singularidad
- Esa singularidad no significa superinteligencia de las máquinas, sino el colapso de la atención de la sociedad humana
- Lo que encontró la matemática: un indicador que dibuja una curva hacia un punto extremo en un milisegundo específico, y ese indicador es la velocidad con la que los humanos descubren conductas emergentes de la IA
- Los otros 4 indicadores son lineales: las máquinas mejoran de manera constante; quienes se aceleran son los humanos
- En trabajo, instituciones, capital, percepción y política, ya está en marcha una singularidad social
- Antes de que llegue la singularidad tecnológica, llegará primero un punto límite colectivo en el que los humanos no podrán absorber la velocidad del cambio en IA
- La singularidad en los datos es la singularidad del interés humano, y ya está ejerciendo gravedad sobre todo lo que toca
- La humanidad ya entró en esa cuenta regresiva
3 comentarios
Lo curioso es que los grandes anuncios, como los de los nuevos modelos de OpenAI, Google y Anthropic, normalmente salen los martes y jueves.
En horario de Corea, suelen anunciarlos alrededor de las 2-3 a. m. de los miércoles y viernes (10 a. m. en California), así que si no puedes dormir de madrugada, échale un vistazo a las noticias en ese momento.
Comentarios en Hacker News
Este artículo me pareció realmente interesante. El autor se extiende bastante explicando su modelo y metodología antes de llegar al punto central: más importante que si la singularidad realmente llegará es cuántas personas creen en ella y actúan en consecuencia
Por eso cambié el enfoque del debate técnico a uno social. Genera mucha más empatía la postura de que “es muy malo intentar reemplazar el trabajo humano sin cambiar una estructura social que depende del trabajo asalariado para sobrevivir”
La forma simple es “hacer que todos crean que ya ganaste”; la forma sofisticada es “hacer que todos crean que los demás también lo creen”. Al final, la gente termina actuando conforme a esa creencia
Los LLM son simplemente motores de predicción estadística, pero en ese proceso podría emerger emergent behavior, es decir, comportamiento inteligente. Aún no se puede saber con certeza
Si la singularidad no llega, entonces las creencias de la gente importan mucho, pero si de verdad llega, las creencias se vuelven casi irrelevantes
Citando un pasaje de 『Dune』 de Frank Herbert, dice que al delegar el pensamiento a las máquinas, otros humanos terminaron dominando a la humanidad a través de esas máquinas
Advierte que ahora dejaremos de leer, escribir y pensar. Sostiene que si los LLM hacen todo por nosotros, llegará el fin de la humanidad
Y menciona el proyecto Poison Fountain, presentándolo como un arma anti-AI que inyecta “datos tóxicos” a los rastreadores web cada día. Invita a participar
Presenta el cuento corto de 1965 de R.A. Lafferty, 「Slow Tuesday Night」.
Es una historia de ciencia ficción de 2600 palabras sobre una sociedad ultrarrápida, donde un día pasa en cuestión de minutos
Cita con admiración la frase: “La singularidad no es el momento en que las máquinas se vuelven superinteligentes, sino el momento en que los humanos ya no pueden tomar decisiones colectivas coherentes sobre las máquinas”
El artículo me pareció interesante. En 2025 se anunciaron 1.1 millones de despidos, y 55 mil de ellos citaron a la IA como motivo. Pero esos fueron despidos basados en la ‘posibilidad’ de la IA, no en su rendimiento real
Al final, la IA solo dejó en evidencia algo que ya sabíamos: hay demasiados trabajos de oficina sin sentido
Presenta una ecuación diferencial como modelo simple de la “explosión de inteligencia”
dx/dt = x²tiene como soluciónx = 1/(C - t), y eso es un crecimiento más abrupto que el crecimiento exponencial, donde la velocidad de crecimiento es proporcional a x.Pero si se consideran restricciones reales como energía y recursos, al final converge hacia una forma parecida al crecimiento logístico
Recuerda que todo esto existe gracias a los videojuegos. Sin el avance del hardware GPU, no existirían los LLM
En realidad, la IA es el resultado de décadas de acumulación tecnológica: chips, internet, open source, nube, centros de datos, matemáticas y física; todo ha sido un proceso que inevitablemente avanzaba hacia la singularidad
“Qué alivio saber que estaremos bien hasta 2034”, dice alguien medio en broma
Se pregunta por qué ya no se debate la singularidad usando el concepto de duplicación del conocimiento (knowledge doubling)
Menciona la ‘Knowledge Doubling Curve’ de Buckminster Fuller y la ‘Law of Accelerating Returns’ de Ray Kurzweil,
y plantea que antes el conocimiento humano se duplicaba una vez cada 100 años, luego una vez cada 25, así que ahora no habría que ver como singularidad el punto en que esa velocidad converge al infinito
Se siente aliviado de no tener que vivir el problema del timestamp Unix de 2038
Incluso con una predicción optimista, dentro de 8 años habrá mucho tiempo y mucho por hacer. No se puede vivir sin hacer nada durante el tiempo en que un recién nacido se convierte en estudiante de primaria.