- Erdős #281 es un problema que parte del supuesto de una situación en la que, sin importar cómo se elijan infinitas congruencias, casi no quedan enteros que no pertenezcan a ninguna de ellas
- La cuestión es si, cuando esto es cierto, en realidad no hace falta usar todas las congruencias infinitas y basta con las primeras para filtrar casi todos los enteros
- Neel Somani presentó una solución a esta pregunta usando GPT-5.2 Pro, y varios matemáticos revisaron y reforzaron el argumento, centrados en los pasos lógicos clave
- En lugar de calcular directamente enteros individuales, el enfoque trata al conjunto de los enteros como un solo espacio y aborda el problema usando propiedades de densidad y límite
- También se mostró que la misma conclusión puede derivarse combinando teoremas conocidos anteriormente, y junto con ello siguió la discusión sobre por qué esta conexión había pasado desapercibida durante tanto tiempo
Erdős Problem #281 — puntos centrales de la discusión
- Erdős #281 es un problema que supone una situación en la que, dadas infinitas congruencias, sin importar cómo se elijan, al final casi todos los enteros quedan incluidos en alguna de ellas
- Se parte del supuesto de que ya se sabe que, al aplicar todas las congruencias, casi no quedan enteros que no pertenezcan a ninguna
- La duda es si, cuando esta propiedad se cumple, en la práctica no hace falta usar infinitas congruencias hasta el final y las primeras ya producen casi el mismo efecto
- La estructura de la pregunta es si un resultado válido en una etapa infinita queda automáticamente garantizado también en una etapa finita
- Existe una dificultad en determinar si puede afirmarse que basta un número finito de congruencias bajo la condición de permitir siempre la peor elección posible de clases residuales
El enfoque de la solución de Neel Somani y GPT-5.2 Pro
- En lugar de examinar los enteros uno por uno, el enfoque trata al conjunto total de enteros como un espacio único y maneja el problema mediante el concepto de densidad
- El método define como un solo objeto el conjunto de enteros que evitan las primeras k congruencias
- Aprovecha la estructura en la que este conjunto se va reduciendo a medida que k crece y converge al resultado de la etapa infinita
- A partir del supuesto de que casi no existen enteros que eviten todas las congruencias infinitas, desarrolla la lógica de que en la etapa finita el conjunto también debe volverse suficientemente pequeño
- Organiza el razonamiento general usando límites, promedios y propiedades de traslación
El proceso de revisión y el desarrollo de la discusión
- La revisión se concentró en la validez del orden en que se toman los límites y en cómo se manejan los promedios en la solución propuesta
- Aparecieron observaciones indicando que algunos pasos requerían explicación adicional y ajustes
- Varios matemáticos examinaron públicamente la lógica y avanzaron aclarando el sentido de cada etapa
- Como resultado, la estructura central de la demostración se mantuvo, pero quedó refinada en una forma más clara
Conexión con teoremas clásicos
- Se confirmó que la misma conclusión también puede obtenerse combinando teoremas conocidos desde antes
- Se trata de la combinación entre un resultado sobre convergencia de densidad bajo infinitas condiciones y un teorema que explica el peor caso bajo condiciones finitas
- Esta conexión muestra una estructura en la que una propiedad de la etapa infinita se refleja con fuerza también en la etapa finita
- Se amplió además la discusión sobre por qué esta conexión no había sido formulada con claridad durante tanto tiempo
Por qué este caso está llamando la atención
- Es un caso en el que un problema planteado hace mucho tiempo volvió a recibir atención a partir de una propuesta de solución basada en IA
- Más que presentar por sí sola una respuesta terminada, la IA impulsó la discusión desde una perspectiva nueva
- Quedó de manifiesto que la dificultad del problema puede cambiar mucho según el lenguaje y el marco con que se lo reformule
1 comentarios
Comentarios en Hacker News
Por eso, la demostración generada por el LLM fue movida a la sección 2 del wiki de Terence Tao
La discusión relacionada está en esta publicación del foro de erdosproblems
Lo más extraño es que esa demostración estaba en un artículo del propio Erdős, y aun así él dejó el problema como no resuelto
Ya existía una solución y nadie lo sabía porque a nadie le importaba mucho
Simplemente buscar en literatura antigua y llamarlo “nuevo avance” puede ser progreso ilusorio
Gran parte de las matemáticas puras termina sintiéndose como un juego de rompecabezas intelectuales
Según la explicación del wiki de Tao,
los problemas de Erdos varían muchísimo en dificultad, y algunos se clasifican como problemas de baja dificultad adecuados para que los resuelva una IA
Los problemas fáciles estaban al nivel de “ni los mejores matemáticos podían resolverlos de inmediato”, así que sirven bien como métrica del rendimiento de la IA
A medida que la IA mejore, probablemente irá subiendo la escalera de dificultad hacia problemas más duros
y ni siquiera sabían que esa demostración estaba en un artículo del propio Erdos
Aun así, en Fediverse y Twitter lo andan proclamando como un gran avance de los LLM
le impresionó que el LLM evitara errores al intercambiar límites o al manejar cuantificadores
Dijo que los modelos de la generación anterior probablemente habrían fallado en esas partes,
y señaló que incluyó este resultado en la sección 1 del wiki
Tao comentó: “la nueva demostración es distinta de la existente, pero la moveré a la sección 2”
Los modelos más recientes dicen con mucha seguridad que entregan “código 100% perfecto”, pero en la práctica se rompe
Incluso al intentar pagar en z.ai hubo errores y ni siquiera se pudo completar la compra
Los LLM son una tecnología asombrosa, pero al mismo tiempo sobrevalorada
Hace falta verificación empírica, como logs o resultados de ejecución
El modelo solo genera texto, y la app tiene que validarlo
Pero una generación de texto perfecta es algo imposible hoy por hoy
Porque ya he visto muchas veces a LLM dar respuestas equivocadas con total confianza
La política de memoria y las restricciones de acceso al modelo de OpenAI también son un tema interesante
En este caso se dice que ChatGPT 5.2 dio una respuesta en 1 hora,
pero no queda claro si eso es reproducible, por qué llegó a esa solución ni qué fue exactamente lo que demostró
La validación de Tao da confianza, pero igual queda la duda de si “¿entrenaron al modelo para encajar mejor con matemáticas puras?”
Ver el caso anterior y el enlace a la sesión de ChatGPT
Enlace relacionado
y luego se verifican con sistemas de prueba formal como Lean
Tao primero revisa la corrección de la demostración y después confirma su novedad mediante búsqueda bibliográfica
Por ahora casi no hay demostraciones completamente nuevas, pero ya están apareciendo enfoques nuevos
Este caso también al principio parecía una demostración nueva, pero al final resultó ser un resultado que Erdos ya conocía
Luego metieron ambas demostraciones en Opus y dijeron que confirmó que eran equivalentes
y que si falta verificación detallada, toda la demostración puede venirse abajo
Se mencionó como posible contraejemplo el conjunto (U_k)
La discusión relacionada está en este comentario
Su precisión matemática es menor que la de ChatGPT o Gemini Pro
Eso hace pensar si algunos matemáticos profesionales ya están usando IA sin decirlo
Como una competencia de dopaje en el deporte, todos terminarán usándola para no quedarse atrás
Además, usar IA ni siquiera va contra las reglas
pero los LLM todavía no han producido avances sustanciales
Personalmente, creo que una línea en los agradecimientos sería apropiada
Como postdoc de matemáticas, al probar GPT 5.2 noté que miente menos y es honesto cuando falla
En cambio, Gemini 3 tiende a inventar teoremas cuando se equivoca
o si realmente son resultados de investigación originales
los problemas de Erdos tienen una enorme variación en dificultad y existe un grupo de problemas de baja dificultad fáciles para la IA
Si un problema está en la lista de Erdos, al menos es probable que alguien haya intentado resolverlo alguna vez