1 puntos por GN⁺ 2026-01-19 | 1 comentarios | Compartir por WhatsApp
  • Erdős #281 es un problema que parte del supuesto de una situación en la que, sin importar cómo se elijan infinitas congruencias, casi no quedan enteros que no pertenezcan a ninguna de ellas
  • La cuestión es si, cuando esto es cierto, en realidad no hace falta usar todas las congruencias infinitas y basta con las primeras para filtrar casi todos los enteros
  • Neel Somani presentó una solución a esta pregunta usando GPT-5.2 Pro, y varios matemáticos revisaron y reforzaron el argumento, centrados en los pasos lógicos clave
  • En lugar de calcular directamente enteros individuales, el enfoque trata al conjunto de los enteros como un solo espacio y aborda el problema usando propiedades de densidad y límite
  • También se mostró que la misma conclusión puede derivarse combinando teoremas conocidos anteriormente, y junto con ello siguió la discusión sobre por qué esta conexión había pasado desapercibida durante tanto tiempo

Erdős Problem #281 — puntos centrales de la discusión

  • Erdős #281 es un problema que supone una situación en la que, dadas infinitas congruencias, sin importar cómo se elijan, al final casi todos los enteros quedan incluidos en alguna de ellas
  • Se parte del supuesto de que ya se sabe que, al aplicar todas las congruencias, casi no quedan enteros que no pertenezcan a ninguna
  • La duda es si, cuando esta propiedad se cumple, en la práctica no hace falta usar infinitas congruencias hasta el final y las primeras ya producen casi el mismo efecto
  • La estructura de la pregunta es si un resultado válido en una etapa infinita queda automáticamente garantizado también en una etapa finita
  • Existe una dificultad en determinar si puede afirmarse que basta un número finito de congruencias bajo la condición de permitir siempre la peor elección posible de clases residuales

El enfoque de la solución de Neel Somani y GPT-5.2 Pro

  • En lugar de examinar los enteros uno por uno, el enfoque trata al conjunto total de enteros como un espacio único y maneja el problema mediante el concepto de densidad
  • El método define como un solo objeto el conjunto de enteros que evitan las primeras k congruencias
  • Aprovecha la estructura en la que este conjunto se va reduciendo a medida que k crece y converge al resultado de la etapa infinita
  • A partir del supuesto de que casi no existen enteros que eviten todas las congruencias infinitas, desarrolla la lógica de que en la etapa finita el conjunto también debe volverse suficientemente pequeño
  • Organiza el razonamiento general usando límites, promedios y propiedades de traslación

El proceso de revisión y el desarrollo de la discusión

  • La revisión se concentró en la validez del orden en que se toman los límites y en cómo se manejan los promedios en la solución propuesta
  • Aparecieron observaciones indicando que algunos pasos requerían explicación adicional y ajustes
  • Varios matemáticos examinaron públicamente la lógica y avanzaron aclarando el sentido de cada etapa
  • Como resultado, la estructura central de la demostración se mantuvo, pero quedó refinada en una forma más clara

Conexión con teoremas clásicos

  • Se confirmó que la misma conclusión también puede obtenerse combinando teoremas conocidos desde antes
  • Se trata de la combinación entre un resultado sobre convergencia de densidad bajo infinitas condiciones y un teorema que explica el peor caso bajo condiciones finitas
  • Esta conexión muestra una estructura en la que una propiedad de la etapa infinita se refleja con fuerza también en la etapa finita
  • Se amplió además la discusión sobre por qué esta conexión no había sido formulada con claridad durante tanto tiempo

Por qué este caso está llamando la atención

  • Es un caso en el que un problema planteado hace mucho tiempo volvió a recibir atención a partir de una propuesta de solución basada en IA
  • Más que presentar por sí sola una respuesta terminada, la IA impulsó la discusión desde una perspectiva nueva
  • Quedó de manifiesto que la dificultad del problema puede cambiar mucho según el lenguaje y el marco con que se lo reformule

1 comentarios

 
GN⁺ 2026-01-19
Comentarios en Hacker News
  • Antes se decía que no había solución, pero ahora se encontró una solución previa
    Por eso, la demostración generada por el LLM fue movida a la sección 2 del wiki de Terence Tao
    La discusión relacionada está en esta publicación del foro de erdosproblems
    • Lo que dice Tao es interesante: comenta que la nueva demostración es bastante distinta de la que ya existía
      Lo más extraño es que esa demostración estaba en un artículo del propio Erdős, y aun así él dejó el problema como no resuelto
    • Parece que estos modelos funcionan como motores de búsqueda en lenguaje natural que conectan puntos de conocimiento que los humanos no habían conectado
    • En realidad, este caso muestra que el problema en sí no es importante
      Ya existía una solución y nadie lo sabía porque a nadie le importaba mucho
      Simplemente buscar en literatura antigua y llamarlo “nuevo avance” puede ser progreso ilusorio
      Gran parte de las matemáticas puras termina sintiéndose como un juego de rompecabezas intelectuales
  • Me daba curiosidad la naturaleza de los problemas de Erdos: si eran problemas difíciles con los que matemáticos habían batallado por años, o si eran problemas abandonados
    Según la explicación del wiki de Tao,
    los problemas de Erdos varían muchísimo en dificultad, y algunos se clasifican como problemas de baja dificultad adecuados para que los resuelva una IA
    • Erdos fue un matemático increíblemente productivo y le gustaba proponer problemas con recompensa
      Los problemas fáciles estaban al nivel de “ni los mejores matemáticos podían resolverlos de inmediato”, así que sirven bien como métrica del rendimiento de la IA
      A medida que la IA mejore, probablemente irá subiendo la escalera de dificultad hacia problemas más duros
    • No hay que preocuparse demasiado. Ni Tao ni el autor estaban tan interesados en los problemas de Erdos,
      y ni siquiera sabían que esa demostración estaba en un artículo del propio Erdos
      Aun así, en Fediverse y Twitter lo andan proclamando como un gran avance de los LLM
  • Según un comentario que dejó el propio Tao en el foro,
    le impresionó que el LLM evitara errores al intercambiar límites o al manejar cuantificadores
    Dijo que los modelos de la generación anterior probablemente habrían fallado en esas partes,
    y señaló que incluyó este resultado en la sección 1 del wiki
    • Después, alguien revisó más literatura y encontró que el mismo resultado ya había sido demostrado en un artículo de Davenport y Erdos de 1936
      Tao comentó: “la nueva demostración es distinta de la existente, pero la moveré a la sección 2”
  • Ojalá la IA primero pudiera demostrar sus propias afirmaciones
    Los modelos más recientes dicen con mucha seguridad que entregan “código 100% perfecto”, pero en la práctica se rompe
    Incluso al intentar pagar en z.ai hubo errores y ni siquiera se pudo completar la compra
    Los LLM son una tecnología asombrosa, pero al mismo tiempo sobrevalorada
    • Para verificar código generado por IA, igual que con un humano, hay que demostrarlo con pruebas o evidencia
      Hace falta verificación empírica, como logs o resultados de ejecución
    • Hay que distinguir entre el modelo y la app
      El modelo solo genera texto, y la app tiene que validarlo
      Pero una generación de texto perfecta es algo imposible hoy por hoy
  • Existe este hilo del foro de erdosproblems en el que Tao participó directamente
  • Me preguntaba si esta demostración realmente fue verificada
    Porque ya he visto muchas veces a LLM dar respuestas equivocadas con total confianza
    La política de memoria y las restricciones de acceso al modelo de OpenAI también son un tema interesante
    • Tao la aprobó personalmente. Difícil pedir una verificación más sólida que esa
  • Hace poco hubo una publicación sobre cómo Aristotle de Harmonic resolvió el problema Erdős 728
    En este caso se dice que ChatGPT 5.2 dio una respuesta en 1 hora,
    pero no queda claro si eso es reproducible, por qué llegó a esa solución ni qué fue exactamente lo que demostró
    La validación de Tao da confianza, pero igual queda la duda de si “¿entrenaron al modelo para encajar mejor con matemáticas puras?”
    Ver el caso anterior y el enlace a la sesión de ChatGPT
    • Hace 49 días también hubo un caso donde se dijo que el problema #124 fue demostrado por IA
      Enlace relacionado
    • Esto es uno más dentro de una serie de intentos donde los LLM generan demostraciones candidatas de problemas matemáticos,
      y luego se verifican con sistemas de prueba formal como Lean
      Tao primero revisa la corrección de la demostración y después confirma su novedad mediante búsqueda bibliográfica
      Por ahora casi no hay demostraciones completamente nuevas, pero ya están apareciendo enfoques nuevos
      Este caso también al principio parecía una demostración nueva, pero al final resultó ser un resultado que Erdos ya conocía
  • Le dieron el mismo prompt a Deepseek y lo resolvió mucho más rápido que ChatGPT
    Luego metieron ambas demostraciones en Opus y dijeron que confirmó que eran equivalentes
    • Pero alguien señaló que eso es “casi como si tú mismo te hubieras puesto el sello”,
      y que si falta verificación detallada, toda la demostración puede venirse abajo
    • Desde el punto de vista matemático, también se cuestionó si la parte sobre la densidad de la intersección es suficiente
      Se mencionó como posible contraejemplo el conjunto (U_k)
    • También compartieron este bloque de razonamiento de Kimi-k2
    • También hubo quien se preguntó si Deepseek simplemente memorizó la solución existente
      La discusión relacionada está en este comentario
    • También hay opiniones de que Opus no es adecuado para matemáticas
      Su precisión matemática es menor que la de ChatGPT o Gemini Pro
  • Sorprendentemente, una buena parte de las demostraciones LLM viene de personas no especialistas
    Eso hace pensar si algunos matemáticos profesionales ya están usando IA sin decirlo
    • En realidad, la mayoría de los especialistas parecen sentir que “en mi área los LLM son tontos”
    • Este uso silencioso de IA probablemente pronto se vuelva normal
      Como una competencia de dopaje en el deporte, todos terminarán usándola para no quedarse atrás
      Además, usar IA ni siquiera va contra las reglas
    • Siendo realistas, probablemente los expertos ya lo intentaron,
      pero los LLM todavía no han producido avances sustanciales
    • Se está pensando cómo atribuir las contribuciones de la IA
      Personalmente, creo que una línea en los agradecimientos sería apropiada
      Como postdoc de matemáticas, al probar GPT 5.2 noté que miente menos y es honesto cuando falla
      En cambio, Gemini 3 tiende a inventar teoremas cuando se equivoca
  • Me pregunto si los problemas de Erdos que resolvieron los LLM son simplemente problemas fáciles que los humanos no habían tocado,
    o si realmente son resultados de investigación originales
    • Según la advertencia del wiki de Tao,
      los problemas de Erdos tienen una enorme variación en dificultad y existe un grupo de problemas de baja dificultad fáciles para la IA
    • Aun así, tiene valor que los LLM vayan resolviendo este tipo de problemas de baja dificultad
      Si un problema está en la lista de Erdos, al menos es probable que alguien haya intentado resolverlo alguna vez