1 puntos por GN⁺ 4 일 전 | 1 comentarios | Compartir por WhatsApp
  • Se considera resuelto un antiguo problema que afirmaba que el valor mínimo de la suma de Erdős de un primitive set es 1 y que se acerca a ese valor a medida que sus elementos tienden al infinito, mediante una solución producida por GPT-5.4 Pro
  • La solución fue un resultado que Liam Price obtuvo con un solo prompt y publicó en erdosproblems.com, y después recibió rápida atención tras la revisión de Kevin Barreto y de expertos
  • Esta demostración siguió una ruta distinta del primer enfoque que la gente solía tomar, y destaca por combinar de forma inesperada una fórmula conocida del área relacionada con este problema
  • La prueba original de ChatGPT era demasiado tosca para usarse tal cual, y un experto tuvo que identificar la idea central, entenderla y luego pulirla en una forma más corta y ordenada
  • El hecho de que un nuevo enfoque de LLM haya funcionado en un problema que ni matemáticos de renombre habían podido resolver podría cambiar la manera de ver la estructura de los números grandes y la perspectiva con la que se agrupan problemas similares

El problema y la forma de resolverlo

  • Un primitive set es un conjunto de enteros en el que ningún número del conjunto es divisible por otro
    • Erdős definió para estos conjuntos la suma de Erdős, y creía que esta puntuación disminuye conforme los números del conjunto se hacen más grandes
    • Durante mucho tiempo quedó la conjetura de que su valor mínimo es exactamente 1, y que se acerca a ese valor a medida que los elementos del conjunto tienden al infinito
  • Esta solución es el resultado que Liam Price obtuvo tras darle un solo prompt a GPT-5.4 Pro y luego publicar el resultado en erdosproblems.com
    • Sin conocer la historia de fondo del problema, Price estaba probando meter problemas de Erdős a una IA cuando obtuvo una solución que, a simple vista, parecía correcta
    • Después la revisó junto con Kevin Barreto, y los expertos contactados le prestaron atención rápidamente
  • Antes ya se había informado que la IA resolvió varios Erdős problems, pero la importancia y dificultad varían mucho entre problemas, así que eran una medida imperfecta del nivel matemático, y no pocas soluciones resultaron menos novedosas de lo que parecían
    • Este resultado se recibe de forma distinta porque abordó un problema que ni matemáticos reconocidos habían podido resolver, y porque usó un método que no se empleaba en este tipo de problemas

Por qué se evalúa de forma diferente

  • Al resolver este problema, las personas por lo general escogían un primer enfoque parecido, pero esta solución del LLM entró por una ruta completamente distinta
    • Tomó una fórmula bien conocida en un área matemática relacionada, pero era una combinación que nadie había pensado aplicar a este tipo de problema
  • Terence Tao señaló que el problema en sí quizá era más fácil de lo que parecía y que pudo haber existido una especie de bloqueo mental en los enfoques iniciales
  • Jared Lichtman explicó que la prueba original de ChatGPT era muy tosca tal como estaba y que hizo falta el proceso de un experto para discernir qué quería decir y comprenderla
    • Actualmente, Lichtman y Tao han refinado la demostración en una versión más corta para que la intuición central del LLM quede más clara
  • Este avance podría conducir a una nueva forma de pensar sobre los números grandes y su estructura
    • Aún es pronto para confirmar su importancia a largo plazo, pero se está tomando como un método que respalda la intuición de que problemas similares están conectados entre sí

1 comentarios

 
GN⁺ 4 일 전
Comentarios en Hacker News
  • https://archive.ph/2w4fi

  • Paul Erdős fue un matemático muy famoso y bastante excéntrico que vivió durante gran parte del siglo XX
    tenía la costumbre de ir encontrando y registrando problemas en los que trabajaban los matemáticos, y la dificultad iba desde nivel de tarea actual de licenciatura hasta problemas de nivel Fields Medal si se resolvían
    lo que une a todos estos problemas es que una de las personas más brillantes de los últimos 100 años no pudo responderlos de inmediato
    hoy en día se usan como una especie de benchmark, intentando generar demostraciones de estos problemas con LLM, y cada vez que sale un modelo nuevo se resuelven algunos más

    • viendo la reacción de los matemáticos, esta demostración de Erdős parece un hito bastante especial
      era un problema que varios matemáticos expertos ya habían examinado antes, y dicen que la demostración resultó sorprendente y elegante, además de mostrar conexiones nuevas
      las resoluciones previas de problemas de Erdős por parte de ChatGPT en general habían sido menos impresionantes, más cercanas a explorar la literatura o a resolver problemas relativamente fáciles pero desatendidos
      al leer el prompt, también da curiosidad si haberlo empujado con algo como está bien si no es ortodoxo ayudó al éxito
      [1] https://chatgpt.com/share/69dd1c83-b164-8385-bf2e-8533e9baba9c
    • lo que trata el artículo es un caso de resolver un problema previamente abierto, así que naturalmente está del lado más difícil
  • el prompt real fue este
    se le pidió que no hiciera búsquedas en internet y que intentara producir una demostración o refutación no trivial, nueva y creativa sobre un problema de number theory and primitive sets
    se exigía una unconditional proof o disproof completa, y se volvió a enfatizar que una afirmación así podía requerir elementos no ordinarios y creativos
    y además aparecía Thought for 80m 17s
    https://chatgpt.com/share/69dd1c83-b164-8385-bf2e-8533e9baba9c

    • al probarlo con 5.5 Pro, Extended Thinking, en 17 minutos
      dijo que el bound propuesto era correcto y que la constante 1 era sharp, y presentó que demostraría
      w(a)= 1/alog(a) y uniformly for every primitive A⊂[x,∞), ∑w(a)≤1+O(1/log(x))
      afirmando que era una conclusión más fuerte que el 1+o(1) solicitado
      https://chatgpt.com/share/69ed8e24-15e8-83ea-96ac-784801e4a6ec
    • en mi caso, con Pro tardó 20 minutos
      https://chatgpt.com/share/69ed83b1-3704-8322-bcf2-322aa85d7a99
      pero no sé lo suficiente de matemáticas como para juzgar si realmente es una demostración correcta
    • probé el mismo prompt con el free plan, y el resultado se quedó muy por debajo
  • el avance científico muchas veces ocurre al llevar una técnica X de un campo a un problema Y de otro, y los LLM parecen mejores que los humanos en estas conexiones entre campos
    porque conocen muchas más teorías y enfoques de los que una sola persona puede saber, y no tienen que preocuparse por verse tontos frente a sus colegas

    • eso es justamente lo que yo considero reasoning
      la capacidad de generalizar conocimiento y aplicarlo a otros dominios
    • buena parte del trabajo intelectual en realidad se parece más a intellectual labor, a combinar distinta información en un solo lugar
      en ese tipo de trabajo los LLM lo hacen muchísimo mejor que los humanos, y da la impresión de que la gente tradicionalmente ha clasificado erróneamente eso como creatividad
    • de hecho yo también lo he estado usando así
      no diría que haya producido avances enormes, pero sí siento que unas cuantas veces me ha dado ideas que valdría la pena convertir en un whitepaper
      el propio proceso de intentar unir correlaciones a través de varios campos es bastante divertido como experimento con LLM
    • la civilización ha avanzado fuertemente de una manera left-brained/sequential/language based, y las computadoras y la IA parecen su punto culminante
      yo de niño leía más bien páginas enteras de una sola vez, y en algún momento cambié a leer palabra por palabra y línea por línea, y ese modo se me quedó fijado
      en una etapa de la universidad incluso sentí que se me abrió una percepción más profunda, amplia y no lineal en mi área de matemáticas, aunque no sé si eso era más destreza del hemisferio izquierdo o si el derecho estaba participando más
      los LLM claramente nos van a superar en este tipo de pensamiento secuencial, y entonces me pregunto si los humanos tendremos que empujar más hacia lo que queda de right-brainness, o si la IA también va a llegar ahí incluso más rápido
    • si quieres ver un ejemplo representativo de aplicar técnicas de un campo a otro, busca el Langlands project
  • AI es mi colaborador raro favorito

  • algunos problemas de Erdős a veces se vuelven casi triviales en la práctica cuando se aplican técnicas sofisticadas desarrolladas después
    uno de mis profesores fue coautor con Erdős, y presumía muchísimo que había podido poner como pregunta de quiz para licenciatura un problema de Erdős que durante un tiempo había estado sin resolver

    • agregando algo más en ese sentido, esos problemas ya se le han corrido casi todos a LLM
      así que este caso parece evidencia de que el modelo realmente sí se volvió más fuerte
      porque la generación anterior de LLM no pudo resolver este problema
    • según Tao, el enfoque estándar previo para este problema parece ser un callejón sin salida, pero al mismo tiempo era tan obvio que era el primer paso que cualquiera intentaría
      por eso este resultado se ve más prometedor
      porque ahora existe una nueva línea de enfoque que vale la pena evaluar también para problemas similares
  • a estas alturas estaría bien armar un GitHub repo y meterle un montón de problemas abiertos de dry lab, para luego hacer un harness que los corra todos cada vez que salga un modelo nuevo

    • de hecho Terence Tao y otros matemáticos ya administran un repositorio así, y lo están usando actively para buscar soluciones con LLM
      [1] https://github.com/teorth/erdosproblems
    • eso es literalmente los Erdős problems
      y este post trata justo de que uno de ellos fue resuelto
  • la frase el texto original de la demostración de ChatGPT en realidad era bastante malo, y un experto tuvo que filtrarlo para entender qué intentaba decir me dio exactamente la misma sensación que siempre tengo al leer artículos de matemáticas

  • si este era un problema de hace 60 años, pensé que tal vez en realidad ya había sido resuelto indirectamente, y que el modelo simplemente lo encontró cruzando varias piezas de información
    al ver el sitio, casi no hay rastro de discusión humana previa y los comentarios recientes solo hablan de que GPT lo encontró, lo que me hizo sentirlo todavía más
    si es un problema de hace 60 años, esperaría ver discusiones más antiguas, así que me pregunto qué se me está escapando
    de todos modos es un gran hallazgo, y seguramente hay más problemas parecidos que valdría la pena volver a revisar con GPT

  • tanto los humanos como las máquinas hechas por humanos normalmente resuelven problemas de manera acumulativa
    van construyendo sobre bases existentes, y esa tendencia a no querer reinventar la rueda hace fácil quedar atrapado en ciertas formas de pensar
    así que no me sorprende demasiado que un LLM ingenuo haya propuesto un enfoque que los expertos no habían intentado
    en este tipo de casos limitados, los LLM pueden ser bastante útiles para lanzar otro enfoque; ni siquiera necesitan tener la respuesta correcta, basta con que propongan una alternativa y sacudan el tablero
    dicho eso, no tengo claro qué valor práctico tiene este problema de Erdős
    si alguien pregunta si esto prueba que los LLM no son objetos inútiles, eso me suena parecido a preguntar en 1928 si había que invertir millones de dólares en teoría de números
    en ese momento la respuesta probablemente habría sido no, y ahora salga de mi oficina