Un aficionado usando ChatGPT resuelve un problema de Erdős
(scientificamerican.com)- Se considera resuelto un antiguo problema que afirmaba que el valor mínimo de la suma de Erdős de un primitive set es 1 y que se acerca a ese valor a medida que sus elementos tienden al infinito, mediante una solución producida por GPT-5.4 Pro
- La solución fue un resultado que Liam Price obtuvo con un solo prompt y publicó en erdosproblems.com, y después recibió rápida atención tras la revisión de Kevin Barreto y de expertos
- Esta demostración siguió una ruta distinta del primer enfoque que la gente solía tomar, y destaca por combinar de forma inesperada una fórmula conocida del área relacionada con este problema
- La prueba original de ChatGPT era demasiado tosca para usarse tal cual, y un experto tuvo que identificar la idea central, entenderla y luego pulirla en una forma más corta y ordenada
- El hecho de que un nuevo enfoque de LLM haya funcionado en un problema que ni matemáticos de renombre habían podido resolver podría cambiar la manera de ver la estructura de los números grandes y la perspectiva con la que se agrupan problemas similares
El problema y la forma de resolverlo
- Un primitive set es un conjunto de enteros en el que ningún número del conjunto es divisible por otro
- Erdős definió para estos conjuntos la suma de Erdős, y creía que esta puntuación disminuye conforme los números del conjunto se hacen más grandes
- Durante mucho tiempo quedó la conjetura de que su valor mínimo es exactamente 1, y que se acerca a ese valor a medida que los elementos del conjunto tienden al infinito
- Esta solución es el resultado que Liam Price obtuvo tras darle un solo prompt a GPT-5.4 Pro y luego publicar el resultado en erdosproblems.com
- Sin conocer la historia de fondo del problema, Price estaba probando meter problemas de Erdős a una IA cuando obtuvo una solución que, a simple vista, parecía correcta
- Después la revisó junto con Kevin Barreto, y los expertos contactados le prestaron atención rápidamente
- Antes ya se había informado que la IA resolvió varios Erdős problems, pero la importancia y dificultad varían mucho entre problemas, así que eran una medida imperfecta del nivel matemático, y no pocas soluciones resultaron menos novedosas de lo que parecían
- Este resultado se recibe de forma distinta porque abordó un problema que ni matemáticos reconocidos habían podido resolver, y porque usó un método que no se empleaba en este tipo de problemas
Por qué se evalúa de forma diferente
- Al resolver este problema, las personas por lo general escogían un primer enfoque parecido, pero esta solución del LLM entró por una ruta completamente distinta
- Tomó una fórmula bien conocida en un área matemática relacionada, pero era una combinación que nadie había pensado aplicar a este tipo de problema
- Terence Tao señaló que el problema en sí quizá era más fácil de lo que parecía y que pudo haber existido una especie de bloqueo mental en los enfoques iniciales
- Jared Lichtman explicó que la prueba original de ChatGPT era muy tosca tal como estaba y que hizo falta el proceso de un experto para discernir qué quería decir y comprenderla
- Actualmente, Lichtman y Tao han refinado la demostración en una versión más corta para que la intuición central del LLM quede más clara
- Este avance podría conducir a una nueva forma de pensar sobre los números grandes y su estructura
- Aún es pronto para confirmar su importancia a largo plazo, pero se está tomando como un método que respalda la intuición de que problemas similares están conectados entre sí
1 comentarios
Comentarios en Hacker News
https://archive.ph/2w4fi
Paul Erdős fue un matemático muy famoso y bastante excéntrico que vivió durante gran parte del siglo XX
tenía la costumbre de ir encontrando y registrando problemas en los que trabajaban los matemáticos, y la dificultad iba desde nivel de tarea actual de licenciatura hasta problemas de nivel Fields Medal si se resolvían
lo que une a todos estos problemas es que una de las personas más brillantes de los últimos 100 años no pudo responderlos de inmediato
hoy en día se usan como una especie de benchmark, intentando generar demostraciones de estos problemas con LLM, y cada vez que sale un modelo nuevo se resuelven algunos más
era un problema que varios matemáticos expertos ya habían examinado antes, y dicen que la demostración resultó sorprendente y elegante, además de mostrar conexiones nuevas
las resoluciones previas de problemas de Erdős por parte de ChatGPT en general habían sido menos impresionantes, más cercanas a explorar la literatura o a resolver problemas relativamente fáciles pero desatendidos
al leer el prompt, también da curiosidad si haberlo empujado con algo como
está bien si no es ortodoxoayudó al éxito[1] https://chatgpt.com/share/69dd1c83-b164-8385-bf2e-8533e9baba9c
el prompt real fue este
se le pidió que no hiciera búsquedas en internet y que intentara producir una demostración o refutación no trivial, nueva y creativa sobre un problema de number theory and primitive sets
se exigía una unconditional proof o disproof completa, y se volvió a enfatizar que una afirmación así podía requerir elementos no ordinarios y creativos
y además aparecía
Thought for 80m 17shttps://chatgpt.com/share/69dd1c83-b164-8385-bf2e-8533e9baba9c
dijo que el bound propuesto era correcto y que la constante 1 era sharp, y presentó que demostraría
w(a)= 1/alog(a)yuniformly for every primitive A⊂[x,∞), ∑w(a)≤1+O(1/log(x))afirmando que era una conclusión más fuerte que el
1+o(1)solicitadohttps://chatgpt.com/share/69ed8e24-15e8-83ea-96ac-784801e4a6ec
https://chatgpt.com/share/69ed83b1-3704-8322-bcf2-322aa85d7a99
pero no sé lo suficiente de matemáticas como para juzgar si realmente es una demostración correcta
el avance científico muchas veces ocurre al llevar una técnica X de un campo a un problema Y de otro, y los LLM parecen mejores que los humanos en estas conexiones entre campos
porque conocen muchas más teorías y enfoques de los que una sola persona puede saber, y no tienen que preocuparse por verse tontos frente a sus colegas
la capacidad de generalizar conocimiento y aplicarlo a otros dominios
en ese tipo de trabajo los LLM lo hacen muchísimo mejor que los humanos, y da la impresión de que la gente tradicionalmente ha clasificado erróneamente eso como creatividad
no diría que haya producido avances enormes, pero sí siento que unas cuantas veces me ha dado ideas que valdría la pena convertir en un whitepaper
el propio proceso de intentar unir correlaciones a través de varios campos es bastante divertido como experimento con LLM
yo de niño leía más bien páginas enteras de una sola vez, y en algún momento cambié a leer palabra por palabra y línea por línea, y ese modo se me quedó fijado
en una etapa de la universidad incluso sentí que se me abrió una percepción más profunda, amplia y no lineal en mi área de matemáticas, aunque no sé si eso era más destreza del hemisferio izquierdo o si el derecho estaba participando más
los LLM claramente nos van a superar en este tipo de pensamiento secuencial, y entonces me pregunto si los humanos tendremos que empujar más hacia lo que queda de right-brainness, o si la IA también va a llegar ahí incluso más rápido
AI es mi colaborador raro favorito
algunos problemas de Erdős a veces se vuelven casi triviales en la práctica cuando se aplican técnicas sofisticadas desarrolladas después
uno de mis profesores fue coautor con Erdős, y presumía muchísimo que había podido poner como pregunta de quiz para licenciatura un problema de Erdős que durante un tiempo había estado sin resolver
así que este caso parece evidencia de que el modelo realmente sí se volvió más fuerte
porque la generación anterior de LLM no pudo resolver este problema
por eso este resultado se ve más prometedor
porque ahora existe una nueva línea de enfoque que vale la pena evaluar también para problemas similares
a estas alturas estaría bien armar un GitHub repo y meterle un montón de problemas abiertos de dry lab, para luego hacer un harness que los corra todos cada vez que salga un modelo nuevo
[1] https://github.com/teorth/erdosproblems
y este post trata justo de que uno de ellos fue resuelto
la frase
el texto original de la demostración de ChatGPT en realidad era bastante malo, y un experto tuvo que filtrarlo para entender qué intentaba decirme dio exactamente la misma sensación que siempre tengo al leer artículos de matemáticassi este era un problema de hace 60 años, pensé que tal vez en realidad ya había sido resuelto indirectamente, y que el modelo simplemente lo encontró cruzando varias piezas de información
al ver el sitio, casi no hay rastro de discusión humana previa y los comentarios recientes solo hablan de que GPT lo encontró, lo que me hizo sentirlo todavía más
si es un problema de hace 60 años, esperaría ver discusiones más antiguas, así que me pregunto qué se me está escapando
de todos modos es un gran hallazgo, y seguramente hay más problemas parecidos que valdría la pena volver a revisar con GPT
tanto los humanos como las máquinas hechas por humanos normalmente resuelven problemas de manera acumulativa
van construyendo sobre bases existentes, y esa tendencia a no querer reinventar la rueda hace fácil quedar atrapado en ciertas formas de pensar
así que no me sorprende demasiado que un LLM ingenuo haya propuesto un enfoque que los expertos no habían intentado
en este tipo de casos limitados, los LLM pueden ser bastante útiles para lanzar otro enfoque; ni siquiera necesitan tener la respuesta correcta, basta con que propongan una alternativa y sacudan el tablero
dicho eso, no tengo claro qué valor práctico tiene este problema de Erdős
si alguien pregunta si esto prueba que los LLM no son objetos inútiles, eso me suena parecido a preguntar en 1928 si había que invertir millones de dólares en teoría de números
en ese momento la respuesta probablemente habría sido
no, y ahora salga de mi oficina