- Quedó en evidencia el impacto negativo de la IA en el ecosistema open source: desde publicaciones de ataque hechas por IA por rechazar un merge de código, hasta la retractación de un artículo por citas falsas
- Los mantenedores de open source están viendo un fuerte aumento en la carga de revisión debido a PRs y reportes de bugs inexactos generados por IA, mientras cae drásticamente la proporción de aportes realmente útiles
- La situación se deterioró al punto de que GitHub introdujo una función para desactivar Pull Requests
- Los modelos de IA han llegado a un plateau en su capacidad de generación de código, mientras que los recursos de los revisores humanos ya tocaron su límite
- El artículo advierte que el furor por la IA muestra un sobrecalentamiento especulativo similar al boom de los NFT y las criptomonedas, y está dañando al open source y al ecosistema tecnológico
El choque entre la IA y el open source
El daño a los mantenedores de open source
- Daniel Stenberg, mantenedor de curl, suspendió su programa de bug bounty debido al deterioro en la calidad de los reportes de bugs generados por IA
- La proporción de reportes útiles de vulnerabilidades cayó de 15% a 5%
- Según él, “los usuarios de IA no participan en mejoras reales; exageran vulnerabilidades y solo buscan recompensas”
- Jeff Geerling, que también mantiene más de 300 proyectos open source, dijo que se disparó la cantidad de “slop PR” generados por IA (propuestas de código basura)
- Debido a este problema, GitHub agregó una opción de configuración para desactivar Pull Requests
- Es el primer caso en que se limita una función central de GitHub, lo que implica una contracción estructural en la forma de colaboración del open source
Los límites de la generación de código con IA
- La generación de código con IA llegó a cierto plateau, y la mejora de calidad se ha detenido
- Los desarrolladores humanos encargados de revisar código tienen límites, a diferencia de las empresas de IA con recursos aparentemente infinitos
- Algunos sostienen que la IA también podrá reemplazar el code review, pero Geerling advierte que usar código de IA no validado en entornos de producción es riesgoso
- Puede tolerarse en proyectos experimentales personales, pero no es adecuado para servicios comerciales
El furor por la IA y la distorsión del ecosistema tecnológico
- La expansión de OpenClaw y el impulso de OpenAI por “popularizar los agentes” podrían empeorar la situación
- Geerling señala que el actual boom de la IA muestra un optimismo irracional y un sobrecalentamiento especulativo parecido al de las criptomonedas y los NFT
- Los LLM y el machine learning sí tienen usos realmente valiosos, pero proyectos fraudulentos están usando eso como pretexto para dañar el ecosistema open source
Señales de sobrecalentamiento en la industria de la IA
- Western Digital anunció que el inventario de discos duros para 2026 ya está completamente agotado, y se apunta al aumento explosivo de la demanda relacionada con la IA como causa
- Geerling ve esto como una señal típica de una burbuja de IA y se pregunta “cuánto destruirán las empresas de IA antes de pagar el costo”
- También enfatiza que la IA, aun sin ser todavía lo suficientemente “buena”, ya está desmoronando la confianza y la estructura de colaboración del open source
Experiencia personal y conclusión
- Geerling reconoce la utilidad complementaria de la IA tras usar modelos abiertos locales para migrar su blog de Drupal a Hugo
- Sin embargo, dijo que desplegó todo el código generado solo después de probarlo y revisarlo personalmente, y que contribuir a proyectos de terceros exige una validación aún más estricta
- Concluye que la IA puede mejorar la eficiencia del desarrollo, pero la automatización sin validación amenaza la calidad del open source
3 comentarios
Creo que una de las esencias del open source está en un código que uno puede mostrar con orgullo a los demás. La elegancia lógica, la concisión y el orgullo son indispensables. Es código, pero también es poesía, y tiene un encanto distinto al del código industrial.
Los agentes también funcionan bastante bien hasta la etapa de planificación y la de plan de implementación, pero después de eso no hacen más que cambiar de estrategia hasta pasar la función de verificación. Cuanto más se profundiza en esto, más se genera una especie de pendiente parecida a una implementation trap. El problema es que también hay muchos usuarios humanos para quienes, con tal de que corra, ya está bien.
Al final, sobre la base de una sintonía filosófica dentro de la comunidad, tendría que hacerse mejor la revisión humana en la etapa de planificación, pero eso requiere esfuerzo además de una intuición abrumadora. La verdad es que, como suena demasiado convincente, depurar el plan de un agente no es algo fácil.
Parece que los moderadores la van a pasar realmente mal.
Opiniones en Hacker News
No es solo un problema del open source. Las fuentes de información de alta calidad están siendo sobreexplotadas y dañadas
StackOverflow está prácticamente muerto (artículo relacionado), los medios están limitando el acceso a Internet Archive y las revistas académicas están sufriendo por artículos falsos y reseñas de baja calidad basadas en LLM. Proyectos como OpenStreetMap también están pagando un alto costo por el scraping
Se siente como si hubiéramos pasado de la minería de datos a la era del fracking de datos
Yo programo como hobby, y últimamente uso LLM para casi todo. Mi proyecto no tiene usuarios, y eso está bien
Pero cuando contribuyo a open source es distinto. Antes hasta los principiantes crecían recibiendo mentoría, pero después de los LLM ya no hay conversación. Son como Linguini en Ratatouille de Pixar: meten algo en una caja de texto y solo miran el resultado, sin ganas de aprender.
Ojalá cada quien no ensucie su propia cocina (proyecto) y se acerque con empatía
La expansión de la IA se parece a un ataque DDoS sofisticado. No solo consume servidores, también la atención y los recursos de las personas.
El contenido generado por IA es en su mayoría de baja calidad, y eso agota a la gente. Tal vez algún día sea útil, pero por ahora estamos en una fase caótica de transición
La revisión de código ya era un cuello de botella, y si aumenta el código sin probar, la carga para los mantenedores se dispara.
En open source, garantizar la calidad del código es indispensable para mantener compatibilidad a largo plazo
Los LLM están contaminando internet con contenido de baja calidad. Incluso queda la duda de si en el futuro servirá como datos de entrenamiento
La esencia del problema no es la IA sino la asimetría del esfuerzo. Antes, para hacer un mal PR al menos se necesitaba un mínimo de trabajo; ahora basta con unos clics
Los mantenedores necesitan herramientas técnicas y sociales de filtrado. Como con el spam por correo, hace falta un enfoque mixto de tecnología + política
El fin de semana encontré un bug en la versión Golang de
sqlcmdde Microsoft y lo corregí con Claude.Ese tipo de contribución intencional sí es positiva para el ecosistema
En 2020, estudiantes mandaban montones de PR cambiando una sola línea del README para ganarse una camiseta. Incluso sin IA, el open source ya estaba sobrecargado
La mentoría entre generaciones se cortó y el ecosistema se volvió inestable y frágil.
Aun así, el open source no va a morir. Mientras alguien comparta un proyecto hecho en su cuarto, seguirá vivo.
Hace falta estandarización: plantillas de guía de contribución, herramientas automáticas para reportes de bugs y capacitación para nuevos mantenedores.
No pasa nada por desactivar PR e issues. Ni siquiera es obligatorio usar GitHub
Suena raro decir que “el avance de la IA se estancó”. Solo en los últimos meses hubo mejoras muy rápidas con Opus 4.5, 4.6, Codex 5.3 y más
Si ves los gráficos de METR, en 2024 hubo una desaceleración momentánea, pero en 2025 volvió a superar la línea de tendencia
Antes internet era un espacio divertido, pero la publicidad y las redes sociales mataron la creatividad y la colaboración.
Antes existía esa pasión de pasar la noche depurando código mientras comías pizza; ahora todo se siente demasiado aburrido
¿No es este un problema de la gente que usa la IA de cualquier manera y sin pensar, más que un problema de la IA? Ya se empieza a sentir un ambiente en el que solo se intenta cargarle a la IA las acciones equivocadas de los humanos.