14 puntos por GN⁺ 2026-02-18 | 3 comentarios | Compartir por WhatsApp
  • Quedó en evidencia el impacto negativo de la IA en el ecosistema open source: desde publicaciones de ataque hechas por IA por rechazar un merge de código, hasta la retractación de un artículo por citas falsas
  • Los mantenedores de open source están viendo un fuerte aumento en la carga de revisión debido a PRs y reportes de bugs inexactos generados por IA, mientras cae drásticamente la proporción de aportes realmente útiles
  • La situación se deterioró al punto de que GitHub introdujo una función para desactivar Pull Requests
  • Los modelos de IA han llegado a un plateau en su capacidad de generación de código, mientras que los recursos de los revisores humanos ya tocaron su límite
  • El artículo advierte que el furor por la IA muestra un sobrecalentamiento especulativo similar al boom de los NFT y las criptomonedas, y está dañando al open source y al ecosistema tecnológico

El choque entre la IA y el open source

El daño a los mantenedores de open source

  • Daniel Stenberg, mantenedor de curl, suspendió su programa de bug bounty debido al deterioro en la calidad de los reportes de bugs generados por IA
    • La proporción de reportes útiles de vulnerabilidades cayó de 15% a 5%
    • Según él, “los usuarios de IA no participan en mejoras reales; exageran vulnerabilidades y solo buscan recompensas”
  • Jeff Geerling, que también mantiene más de 300 proyectos open source, dijo que se disparó la cantidad de “slop PR” generados por IA (propuestas de código basura)
  • Debido a este problema, GitHub agregó una opción de configuración para desactivar Pull Requests
    • Es el primer caso en que se limita una función central de GitHub, lo que implica una contracción estructural en la forma de colaboración del open source

Los límites de la generación de código con IA

  • La generación de código con IA llegó a cierto plateau, y la mejora de calidad se ha detenido
  • Los desarrolladores humanos encargados de revisar código tienen límites, a diferencia de las empresas de IA con recursos aparentemente infinitos
  • Algunos sostienen que la IA también podrá reemplazar el code review, pero Geerling advierte que usar código de IA no validado en entornos de producción es riesgoso
    • Puede tolerarse en proyectos experimentales personales, pero no es adecuado para servicios comerciales

El furor por la IA y la distorsión del ecosistema tecnológico

  • La expansión de OpenClaw y el impulso de OpenAI por “popularizar los agentes” podrían empeorar la situación
  • Geerling señala que el actual boom de la IA muestra un optimismo irracional y un sobrecalentamiento especulativo parecido al de las criptomonedas y los NFT
  • Los LLM y el machine learning sí tienen usos realmente valiosos, pero proyectos fraudulentos están usando eso como pretexto para dañar el ecosistema open source

Señales de sobrecalentamiento en la industria de la IA

  • Western Digital anunció que el inventario de discos duros para 2026 ya está completamente agotado, y se apunta al aumento explosivo de la demanda relacionada con la IA como causa
  • Geerling ve esto como una señal típica de una burbuja de IA y se pregunta “cuánto destruirán las empresas de IA antes de pagar el costo”
  • También enfatiza que la IA, aun sin ser todavía lo suficientemente “buena”, ya está desmoronando la confianza y la estructura de colaboración del open source

Experiencia personal y conclusión

  • Geerling reconoce la utilidad complementaria de la IA tras usar modelos abiertos locales para migrar su blog de Drupal a Hugo
    • Sin embargo, dijo que desplegó todo el código generado solo después de probarlo y revisarlo personalmente, y que contribuir a proyectos de terceros exige una validación aún más estricta
  • Concluye que la IA puede mejorar la eficiencia del desarrollo, pero la automatización sin validación amenaza la calidad del open source

3 comentarios

 
jeeeyul 2026-02-19

Creo que una de las esencias del open source está en un código que uno puede mostrar con orgullo a los demás. La elegancia lógica, la concisión y el orgullo son indispensables. Es código, pero también es poesía, y tiene un encanto distinto al del código industrial.

Los agentes también funcionan bastante bien hasta la etapa de planificación y la de plan de implementación, pero después de eso no hacen más que cambiar de estrategia hasta pasar la función de verificación. Cuanto más se profundiza en esto, más se genera una especie de pendiente parecida a una implementation trap. El problema es que también hay muchos usuarios humanos para quienes, con tal de que corra, ya está bien.

Al final, sobre la base de una sintonía filosófica dentro de la comunidad, tendría que hacerse mejor la revisión humana en la etapa de planificación, pero eso requiere esfuerzo además de una intuición abrumadora. La verdad es que, como suena demasiado convincente, depurar el plan de un agente no es algo fácil.

Parece que los moderadores la van a pasar realmente mal.

 
GN⁺ 2026-02-18
Opiniones en Hacker News
  • No es solo un problema del open source. Las fuentes de información de alta calidad están siendo sobreexplotadas y dañadas
    StackOverflow está prácticamente muerto (artículo relacionado), los medios están limitando el acceso a Internet Archive y las revistas académicas están sufriendo por artículos falsos y reseñas de baja calidad basadas en LLM. Proyectos como OpenStreetMap también están pagando un alto costo por el scraping
    Se siente como si hubiéramos pasado de la minería de datos a la era del fracking de datos

    • StackOverflow ya venía cayendo desde antes de ChatGPT. Llevaba en descenso constante desde 2014, y la caída brusca posterior a ChatGPT fue solo temporal; la tendencia de largo plazo es la misma
    • Reddit también está prácticamente muerto por culpa de la IA. Recuerdo que el cambio en la API fue una respuesta inicial al GPT. El buen contenido desapareció y solo quedaron residuos de IA
    • El hype de la IA está empeorando toda la industria de TI
    • StackOverflow se vino abajo por sí solo, con preguntas pésimas y la arrogancia de los moderadores. Incluso buenas preguntas terminan cerradas sin más, y los foros meta están llenos de gente dogmática. En cambio, sitios pequeños de SE como cocina o LaTeX todavía funcionan bien
    • Aunque la IA no acabe con la humanidad, tiene muchas probabilidades de convertirse en la tecnología más destructiva de la generación. Ya vimos cómo las redes sociales y las apps tipo apuesta rompieron los lazos sociales, aumentando depresión, aislamiento y extremismo. La IA parece encaminada a eliminar incluso las pocas innovaciones positivas que quedaban y a maximizar la ansiedad social
  • Yo programo como hobby, y últimamente uso LLM para casi todo. Mi proyecto no tiene usuarios, y eso está bien
    Pero cuando contribuyo a open source es distinto. Antes hasta los principiantes crecían recibiendo mentoría, pero después de los LLM ya no hay conversación. Son como Linguini en Ratatouille de Pixar: meten algo en una caja de texto y solo miran el resultado, sin ganas de aprender.
    Ojalá cada quien no ensucie su propia cocina (proyecto) y se acerque con empatía

    • En OSS faltan personas que revisen los PR. Incluso usando agentes automáticos de revisión, el costo es tan alto que la mayoría no puede asumirlo
    • Los LLM son buenos para proyectos personales, pero como el costo operativo es alto, al final se genera una estructura que obliga a meterlos en todas partes
    • Si el propósito del open source no es el código en sí sino la construcción de comunidad, entonces la IA podría crear una nueva clase de producto comunitario
    • Por eso GitHub está empezando a introducir una función para bloquear PR
    • Yo siempre abro primero un issue y después mando el PR. Si el mantenedor marca la dirección, doy por hecho que habrá que corregir varias veces
  • La expansión de la IA se parece a un ataque DDoS sofisticado. No solo consume servidores, también la atención y los recursos de las personas.
    El contenido generado por IA es en su mayoría de baja calidad, y eso agota a la gente. Tal vez algún día sea útil, pero por ahora estamos en una fase caótica de transición

    • La IA es consumo disfrazado de productividad. Hace daño en los espacios donde uno realmente crea cosas
    • Toda tecnología suficientemente avanzada termina actuando como un DDoS sobre la sociedad. Ahora estamos en la etapa de aguantar ese golpe
  • La revisión de código ya era un cuello de botella, y si aumenta el código sin probar, la carga para los mantenedores se dispara.
    En open source, garantizar la calidad del código es indispensable para mantener compatibilidad a largo plazo

    • Por eso antes surgió el pair programming, pero la gente prefiere trabajar con una máquina antes que colaborar entre sí
  • Los LLM están contaminando internet con contenido de baja calidad. Incluso queda la duda de si en el futuro servirá como datos de entrenamiento

    • La IA no arruinó internet; ya lo estaba arruinando la economía de la atención centrada en la publicidad. La IA solo aceleró ese proceso
    • La IA es solo una herramienta; el resultado depende de la calidad del esfuerzo. El problema son los resultados hechos al aventón
    • El internet que me gustaba estaba compuesto en gran parte por contenido no comercial. El verdadero destructor fue la economía de la atención orientada a ingresos por anuncios
    • La estructura económica de las plataformas de contenido ya había empezado a arruinar internet. Se rompió la idea de que “el buen contenido gana”
    • Incluso antes de los LLM ya existía una avalancha de información sin sentido, como los foros de Microsoft o videos de YouTube generados automáticamente
  • La esencia del problema no es la IA sino la asimetría del esfuerzo. Antes, para hacer un mal PR al menos se necesitaba un mínimo de trabajo; ahora basta con unos clics
    Los mantenedores necesitan herramientas técnicas y sociales de filtrado. Como con el spam por correo, hace falta un enfoque mixto de tecnología + política

    • Pero la asimetría del esfuerzo es justamente la razón de ser de la IA. Al final, el problema sí es la IA
    • Los LLM también pueden leer guías, así que filtros simples tipo cuestionario no van a durar mucho. Métodos con más fricción, como PR por correo electrónico, podrían funcionar mejor
    • Hace falta una opción para bloquear la creación de PR vía API
    • Parece que los LLM van a traer el fin de los sistemas basados en anonimato. Vincular cuentas a identidades reales podría reducir el problema del spam y los bots
  • El fin de semana encontré un bug en la versión Golang de sqlcmd de Microsoft y lo corregí con Claude.
    Ese tipo de contribución intencional sí es positiva para el ecosistema

    • Pero hace falta verificar si el cambio realmente resuelve el problema o si introdujo un bug nuevo. El mantenedor tiene que revisar el impacto completo
    • Juzgar la intención y la calidad del aporte de un contribuyente requiere mucho tiempo y esfuerzo humano
    • El problema con los LLM son las personas que mandan PR sin hacer pruebas. No persiguen resultados, solo producción
    • Si tú mismo lo probaste y luego lo enviaste, eso no es distinto de la forma de antes. El problema son los PR automatizados e irresponsables
    • Es un caso positivo. Si una persona se hace responsable y usa la IA como herramienta, está bien
    • Tengo curiosidad por ver el enlace de ese PR
  • En 2020, estudiantes mandaban montones de PR cambiando una sola línea del README para ganarse una camiseta. Incluso sin IA, el open source ya estaba sobrecargado
    La mentoría entre generaciones se cortó y el ecosistema se volvió inestable y frágil.
    Aun así, el open source no va a morir. Mientras alguien comparta un proyecto hecho en su cuarto, seguirá vivo.
    Hace falta estandarización: plantillas de guía de contribución, herramientas automáticas para reportes de bugs y capacitación para nuevos mantenedores.
    No pasa nada por desactivar PR e issues. Ni siquiera es obligatorio usar GitHub

    • Pero la IA sí puede destruir la visibilidad y la comunidad. GitHub no importa porque sea perfecto, sino porque ahí está reunida la gente
    • Ahora hasta agentes de IA podrían crear y compartir proyectos por su cuenta
    • Antes también pasaba que un solo video educativo hacía que mucha gente empezara a mandar PR sin sentido
  • Suena raro decir que “el avance de la IA se estancó”. Solo en los últimos meses hubo mejoras muy rápidas con Opus 4.5, 4.6, Codex 5.3 y más
    Si ves los gráficos de METR, en 2024 hubo una desaceleración momentánea, pero en 2025 volvió a superar la línea de tendencia

    • Ese texto sobre el “estancamiento” fue escrito dos meses antes del lanzamiento de Opus 4.5. En la práctica, no hubo tal estancamiento
    • En el bando anti-LLM este tipo de argumento aparece seguido, pero la velocidad del progreso sigue siendo alta. Da pena que ambos lados lo hayan convertido en una guerra cultural donde se ignora la evidencia
    • Si lo miras en periodos de un año, puede sentirse que la mejora es poca. Algunos proyectos todavía no están a nivel de producción
  • Antes internet era un espacio divertido, pero la publicidad y las redes sociales mataron la creatividad y la colaboración.
    Antes existía esa pasión de pasar la noche depurando código mientras comías pizza; ahora todo se siente demasiado aburrido

    • Todavía puedes disfrutar proyectos de hobby como antes. Que otros jueguen con LLM no me quita el gusto. Cada quien puede disfrutar lo suyo
    • Hoy la IA se usa de forma antisocial, pero también podría evolucionar para ayudar a la colaboración
    • La web ya se había comercializado desde el primer banner publicitario en 1994. La estructura basada en anuncios no tiene nada de nuevo
    • Los de mi generación sentíamos que AOL había arruinado internet. La IA también es, al final, un cambio que habrá que aceptar
    • Decir que “la IA mató la creatividad” es como decir que la terapia multidrogas eliminó la solidaridad en la comunidad de pacientes con lepra
 
realg 2026-02-18

¿No es este un problema de la gente que usa la IA de cualquier manera y sin pensar, más que un problema de la IA? Ya se empieza a sentir un ambiente en el que solo se intenta cargarle a la IA las acciones equivocadas de los humanos.