- Evalúa positivamente que el código open source se use para entrenar IA, y lo describe como “un proceso en el que se amplifica el valor de un regalo dado al mundo”
- Algunos ven el open source como una herramienta para cambiar la sociedad o construir prestigio, pero su esencia, sostiene, es un “acto de donación” compartido libremente
- Frente a esto, otros desarrolladores señalan como problema la estructura en la que las grandes empresas no devuelven nada o el aumento del agotamiento de los contribuidores
- Distintos participantes debatieron desde varias perspectivas la relación entre la IA y el open source, el papel de la GPL y los cambios en el ecosistema provocados por la IA
- En general, la combinación de open source e IA se percibe como una tendencia que eleva la accesibilidad al desarrollo y acelera la expansión de la creación
Declaraciones de John Carmack y tesis central
- Carmack describió más de un millón de líneas de código open source que publicó como “un regalo al mundo”
- Explicó que la GPL era un mecanismo para evitar la explotación por parte de competidores, pero que en esencia era un medio para permitir compartir
- Subrayó que, al ser aprendido por la IA, el valor de ese regalo se amplifica
- Sostiene que “el entrenamiento de IA no entra en conflicto con el espíritu del open source”
- Menciona que el objetivo del open source es permitir que otros aprendan y mejoren, y que el entrenamiento de IA también forma parte de esa misma lógica
Reacciones de la comunidad y debate
- Algunos desarrolladores plantearon como problema que “las grandes empresas reciben el regalo y no devuelven nada”
- Ante eso, Carmack respondió que “aunque una empresa reciba el regalo, eso no impide que otros también lo reciban”
- Expresó su agradecimiento por el código open source de PyTorch de Meta
- Otros participantes analizaron que “la GPL no es un regalo, sino un mecanismo de protección mediante restricciones”, y que ahí se origina el cruce entre el open source y el movimiento anti-IA
- Un usuario señaló que la IA está aumentando los PR sin sentido (pull requests), lo que incrementa la carga para quienes mantienen proyectos
Interacción entre open source e IA
- En varios comentarios se valoró que la IA está contribuyendo al crecimiento del ecosistema open source
- Según estadísticas de GitHub, en un año se sumaron 36 millones de desarrolladores nuevos, y se mencionó que la IA aceleró ese ritmo de crecimiento
- Se está formando una estructura cíclica en la que el código open source entrena a la IA, y la IA a su vez eleva la productividad de código de nuevos desarrolladores
- Algunos, en contraste con la preocupación de que “la IA va a matar al open source”, dijeron que se están preparando para publicar open source aprovechando IA
Cuestiones éticas y sociales
- Se planteó la crítica de que, si el entrenamiento de IA provoca desempleo masivo, cabe preguntarse si realmente puede considerarse un regalo
- Otra opinión señaló que las empresas de IA están elevando el precio del hardware y reforzando estructuras monopólicas
- También hubo quien opinó que sería aceptable si los modelos se liberaran como open source después de cierto tiempo
- Algunos advirtieron que la IA también podría ser mal utilizada para desarrollar tecnologías destructivas (por ejemplo, armas biológicas) y pidieron reforzar la seguridad
Diferencias de perspectiva entre creadores y desarrolladores
- Se señaló que, mientras los desarrolladores de software muestran una actitud positiva hacia el uso de IA, en las artes visuales abundan las respuestas negativas por preocupaciones de infracción de copyright
- Un desarrollador comentó que publicó como open source una herramienta para generar juegos de Godot con IA, pero que la reacción de la comunidad fue fría
- Aun así, enfatizó que “ese proyecto solo fue posible gracias a la estructura open source de Godot”
- Algunos creadores afirman que no les importa que su música se use para entrenar IA, y ven la circulación de influencia e inspiración como la esencia misma de la creación
El futuro del open source y el papel de la IA
- Surgió la propuesta de que, para que la IA se use de forma ética, se necesitan modelos entrenados solo con código open source
- Otra opinión expresó preocupación por que, debido a la intermediación de la IA, podría debilitarse el reconocimiento de las contribuciones y la motivación por la recompensa entre desarrolladores
- Varios participantes evaluaron que tanto el open source como la IA coinciden en esencia en que son herramientas que permiten a más personas crear algo
1 comentarios
Comentarios de Hacker News
Antes no se hablaba tanto de la monetización dentro del movimiento open source como ahora.
Una vez corregí un error en Google Maps desde Reddit y me criticaron diciendo que “estaba trabajando gratis para una gran corporación”.
Si se distribuyó con una licencia abierta, hay que respetar claramente esas condiciones, y me parece injusto decir después “en realidad no era eso”.
La esencia de las licencias de software libre es que cualquiera puede beneficiarse, pero asumiendo ciertas obligaciones. Me parece que quienes crearon licencias como GPL o MIT fueron personas realmente extraordinarias.
Muchas veces los usuarios de Reddit se quedan en una rebeldía simbólica más que en acciones reales. Por eso, cuando alguien hace algo productivo, termina siendo criticado.
El problema es que la relación es unilateral. Las grandes tecnológicas buscan maximizar sus ganancias más que apoyar a la comunidad.
No creo que el mundo mejore porque Google gane 10 mil millones de dólares más gracias a voluntarios.
Entre 1977 y 2007, Estados Unidos fue un periodo relativamente bueno para los asalariados, y ahí creció el F/OSS.
En ese entonces era natural dedicar el tiempo libre a contribuir gratis, pero ahora la vida es más precaria y ese margen ya no existe.
Los investigadores reciben salario, pero el valor de sus resultados solo se recompensa de forma indirecta. Por eso es importante que otras personas reconozcan ese valor.
Es una estructura donde todos contribuyen y comparten beneficios, pero las grandes empresas la convierten en una estructura de explotación.
Aunque subas correcciones a Google Maps, no recibes nada a cambio; solo aumentan la publicidad y el rastreo. Por eso no hay razón para trabajar gratis para una gran corporación.
Publicar juegos viejos como open source es un caso especial.
Quien tiene estabilidad económica adopta una actitud distinta frente a las contribuciones, y eso puede traer el efecto secundario de volverse insensible ante la desigualdad de la riqueza.
A mucha gente le incomoda que la IA aprenda de código open source para generar ingresos.
Carmack dice que publicó su código como si fuera un regalo, pero empresas como Anthropic u OpenAI están obteniendo beneficios de eso.
Aunque los autores originales no esperaran dinero, resulta extraño ignorar que otros sí ganen dinero con ello.
No me importa si alguien obtiene beneficios con eso. Si el mundo mejora aunque sea un poco, me basta.
La situación ideal sería poder contribuir al open source incluso desde proyectos comerciales.
La GPL tampoco impide que una empresa lo use sin aportar parches.
Que Carmack equipare ambas no es preciso.
Por eso Linus no se enoja al ver empresas ganar dinero con Linux.
Yo también contribuyo al open source y al mismo tiempo gano dinero con IA, así que me genera sentimientos encontrados.
A medida que la IA reemplaza trabajo, se está reforzando el optimismo tecnológico.
Personas como Carmack pasan por alto el impacto social de la IA.
Aunque desaparezca solo una parte de los empleos de oficina, la economía podría colapsar, pero la gente rica no siente ese impacto.
La desaparición de telefonistas, mecanógrafos y calculistas en el pasado va en la misma línea.
Puede retrasarse un tiempo, pero al final la tecnología avanza.
Cuando se derrumba el sustento, crece el extremismo y puede venir acompañado de violencia política, como el rechazo a los inmigrantes.
En realidad, Carmack no es un activista de OSS orientado al mantenimiento.
Él simplemente publicó código terminado; no administra una comunidad a largo plazo.
Claro que eso ya es valioso por sí mismo, pero es distinto del open source tradicional.
La participación comunitaria no es un requisito indispensable.
También tengo la libertad de detenerlos cuando quiera.
Como en el modelo “open core”, donde se distribuye gratis y se cobran los servicios adicionales.
En esos casos, el entrenamiento de IA puede sentirse como una simple apropiación.
Además, él mismo fundó una empresa de IA.
Creo que la postura de Carmack está influida por los intereses de su empresa de IA.
Muchas empresas de IA solo obtienen beneficios del open source sin aportar nada a cambio.
Las licencias copyleft son un mecanismo para proteger los bienes comunes, y la IA vuelve eso difuso.
Las licencias necesitan actualizarse para adaptarse a los tiempos.
Carmack puede darse el lujo de ser generoso porque ya obtuvo libertad económica.
Alguien que puede vivir sin trabajar el resto de su vida puede donar código con facilidad.
Pero da la impresión de que le falta empatía.
Que sea rico o no no es el punto central.
Si quieres ganar dinero, debes usar otra licencia.
El rechazo a la IA muchas veces surge por la baja calidad técnica o por problemas ambientales.
Si la IA aprende de código GPL y genera código cerrado, eso amenaza el ecosistema FOSS.
A veces la IA incluso sirve para eliminar abstracciones innecesarias. Da cierta sensación de liberación poder reemplazarlas por scripts simples.
Los casos en que la IA ignora el copyright deberían tratarse como casos de fallo.
Las empresas lo celebran, pero los creadores lo perciben como una amenaza.
La mayor parte del FOSS no es un regalo absoluto, sino que incorpora una estructura de compensación.
MIT exige crédito, y GPL exige crédito y la obligación de compartir.
La IA elimina ese crédito y reproduce el código, por eso se vuelve un problema.
Eso sí, debería mantenerse la compatibilidad con GPL.
No me opongo a la IA, pero cambiar una licencia mediante una reescritura con IA es ignorar el esfuerzo humano.
Entrenar con tests o APIs de código existente y luego afirmar que “la IA lo escribió de nuevo” se parece mucho al robo.
Si esta práctica se permite, podría llevar al fin de la propiedad intelectual.
En una era en la que la IA asiste el trabajo humano, hay que dejar clara la propiedad de las creaciones.
Me parece una idea peligrosa querer proteger la API en sí mediante copyright.