- La biblioteca de detección de codificación de caracteres de Python chardet fue reimplementada usando IA, y el cambio de LGPL a MIT desató un debate ético en el software de código abierto
- Surgieron posturas que reconocen la legalidad de la reimplementación con IA, pero el texto subraya que la permisibilidad legal y la legitimidad social no son lo mismo
- Las reimplementaciones históricas de GNU y Linux fueron una expansión de lo privativo hacia lo libre, pero este caso actúa en una dirección que debilita la protección del procomún
- Las condiciones de compartición de la GPL no son una restricción, sino un mecanismo para garantizar el intercambio recíproco; la libertad al estilo MIT produce una estructura asimétrica en la que los beneficios fluyen solo hacia quienes tienen más capital
- Cuanto más fácil sea para la IA eludir el copyleft, más importante se vuelve el principio de que quien obtiene del procomún debe devolver al procomún
La reimplementación con IA de chardet 7.0 y el cambio de licencia
- La biblioteca chardet de Python fue reescrita por completo usando Claude de Anthropic
- La nueva versión es 48 veces más rápida que la anterior y añadió soporte multinuecleo
- La similitud del código se midió en menos del 1.3%, por lo que se considera una obra independiente
- La licencia cambió de la anterior LGPL a MIT, eliminando la obligación de publicar el código fuente
- El autor original, Mark Pilgrim, planteó en un issue de GitHub la posible violación de la LGPL
- Sostiene que una reimplementación hecha con IA expuesta a la base de código previa difícilmente puede considerarse un enfoque de “clean room”
Reacciones contrapuestas de figuras del código abierto
- Armin Ronacher (creador de Flask) celebró el relicenciamiento y sostuvo que la GPL va contra el espíritu de compartir
- Salvatore Sanfilippo (antirez, creador de Redis) defendió la legalidad de la reimplementación con IA, apoyándose en la historia de GNU y en la ley de copyright
- Ambos equiparan la permisibilidad legal con la legitimidad, pero el texto plantea como problema la brecha entre derecho y ética
La historia de GNU y la diferencia de dirección
- La reimplementación en GNU fue un proceso para convertir software privativo en software libre
- Lo central no era la permisibilidad legal, sino la dirección ética de ampliar el procomún
- En cambio, el caso de chardet opera en la dirección de eliminar la protección del copyleft y desmantelar el cercado del procomún
- Los derivados basados en chardet 7.0 ya no cargan con la obligación de publicar el código fuente
- antirez pasa por alto esta dirección opuesta y usa el precedente de GNU como una justificación equivocada
La GPL y el significado de compartir
- Ronacher afirma que la GPL restringe el compartir, pero el texto lo señala como un malentendido fundamental
- La GPL exige publicar el código fuente solo al distribuir, y no impone restricciones al uso privado
- Es un mecanismo para garantizar la reciprocidad del intercambio, no para desalentar que se comparta
- La licencia MIT da libertad a quien recibe el código, pero no exige devolver contribuciones
- Como resultado, se crea una estructura en la que los beneficios se concentran del lado con más capital y personal
- Los casos de los años 90 en que código GPL era absorbido por empresas muestran la necesidad de reforzar el copyleft
Un caso autocontradictorio: Vercel y Cloudflare
- Vercel reimplementó GNU Bash con IA y luego expresó molestia cuando Cloudflare reimplementó Next.js
- Como Next.js usa licencia MIT, no había problema legal
- Esto revela la contradicción de afirmar que cambiar de GPL a MIT es una victoria para compartir, pero reaccionar negativamente cuando reimplementan su propio código
- Aunque Ronacher lo reconoce, no cambia su conclusión, por lo que el texto lo evalúa como una postura que acomoda la conclusión a la posición, más que a la lógica
La distinción entre legalidad y legitimidad
- La ley solo delimita los actos que no prohíbe; no garantiza que sean correctos
- Existen conductas legales pero antisociales, como la evasión fiscal o el aumento de precios de medicamentos
- La LGPL de chardet no era solo un dispositivo legal, sino una promesa social de 12 años
- Un acuerdo basado en la confianza: “si usas este código, compartes bajo las mismas condiciones”
- Aunque la reimplementación con IA sea legalmente una obra nueva, rompe la confianza con las personas contribuyentes
- Zoë Kooyman, de la FSF, lo expresa con claridad: no dar a otras personas los mismos derechos que uno recibió es un acto antisocial
La asimetría de perspectivas
- antirez y Ronacher son figuras centrales del código abierto, por lo que la reimplementación con IA representa un entorno favorable para ellos
- En cambio, para quienes contribuyeron a chardet, esto significa la pérdida de protección para sus aportes
- Ignorar esta asimetría y decir simplemente que “legalmente no hay problema” es presentado no como análisis, sino como racionalización
El futuro del copyleft y el juicio social
- Bruce Perens advirtió que “la economía del desarrollo de software ha terminado”
- antirez respondió que “hay que adaptarse”, y Ronacher que “es interesante”
- Pero la pregunta central es si el copyleft se vuelve más necesario cuanto más fácil es eludirlo
- El texto responde de forma tajante: sí
- La GPL no protege la escasez del código, sino la libertad de las personas usuarias
- Cuanto más fácil sea reimplementar con IA, menor será también la fricción para eliminar el copyleft
- El principio de que quien obtiene del procomún debe devolver al procomún es una norma social que no depende del tiempo ni de los cambios tecnológicos
- La ley cambia lentamente, pero el juicio de valor de la comunidad siempre se ha movido primero
- La evolución de GPLv2 → v3 → AGPL también muestra que el juicio comunitario precedió a la ley
- En la era de la IA, la protección del copyleft debe ampliarse incluso a test suites y especificaciones de API
- En conclusión, el texto enfatiza que debe emitirse antes un juicio social que un fallo legal, y que la legalidad no puede sustituir la legitimidad
1 comentarios
Opiniones de Hacker News
Si ahora se puede generar código fuente solo a partir de una especificación (specification), entonces el principal activo intelectual de un proyecto GPL pasa a estar en la especificación
Antes se luchaba para que imitar software corporativo fuera legalmente permisible, pero ahora la situación parece ir hacia renunciar voluntariamente a ese derecho y darle más control a los titulares de propiedad intelectual
Esta tendencia no va a terminar en un resultado anti-grandes empresas ni favorable al intercambio. Al final, quienes ejercerán ese poder serán las grandes corporaciones
Ahora la época es completamente distinta. La afirmación citada solo repite un punto que ya ha sido criticado.
Si estás de acuerdo con esa postura, te recomendaría leer el artículo original directamente
Lo que me parece interesante es si este fenómeno podría derrumbar no solo el copyright, sino el concepto mismo de propiedad intelectual (IP)
La IP se construyó sobre la premisa de que la creatividad es difícil, pero los LLM ahora están automatizando casi toda creación de conocimiento, desde demostraciones matemáticas hasta diseño de nuevos medicamentos
Entonces, ¿sigue habiendo razón para otorgar monopolios sobre creaciones que ya no son “difíciles”? Al final, la IA incluso tratará las patentes como simples restricciones a sortear
Actualmente, las salidas de IA no están protegidas por copyright por sí solas; solo pueden protegerse si hay una intervención humana sustancial
Los resultados fruto del esfuerzo humano deben protegerse para que las grandes empresas no se los lleven gratis
Aunque puede que quienes los resuelvan no sean humanos
En el momento en que aparecieron las computadoras ya había perdido sentido, pero siguió viva gracias al lobby.
Ahora la IA podría estar poniendo el último clavo en su ataúd.
Al final, lo que importa son los pesos (weights) del modelo, y deberían publicarse para que todos puedan acceder a ellos, o liberarse por la fuerza si hace falta
Alguien debería poner esto a prueba de verdad
Tomar el código fuente filtrado de Minecraft, meterlo en Copilot, crear una copia completamente idéntica en otro lenguaje y publicarla como open source
Tengo curiosidad por ver si Microsoft diría que eso es infracción de copyright
Mejor habría que pedirle “implementa Minecraft desde cero”.
Eso sí, como no se pueden reutilizar texturas ni modelos, la IA tendría que generarlos de nuevo
Tu ejemplo es un caso con una posibilidad de infracción mucho más clara
¿Qué pasaría si usas un LLM para quitarle la licencia a un código fuente filtrado de Windows y generar código para WINE?
Últimamente también se está discutiendo mucho el uso de LLM para decompilación de binarios
Dos figuras del mundo open source participaron en la discusión, pero ninguno de los dos es abogado de propiedad intelectual
Sí participó un abogado real, Richard Fontana, pero su issue fue cerrado
En un issue de GitHub señaló que “los productos generados por IA generalmente no están protegidos por copyright”
Es decir, si una persona solo escribió prompts sin modificar directamente el código, el simple acto de ponerle una licencia MIT a ese código tiene implicaciones legales importantes
Más bien se parece a tomar una fotografía. La cámara no tiene copyright, pero el ser humano sí puede tenerlo
Igual que una obra puede reconocerse como creación humana sin intervención píxel por píxel
Si uno mira la historia de la GPL, esto era usar el copyright contra el copyright
El propio nombre ‘Copyleft’ expresa esa idea
Pero la IA está erosionando el copyright en sí.
Ahora no solo se pueden reimplementar con IA programas GPL, sino también software cerrado
Siendo así, GNU debería abandonar la GPL y usar los LLM como nueva arma
Eso más bien debilita la libertad del open source y desplaza el poder hacia las grandes empresas
Además, los LLM se entrenaron con código de muchísimos voluntarios, pero las ganancias se las quedan las grandes corporaciones
Al final, existe el riesgo de que el open source pierda atractivo y desaparezca el respeto por las licencias
En particular, garantiza el derecho del usuario a modificar el software que corre en su propio dispositivo
Pero si ciertas herramientas, llaves o especificaciones están restringidas, entonces la reimplementación se vuelve imposible
Al final podría terminar siendo pelear con armas prestadas por “empresas malvadas”
Yo diría que la violación de licencias ya ocurrió
La mayoría de los grandes modelos violaron términos de servicio durante la recolección de datos
Por eso puede verse que un modelo entrenado con código GPL quedó infectado (infect) por la obligación de licencia abierta
Legalmente, lo importante es ① si los datos se obtuvieron de manera legítima, y ② si la salida constituye una expresión original
En este caso, se confirmó que el 98.7% es código nuevo
El verdadero punto es qué tan transformativa es la salida.
Ese también es el punto central de la demanda NYT vs OpenAI
Blanchard dijo que “ingresó solo la API y las pruebas a Claude para reimplementar desde cero”,
pero eso se parece a decir “me vendaron los ojos y lancé pintura al lienzo, y salió la forma de Mickey Mouse”
Como él mismo era el mantenedor original de ese código, es difícil verlo como completamente independiente
Si introdujo el código original y configuró al sistema para que lo copiara, eso sigue siendo infracción de copyright
Si la IA es solo una herramienta, la responsabilidad es del usuario; y si es un agente independiente, entonces también sería el sujeto infractor
Siempre que no se copien tal cual los elementos expresivos
Si Blanchard publica todos los prompts, cualquiera podría reproducir el mismo resultado
Según entiendo, lo único que afirmó fue que Claude no vio el código
Según el artículo, Claude reimplementó la librería recibiendo solo la API y las pruebas
Pero GPL2 también considera la suite de pruebas como parte del código fuente
Entonces, si Claude usó las pruebas, el resultado podría ser una obra derivada basada en el original bajo LGPL 2.1
Aun así, podría no ser posible redistribuir las pruebas bajo licencia MIT
Por eso, una opción realista sería distribuir solo el código bajo MIT y las pruebas por separado bajo LGPL
Los casos de prueba también podrían verse como parte de ese uso de la API
En nuestra empresa, empezaron a usar reimplementación con IA para poder utilizar herramientas que el equipo de seguridad no aprueba
El equipo de seguridad tiene una política de “denegar por defecto”, mientras que ingeniería tiene una política de “usar IA agresivamente”
Al final se crea una estructura de incentivos rara donde se rehacen herramientas internas con IA
Si se quiere otro resultado, primero hay que cambiar el diseño de incentivos
Si una IA puede escribir repetidamente buen código relacionado con seguridad,
¿por qué se cree que esa misma IA no puede validar la seguridad de software de terceros?
Quisiera preguntar por qué existe esa asimetría entre producción y análisis
Las condiciones de la GPL solo se activan en el momento de la distribución (distribution)
Debes publicar el código fuente cuando distribuyes código modificado o lo ofreces como servicio de red
Sin embargo, ofrecer un servicio de red no cuenta como distribución, así que para cubrir eso se creó la AGPL