8 puntos por GN⁺ 2026-03-10 | 1 comentarios | Compartir por WhatsApp
  • La biblioteca de detección de codificación de caracteres de Python chardet fue reimplementada usando IA, y el cambio de LGPL a MIT desató un debate ético en el software de código abierto
  • Surgieron posturas que reconocen la legalidad de la reimplementación con IA, pero el texto subraya que la permisibilidad legal y la legitimidad social no son lo mismo
  • Las reimplementaciones históricas de GNU y Linux fueron una expansión de lo privativo hacia lo libre, pero este caso actúa en una dirección que debilita la protección del procomún
  • Las condiciones de compartición de la GPL no son una restricción, sino un mecanismo para garantizar el intercambio recíproco; la libertad al estilo MIT produce una estructura asimétrica en la que los beneficios fluyen solo hacia quienes tienen más capital
  • Cuanto más fácil sea para la IA eludir el copyleft, más importante se vuelve el principio de que quien obtiene del procomún debe devolver al procomún

La reimplementación con IA de chardet 7.0 y el cambio de licencia

  • La biblioteca chardet de Python fue reescrita por completo usando Claude de Anthropic
    • La nueva versión es 48 veces más rápida que la anterior y añadió soporte multinuecleo
    • La similitud del código se midió en menos del 1.3%, por lo que se considera una obra independiente
  • La licencia cambió de la anterior LGPL a MIT, eliminando la obligación de publicar el código fuente
  • El autor original, Mark Pilgrim, planteó en un issue de GitHub la posible violación de la LGPL
    • Sostiene que una reimplementación hecha con IA expuesta a la base de código previa difícilmente puede considerarse un enfoque de “clean room”

Reacciones contrapuestas de figuras del código abierto

  • Armin Ronacher (creador de Flask) celebró el relicenciamiento y sostuvo que la GPL va contra el espíritu de compartir
  • Salvatore Sanfilippo (antirez, creador de Redis) defendió la legalidad de la reimplementación con IA, apoyándose en la historia de GNU y en la ley de copyright
  • Ambos equiparan la permisibilidad legal con la legitimidad, pero el texto plantea como problema la brecha entre derecho y ética

La historia de GNU y la diferencia de dirección

  • La reimplementación en GNU fue un proceso para convertir software privativo en software libre
    • Lo central no era la permisibilidad legal, sino la dirección ética de ampliar el procomún
  • En cambio, el caso de chardet opera en la dirección de eliminar la protección del copyleft y desmantelar el cercado del procomún
    • Los derivados basados en chardet 7.0 ya no cargan con la obligación de publicar el código fuente
  • antirez pasa por alto esta dirección opuesta y usa el precedente de GNU como una justificación equivocada

La GPL y el significado de compartir

  • Ronacher afirma que la GPL restringe el compartir, pero el texto lo señala como un malentendido fundamental
    • La GPL exige publicar el código fuente solo al distribuir, y no impone restricciones al uso privado
    • Es un mecanismo para garantizar la reciprocidad del intercambio, no para desalentar que se comparta
  • La licencia MIT da libertad a quien recibe el código, pero no exige devolver contribuciones
    • Como resultado, se crea una estructura en la que los beneficios se concentran del lado con más capital y personal
  • Los casos de los años 90 en que código GPL era absorbido por empresas muestran la necesidad de reforzar el copyleft

Un caso autocontradictorio: Vercel y Cloudflare

  • Vercel reimplementó GNU Bash con IA y luego expresó molestia cuando Cloudflare reimplementó Next.js
  • Como Next.js usa licencia MIT, no había problema legal
  • Esto revela la contradicción de afirmar que cambiar de GPL a MIT es una victoria para compartir, pero reaccionar negativamente cuando reimplementan su propio código
  • Aunque Ronacher lo reconoce, no cambia su conclusión, por lo que el texto lo evalúa como una postura que acomoda la conclusión a la posición, más que a la lógica

La distinción entre legalidad y legitimidad

  • La ley solo delimita los actos que no prohíbe; no garantiza que sean correctos
    • Existen conductas legales pero antisociales, como la evasión fiscal o el aumento de precios de medicamentos
  • La LGPL de chardet no era solo un dispositivo legal, sino una promesa social de 12 años
    • Un acuerdo basado en la confianza: “si usas este código, compartes bajo las mismas condiciones”
  • Aunque la reimplementación con IA sea legalmente una obra nueva, rompe la confianza con las personas contribuyentes
  • Zoë Kooyman, de la FSF, lo expresa con claridad: no dar a otras personas los mismos derechos que uno recibió es un acto antisocial

La asimetría de perspectivas

  • antirez y Ronacher son figuras centrales del código abierto, por lo que la reimplementación con IA representa un entorno favorable para ellos
  • En cambio, para quienes contribuyeron a chardet, esto significa la pérdida de protección para sus aportes
  • Ignorar esta asimetría y decir simplemente que “legalmente no hay problema” es presentado no como análisis, sino como racionalización

El futuro del copyleft y el juicio social

  • Bruce Perens advirtió que “la economía del desarrollo de software ha terminado”
    • antirez respondió que “hay que adaptarse”, y Ronacher que “es interesante”
  • Pero la pregunta central es si el copyleft se vuelve más necesario cuanto más fácil es eludirlo
    • El texto responde de forma tajante:
  • La GPL no protege la escasez del código, sino la libertad de las personas usuarias
    • Cuanto más fácil sea reimplementar con IA, menor será también la fricción para eliminar el copyleft
  • El principio de que quien obtiene del procomún debe devolver al procomún es una norma social que no depende del tiempo ni de los cambios tecnológicos
  • La ley cambia lentamente, pero el juicio de valor de la comunidad siempre se ha movido primero
    • La evolución de GPLv2 → v3 → AGPL también muestra que el juicio comunitario precedió a la ley
  • En la era de la IA, la protección del copyleft debe ampliarse incluso a test suites y especificaciones de API
  • En conclusión, el texto enfatiza que debe emitirse antes un juicio social que un fallo legal, y que la legalidad no puede sustituir la legitimidad

1 comentarios

 
GN⁺ 2026-03-10
Opiniones de Hacker News
  • Si ahora se puede generar código fuente solo a partir de una especificación (specification), entonces el principal activo intelectual de un proyecto GPL pasa a estar en la especificación
    Antes se luchaba para que imitar software corporativo fuera legalmente permisible, pero ahora la situación parece ir hacia renunciar voluntariamente a ese derecho y darle más control a los titulares de propiedad intelectual
    Esta tendencia no va a terminar en un resultado anti-grandes empresas ni favorable al intercambio. Al final, quienes ejercerán ese poder serán las grandes corporaciones

    • Esto suena muy parecido a la antigua demanda de Oracle vs Google por las API
    • Pero los desarrolladores de antes no competían contra una IA generativa entrenada con sus propios trabajos
      Ahora la época es completamente distinta. La afirmación citada solo repite un punto que ya ha sido criticado.
      Si estás de acuerdo con esa postura, te recomendaría leer el artículo original directamente
  • Lo que me parece interesante es si este fenómeno podría derrumbar no solo el copyright, sino el concepto mismo de propiedad intelectual (IP)
    La IP se construyó sobre la premisa de que la creatividad es difícil, pero los LLM ahora están automatizando casi toda creación de conocimiento, desde demostraciones matemáticas hasta diseño de nuevos medicamentos
    Entonces, ¿sigue habiendo razón para otorgar monopolios sobre creaciones que ya no son “difíciles”? Al final, la IA incluso tratará las patentes como simples restricciones a sortear

    • Aun así, creo que los resultados creados por humanos todavía necesitan protección
      Actualmente, las salidas de IA no están protegidas por copyright por sí solas; solo pueden protegerse si hay una intervención humana sustancial
      Los resultados fruto del esfuerzo humano deben protegerse para que las grandes empresas no se los lleven gratis
    • El copyright no trata sobre la cantidad de esfuerzo, sino sobre la originalidad y la expresión. La ley estadounidense no reconoce la doctrina de Sweat of the Brow
    • Ahora la IP se ha vuelto un concepto distorsionado monopolizado por las élites. Todo empezó a ir cuesta abajo después del Mickey Mouse de Disney
    • Probablemente esto sea solo una etapa de transición. Problemas que antes eran difíciles se volverán fáciles, y nosotros dirigiremos la mirada hacia problemas más difíciles
      Aunque puede que quienes los resuelvan no sean humanos
    • En realidad, la IP siempre fue desde el principio una idea contradictoria: la propiedad de números
      En el momento en que aparecieron las computadoras ya había perdido sentido, pero siguió viva gracias al lobby.
      Ahora la IA podría estar poniendo el último clavo en su ataúd.
      Al final, lo que importa son los pesos (weights) del modelo, y deberían publicarse para que todos puedan acceder a ellos, o liberarse por la fuerza si hace falta
  • Alguien debería poner esto a prueba de verdad
    Tomar el código fuente filtrado de Minecraft, meterlo en Copilot, crear una copia completamente idéntica en otro lenguaje y publicarla como open source
    Tengo curiosidad por ver si Microsoft diría que eso es infracción de copyright

    • Pero eso sería solo un port y tendría muchas probabilidades de ser una infracción.
      Mejor habría que pedirle “implementa Minecraft desde cero”.
      Eso sí, como no se pueden reutilizar texturas ni modelos, la IA tendría que generarlos de nuevo
    • Se va a poner realmente interesante cuando la IA pueda hacer también decompilación de binarios
    • Creo que esta forma es justamente devolverles sus propias armas
    • El punto clave es si, cuando los datos de entrenamiento incluyen material con copyright, la salida cuenta o no como infracción
      Tu ejemplo es un caso con una posibilidad de infracción mucho más clara
    • Esta es la pregunta más importante ahora mismo.
      ¿Qué pasaría si usas un LLM para quitarle la licencia a un código fuente filtrado de Windows y generar código para WINE?
      Últimamente también se está discutiendo mucho el uso de LLM para decompilación de binarios
  • Dos figuras del mundo open source participaron en la discusión, pero ninguno de los dos es abogado de propiedad intelectual
    Sí participó un abogado real, Richard Fontana, pero su issue fue cerrado
    En un issue de GitHub señaló que “los productos generados por IA generalmente no están protegidos por copyright”
    Es decir, si una persona solo escribió prompts sin modificar directamente el código, el simple acto de ponerle una licencia MIT a ese código tiene implicaciones legales importantes

    • Pero a mí la lógica de Fontana me parece débil
      Más bien se parece a tomar una fotografía. La cámara no tiene copyright, pero el ser humano sí puede tenerlo
      Igual que una obra puede reconocerse como creación humana sin intervención píxel por píxel
  • Si uno mira la historia de la GPL, esto era usar el copyright contra el copyright
    El propio nombre ‘Copyleft’ expresa esa idea
    Pero la IA está erosionando el copyright en sí.
    Ahora no solo se pueden reimplementar con IA programas GPL, sino también software cerrado
    Siendo así, GNU debería abandonar la GPL y usar los LLM como nueva arma

    • Pero los LLM de alto rendimiento son una tecnología que requiere una enorme capacidad de capital
      Eso más bien debilita la libertad del open source y desplaza el poder hacia las grandes empresas
      Además, los LLM se entrenaron con código de muchísimos voluntarios, pero las ganancias se las quedan las grandes corporaciones
      Al final, existe el riesgo de que el open source pierda atractivo y desaparezca el respeto por las licencias
    • Copyleft no es lo opuesto al copyright, sino una estructura que otorga derechos al consumidor
      En particular, garantiza el derecho del usuario a modificar el software que corre en su propio dispositivo
      Pero si ciertas herramientas, llaves o especificaciones están restringidas, entonces la reimplementación se vuelve imposible
    • Tengo dudas de que los LLM sean realmente herramientas de uso libre
      Al final podría terminar siendo pelear con armas prestadas por “empresas malvadas”
    • En realidad, los LLM actuales son en sí mismos una encarnación de “empresas de software malvadas”
    • Hasta que no exista un LLM open source que una persona común pueda hospedar fácilmente, la verdadera libertad del software seguirá muy lejos
  • Yo diría que la violación de licencias ya ocurrió
    La mayoría de los grandes modelos violaron términos de servicio durante la recolección de datos
    Por eso puede verse que un modelo entrenado con código GPL quedó infectado (infect) por la obligación de licencia abierta

    • Pero entrenar en sí no es infracción de copyright. Eso se considera fair use
      Legalmente, lo importante es ① si los datos se obtuvieron de manera legítima, y ② si la salida constituye una expresión original
      En este caso, se confirmó que el 98.7% es código nuevo
    • Al final hará falta una decisión judicial. Pero el punto en disputa no será el principio de fair use, sino el carácter transformativo de la salida
    • Ya hay varios precedentes donde el acto de entrenar en sí se reconoció como fair use
      El verdadero punto es qué tan transformativa es la salida.
      Ese también es el punto central de la demanda NYT vs OpenAI
  • Blanchard dijo que “ingresó solo la API y las pruebas a Claude para reimplementar desde cero”,
    pero eso se parece a decir “me vendaron los ojos y lancé pintura al lienzo, y salió la forma de Mickey Mouse
    Como él mismo era el mantenedor original de ese código, es difícil verlo como completamente independiente

    • Pero si realmente vio o no el código no importa demasiado
      Si introdujo el código original y configuró al sistema para que lo copiara, eso sigue siendo infracción de copyright
      Si la IA es solo una herramienta, la responsabilidad es del usuario; y si es un agente independiente, entonces también sería el sujeto infractor
    • Yo sí creo que reimplementar código es legal y éticamente aceptable
      Siempre que no se copien tal cual los elementos expresivos
    • Como en el caso Oracle vs Google, reimplementar una API es posible
      Si Blanchard publica todos los prompts, cualquiera podría reproducir el mismo resultado
    • ¿Puedes encontrar una cita donde Blanchard realmente haya dicho eso?
      Según entiendo, lo único que afirmó fue que Claude no vio el código
    • Pero Mickey Mouse es un asunto de marca registrada, así que esa analogía no encaja jurídicamente
  • Según el artículo, Claude reimplementó la librería recibiendo solo la API y las pruebas
    Pero GPL2 también considera la suite de pruebas como parte del código fuente
    Entonces, si Claude usó las pruebas, el resultado podría ser una obra derivada basada en el original bajo LGPL 2.1

    • Pero legalmente eso se consideraría uso transformativo (transformative use)
      Aun así, podría no ser posible redistribuir las pruebas bajo licencia MIT
      Por eso, una opción realista sería distribuir solo el código bajo MIT y las pruebas por separado bajo LGPL
    • Según el fallo Google vs Oracle, usar una API es fair use
      Los casos de prueba también podrían verse como parte de ese uso de la API
  • En nuestra empresa, empezaron a usar reimplementación con IA para poder utilizar herramientas que el equipo de seguridad no aprueba
    El equipo de seguridad tiene una política de “denegar por defecto”, mientras que ingeniería tiene una política de “usar IA agresivamente”
    Al final se crea una estructura de incentivos rara donde se rehacen herramientas internas con IA
    Si se quiere otro resultado, primero hay que cambiar el diseño de incentivos

    • La cultura de “Not Invented Here” se está fortaleciendo cada vez más, como una resistencia a los antibióticos (antibiotic resistance)
      Si una IA puede escribir repetidamente buen código relacionado con seguridad,
      ¿por qué se cree que esa misma IA no puede validar la seguridad de software de terceros?
      Quisiera preguntar por qué existe esa asimetría entre producción y análisis
  • Las condiciones de la GPL solo se activan en el momento de la distribución (distribution)
    Debes publicar el código fuente cuando distribuyes código modificado o lo ofreces como servicio de red
    Sin embargo, ofrecer un servicio de red no cuenta como distribución, así que para cubrir eso se creó la AGPL