Guía sobre el uso de herramientas asistidas por IA al contribuir al kernel de Linux
(github.com/torvalds)- Documento oficial del kernel de Linux de Linus Torvalds; al contribuir con herramientas de codificación con IA, se debe seguir exactamente el proceso de desarrollo y el estilo de código existentes del kernel
- La IA no puede agregar la etiqueta Signed-off-by — legalmente solo un humano puede certificarlo, y el desarrollador humano asume por completo la revisión del código generado por IA, el cumplimiento de licencias y toda la responsabilidad legal
- En el código al que haya contribuido la IA, se debe indicar el nombre del modelo:versión y las herramientas de análisis con un formato como
Assisted-by: Claude:claude-3-opus coccinelle sparse- Las herramientas básicas de desarrollo como git, gcc y make quedan excluidas de este requisito
- Todas las contribuciones deben ser compatibles con GPL-2.0-only y es obligatorio usar identificadores de licencia SPDX
1 comentarios
Comentarios en Hacker News
La regla básica es que se puede usar IA, pero la responsabilidad del commit recae por completo en la persona
Suena de sentido común que el código deba cumplir con la licencia. Es algo con lo que la mayoría de los desarrolladores estaría de acuerdo
Lo sorprendente es que haya que dejar esto explícito
Hoy en día mucha gente sube a open source código generado por IA sin siquiera entenderlo y, cuando después aparece un problema, intenta esquivar la responsabilidad diciendo “la IA lo hizo”
En esa situación es totalmente natural que los mantenedores desconfíen del código generado por IA
Algunos incluso consideran a Torvalds un traidor por esta política, y hay quienes dicen que si se fusiona código generado por IA no volverán a contribuir
Acabo de ver recientemente que Greg KH aplicó el revisor de IA Sashiko a todos los parches, así que esta política se siente algo contrastante
El revisor de IA de hecho está siendo útil, pero la discusión sigue atascada en la “responsabilidad sobre el código de IA”
La parte realmente peligrosa son los race conditions o problemas de locks en los que la IA se equivoca con total seguridad
Me pregunto si esta política es una solución de largo plazo o si es solo una medida temporal antes de que sistemas como Sashiko refuercen el filtrado del lado del mantenimiento
La política anunciada por Torvalds deja claramente establecido que una persona debe revisar, firmar y asumir la responsabilidad por el código de IA
Parece algo que debió pasar por revisión legal y podría convertirse en un estándar para el desarrollo asistido por IA en adelante
Signed-off-byya es en muchos casos un trámite formal, y hay muchos contribuidores principiantes que lo agregan sin siquiera saber qué significaDe hecho, una vez mi parche terminó incluido dentro del refactor de otra persona y mi nombre se agregó automáticamente
En la práctica cualquiera puede añadir
Co-developed-byoSigned-off-by, y casi no tiene fuerza legalSi los LLM no pueden indicar sus fuentes, queda la duda de cómo se puede garantizar el cumplimiento de licencias
La autoría podría corresponder al usuario de la IA o al desarrollador del modelo, así que hay mucha incertidumbre legal
En una situación así, a largo plazo incluso podría pasar que la propia licencia del kernel termine perdiendo fuerza
Esto se trata en un artículo de KPMG Law sobre IA y copyright
Se siente raro reutilizar la etiqueta
Assisted-by:para indicar el modelo de IAOriginalmente era una etiqueta para mostrar ayuda de personas, pero ahora tendría dos significados y eso genera confusión
Lo normal sería usar una etiqueta separada como
AI-assistant:La dirección correcta para el open source es dejar claro el vínculo entre humanos y agentes, y que el humano tenga la responsabilidad final de la validación
Gracias a Linus
Se agradece este principio de sentido común: incluso si el código lo hizo una IA, la responsabilidad sigue siendo humana
Parece una inversión del viejo dicho de que “el mal artesano le echa la culpa a sus herramientas”
Al final, la responsabilidad por elegir y usar las herramientas sigue siendo de la persona
Esta política no va a proteger a Linux de la responsabilidad por infracción de copyright
Es como si una tienda dijera “confío en que el proveedor quitó el THC”
Declararse exento por cuenta propia no hace desaparecer la responsabilidad legal
Incluso si se incluyera código infractor, los demandados serían los usuarios de Linux o las empresas
En la práctica, es poco probable que ocurra una demanda así
La comparación en sí no encaja
Si quisiera, una persona podría copiar y pegar código privado y firmarlo
Al final, el problema es el ser humano que miente
Hay una cláusula que dice que “todo el código debe ser compatible con GPL-2.0-only”,
pero con una IA entrenada con código de múltiples licencias, queda la duda de cómo se puede garantizar eso
Si la IA se equivoca, esa responsabilidad también recae en la persona. Si eso te preocupa, no deberías usar IA
Aunque si la IA hace referencia a otras codebases en tiempo de ejecución, podría ser más riesgoso
Pero ese enfoque podría terminar diluyendo el significado de las licencias
Un simple comentario como “esto fue escrito 100% por IA pero yo lo revisé” tendría poca fuerza legal
Incluso hubo una propuesta de abrir issues de relicenciamiento a dominio público en proyectos “100% vibecoded” para visibilizar este problema