10 puntos por GN⁺ 19 일 전 | 1 comentarios | Compartir por WhatsApp
  • Documento oficial del kernel de Linux de Linus Torvalds; al contribuir con herramientas de codificación con IA, se debe seguir exactamente el proceso de desarrollo y el estilo de código existentes del kernel
  • La IA no puede agregar la etiqueta Signed-off-by — legalmente solo un humano puede certificarlo, y el desarrollador humano asume por completo la revisión del código generado por IA, el cumplimiento de licencias y toda la responsabilidad legal
  • En el código al que haya contribuido la IA, se debe indicar el nombre del modelo:versión y las herramientas de análisis con un formato como Assisted-by: Claude:claude-3-opus coccinelle sparse
    • Las herramientas básicas de desarrollo como git, gcc y make quedan excluidas de este requisito
  • Todas las contribuciones deben ser compatibles con GPL-2.0-only y es obligatorio usar identificadores de licencia SPDX

1 comentarios

 
GN⁺ 19 일 전
Comentarios en Hacker News
  • La regla básica es que se puede usar IA, pero la responsabilidad del commit recae por completo en la persona
    Suena de sentido común que el código deba cumplir con la licencia. Es algo con lo que la mayoría de los desarrolladores estaría de acuerdo

    • Esta es una política normal y razonable hasta el punto de parecer aburrida
      Lo sorprendente es que haya que dejar esto explícito
      Hoy en día mucha gente sube a open source código generado por IA sin siquiera entenderlo y, cuando después aparece un problema, intenta esquivar la responsabilidad diciendo “la IA lo hizo”
      En esa situación es totalmente natural que los mantenedores desconfíen del código generado por IA
    • En la comunidad de Linux hay muchas personas extremadamente opuestas a los commits asistidos por IA
      Algunos incluso consideran a Torvalds un traidor por esta política, y hay quienes dicen que si se fusiona código generado por IA no volverán a contribuir
    • Si la salida de la IA no está bajo GNU GPL, queda la duda de si simplemente por haberle agregado algo un desarrollador de Linux eso pasa a convertirse en código GPL
    • La IA no es más que una herramienta (tool), así que no veo por qué habría que indicarla explícitamente como autora
  • Acabo de ver recientemente que Greg KH aplicó el revisor de IA Sashiko a todos los parches, así que esta política se siente algo contrastante
    El revisor de IA de hecho está siendo útil, pero la discusión sigue atascada en la “responsabilidad sobre el código de IA”
    La parte realmente peligrosa son los race conditions o problemas de locks en los que la IA se equivoca con total seguridad
    Me pregunto si esta política es una solución de largo plazo o si es solo una medida temporal antes de que sistemas como Sashiko refuercen el filtrado del lado del mantenimiento

  • La política anunciada por Torvalds deja claramente establecido que una persona debe revisar, firmar y asumir la responsabilidad por el código de IA
    Parece algo que debió pasar por revisión legal y podría convertirse en un estándar para el desarrollo asistido por IA en adelante

    • Pero el documento real fue redactado por Sasha Levin con base en las discusiones de los maintainers de Linux
    • Signed-off-by ya es en muchos casos un trámite formal, y hay muchos contribuidores principiantes que lo agregan sin siquiera saber qué significa
      De hecho, una vez mi parche terminó incluido dentro del refactor de otra persona y mi nombre se agregó automáticamente
      En la práctica cualquiera puede añadir Co-developed-by o Signed-off-by, y casi no tiene fuerza legal
  • Si los LLM no pueden indicar sus fuentes, queda la duda de cómo se puede garantizar el cumplimiento de licencias

    • En Alemania, la salida de un LLM no está protegida por derechos de autor
      La autoría podría corresponder al usuario de la IA o al desarrollador del modelo, así que hay mucha incertidumbre legal
      En una situación así, a largo plazo incluso podría pasar que la propia licencia del kernel termine perdiendo fuerza
      Esto se trata en un artículo de KPMG Law sobre IA y copyright
  • Se siente raro reutilizar la etiqueta Assisted-by: para indicar el modelo de IA
    Originalmente era una etiqueta para mostrar ayuda de personas, pero ahora tendría dos significados y eso genera confusión
    Lo normal sería usar una etiqueta separada como AI-assistant:

  • La dirección correcta para el open source es dejar claro el vínculo entre humanos y agentes, y que el humano tenga la responsabilidad final de la validación
    Gracias a Linus

  • Se agradece este principio de sentido común: incluso si el código lo hizo una IA, la responsabilidad sigue siendo humana

  • Parece una inversión del viejo dicho de que “el mal artesano le echa la culpa a sus herramientas”
    Al final, la responsabilidad por elegir y usar las herramientas sigue siendo de la persona

  • Esta política no va a proteger a Linux de la responsabilidad por infracción de copyright
    Es como si una tienda dijera “confío en que el proveedor quitó el THC”
    Declararse exento por cuenta propia no hace desaparecer la responsabilidad legal

    • Pero el kernel de Linux no es una entidad legal, sino un conjunto de contribuidores
      Incluso si se incluyera código infractor, los demandados serían los usuarios de Linux o las empresas
      En la práctica, es poco probable que ocurra una demanda así
    • Hay muchas empresas que usan código de IA, pero eso no significa que todas terminen asumiendo responsabilidad legal
    • Los proyectos open source, a diferencia de una tienda, no ofrecen garantía al consumidor
      La comparación en sí no encaja
    • En realidad, el código de IA no es necesariamente más peligroso
      Si quisiera, una persona podría copiar y pegar código privado y firmarlo
      Al final, el problema es el ser humano que miente
  • Hay una cláusula que dice que “todo el código debe ser compatible con GPL-2.0-only”,
    pero con una IA entrenada con código de múltiples licencias, queda la duda de cómo se puede garantizar eso

    • La respuesta es simple: la persona que usó la IA asume la responsabilidad
      Si la IA se equivoca, esa responsabilidad también recae en la persona. Si eso te preocupa, no deberías usar IA
    • En realidad, los desarrolladores humanos tampoco han visto solamente código GPL
    • La interpretación de copyright les corresponde a los tribunales. No es un problema que Torvalds tenga que predecir
      Aunque si la IA hace referencia a otras codebases en tiempo de ejecución, podría ser más riesgoso
    • Hay quienes sostienen que “el código hecho por IA está en dominio público y por eso no viola la GPL”
      Pero ese enfoque podría terminar diluyendo el significado de las licencias
      Un simple comentario como “esto fue escrito 100% por IA pero yo lo revisé” tendría poca fuerza legal
      Incluso hubo una propuesta de abrir issues de relicenciamiento a dominio público en proyectos “100% vibecoded” para visibilizar este problema