4 puntos por GN⁺ 2025-07-20 | 2 comentarios | Compartir por WhatsApp
  • Meta Platforms anunció oficialmente que no firmará el Código de Prácticas de IA de la Unión Europea (UE)
  • Joel Kaplan, director global de políticas de Meta, enfatizó que el código constituye una regulación excesiva que frena la innovación y el crecimiento
  • El código busca ofrecer lineamientos de transparencia y seguridad para cumplir con la AI Act (promulgada en 2024)
  • La Comisión Europea publicó la semana pasada la versión final del código de prácticas para modelos de IA de propósito general, y cada empresa puede decidir voluntariamente si lo firma o no
  • Además de Meta, empresas como ASML y Airbus participaron en una carta que pedía retrasar su implementación, mientras que OpenAI expresó su intención de sumarse al código

Motivos detrás del rechazo de Meta al código europeo de prácticas de IA

  • Meta Platforms anunció oficialmente que decidió no firmar el código de prácticas de inteligencia artificial de la Unión Europea
  • Su director global de políticas, Joel Kaplan, afirmó que "Europa va por el camino equivocado en relación con la IA"
  • Kaplan sostuvo que el código genera incertidumbre legal para los desarrolladores de modelos e introduce medidas excesivas que van más allá del alcance de la AI Act
  • Este código de prácticas busca concretar los requisitos de transparencia y seguridad de la AI Act, aprobada el año pasado, y está previsto que entre en vigor el próximo mes

Resumen del código europeo de prácticas de IA

  • La Comisión Europea publicó la versión final del código de prácticas para modelos de IA de propósito general
  • Cada empresa puede decidir voluntariamente si firma o no el código
  • El objetivo del código es proporcionar un marco para cumplir con la AI Act y garantizar la transparencia y seguridad de la tecnología de IA

Reacción de la industria y temas clave

  • Kaplan, de Meta, criticó que "este código está regulado de manera excesiva y será un obstáculo grave para el desarrollo de modelos de IA y el crecimiento de los negocios en Europa"
  • Algunas grandes empresas, como ASML y Airbus, firmaron una carta en la que pedían retrasar su implementación por dos años, mostrando una postura crítica
  • En cambio, OpenAI expresó oficialmente su intención de participar en el código europeo de prácticas

Cambio en la dirección global de políticas de Meta

  • Joel Kaplan fue nombrado director global de políticas de Meta a inicios de 2025
  • Anteriormente fue vicepresidente de políticas públicas de Facebook en Estados Unidos y trabajó en la administración de George W. Bush

2 comentarios

 
xguru 2025-07-20

La explicación de Latham & Watkins sobre el primer borrador de la EU AI Act mencionada en el comentario de Hacker News de abajo

European Commission Releases First Draft of General-Purpose AI Code of Practice

  • La EU AI Act entró en vigor el 1 de agosto de 2024, y las obligaciones relacionadas se implementarán de forma gradual
  • La AI Office de la Comisión lidera la preparación del código de práctica, que se prevé quede listo para mayo de 2025 y entre en vigor el 2 de agosto
  • El 14 de noviembre de 2024, la CE publicó por primera vez el borrador del código de práctica para IA de propósito general
  • El borrador presenta objetivos, medidas e indicadores clave de desempeño (KPI) claros, alineados con los principios y valores de la UE

Contenido principal del borrador de la EU AI Act

Transparencia

  • La transparencia es un principio central del código de práctica
  • Los proveedores de modelos GPAI deben documentar y mantener la siguiente información
    • Información sobre el modelo en sí
    • Tipos de sistemas de IA y usos con los que puede integrarse
    • Políticas de uso permitido
    • Elementos clave de la licencia del modelo
    • Especificaciones de diseño y proceso de entrenamiento
    • Métodos de prueba y validación
  • La información anterior debe entregarse a la AI Office y las autoridades nacionales, o a los proveedores de sistemas de IA, cuando la soliciten
  • Cuando sea posible, también se recomienda la divulgación pública de la información

Cumplimiento de derechos de autor

  • Se enfatiza el cumplimiento de los derechos de autor de la UE y derechos conexos
  • Los proveedores de modelos GPAI deben establecer una política interna integral de derechos de autor durante todo el ciclo de vida
  • Antes de celebrar contratos de datasets con terceros, se requiere debida diligencia en derechos de autor y verificar el cumplimiento del Article 4(3) para titulares de derechos
  • Los proveedores de GPAI, excepto las SME, deben tomar medidas preventivas razonables para que el modelo no genere resultados que infrinjan derechos de autor
  • Al suministrar el modelo, se recomienda establecer como condición contractual que la contraparte se comprometa a tomar medidas para evitar infracciones reiteradas de derechos de autor

Text and Data Mining (TDM)

  • Al realizar TDM, existe la obligación de asegurar acceso legal al contenido protegido por derechos de autor
  • Solo deben usarse rastreadores que cumplan con el Robot Exclusion Protocol
  • Debe cuidarse que la exclusión de rastreadores no afecte negativamente la capacidad de encontrar contenido en motores de búsqueda
  • Se exige responder activamente a las indicaciones legibles por máquina de los titulares de derechos
  • Se debe colaborar en el desarrollo de estándares para titulares de derechos
  • Se requieren medidas razonables para evitar el rastreo de fuentes pirata

Transparencia en el cumplimiento de derechos de autor

  • Existe la obligación de hacer públicas las medidas relacionadas con derechos de autor y el cumplimiento respecto de los titulares de derechos
  • Se requiere proporcionar un punto único de contacto para que los titulares de derechos puedan presentar objeciones
  • Debe entregarse a la AI Office información sobre las fuentes de datos de entrenamiento, prueba y validación, así como sobre los derechos de acceso

Clasificación de riesgo sistémico

  • Los proveedores de GPAI deben evaluar y responder de forma continua a los riesgos con base en un sistema de clasificación de riesgo sistémico
  • Principales categorías de riesgo:
    • Ciberdelito
    • Riesgos químicos, biológicos, radiológicos y nucleares
    • Pérdida de control del modelo
    • Automatización con fines de investigación y desarrollo de IA
    • Persuasión y manipulación a gran escala
    • Discriminación a gran escala

Marco de gestión de riesgo sistémico

  • Los proveedores de modelos GPAI en los que se identifique riesgo sistémico deben establecer un marco de seguridad y protección
  • Se requieren documentación y una estructura de gobernanza (incluida la evaluación de expertos independientes) para reforzar la transparencia y la rendición de cuentas
  • También se especifican medidas como reporte de incidentes, protección a denunciantes y transparencia pública
 
GN⁺ 2025-07-20
Opiniones en Hacker News
  • No solo Meta: 40 empresas europeas también pidieron a la UE un aplazamiento de 2 años porque la aplicación de la Ley de IA no está clara; este code of practice es un estándar voluntario y es más amplio que la ley real; la UE sugirió que participar voluntariamente en este estándar podría implicar menos regulación, pero Meta piensa que, como de todos modos será objeto de regulación en todos los frentes, este consentimiento voluntario le aporta poco beneficio real; un punto importante dentro de la ley es que el proveedor del modelo también sería responsable si un socio lo usa de forma inapropiada, lo cual es una exigencia muy complicada para el open source; por ejemplo, se anima a los proveedores de GPAI a establecer mecanismos razonables para prevenir infracciones de copyright, y también a dejar por contrato que los socios deben cumplir esas medidas; para más detalles, ver el análisis de Latham & Watkins

    • Al leer la cita, se puede entender el contexto de por qué la UE incluyó una excepción que permite usar materiales protegidos por copyright como datos de entrenamiento sin licencia; aunque su implementación sea difícil, me parece que intenta un equilibrio bastante elegante

    • Me parece un estándar razonable; incluso en modelos de IA open source se podría incluir en la licencia que se tomen medidas adecuadas para evitar generar repetidamente resultados idénticos o muy similares a contenido protegido por copyright; esto es derecho europeo, no derecho estadounidense, y el concepto de “razonable (reasonable)” lo interpretan los jueces ponderando los intereses de ambas partes, así que no se decide solo por interpretación literal

    • Es frustrante ver que se regule tan apresuradamente una industria naciente cuando nadie sabe cómo va a evolucionar el mercado

    • No me parece excesivo este estándar si lo que se busca es impedir la distribución de modelos capaces de reproducir tal cual numerosas obras con copyright; eso tampoco se permitiría en software común y corriente, así que no debería haber una excepción solo porque se trate de un modelo de IA

    • La parte sobre que el proveedor del modelo sea responsable incluso del mal uso por parte de socios no aparece en el texto legal real[0], sino en el capítulo de copyright del Code of Practice; aun así, este Code no impone requisitos adicionales a la ley, sino que muestra ejemplos de ‘cómo’ podría cumplirse; por ejemplo, la ley exige respetar el opt-out legible por máquina, pero no dice cómo, y el código pone como ejemplo el uso de robots.txt; el contenido sobre copyright está especificado en la measure 1.4: a) tomar medidas técnicas para que el modelo no reproduzca contenido infractor de copyright, b) dejar claro en los términos de uso o en la documentación que no se permite el uso para infringir copyright; en el caso de modelos open source, basta con indicarlo en la documentación; este Code of Practice solo aplica si se firma voluntariamente, y no porque alguien tome mi modelo y lo firme nace una responsabilidad para mí; sería como publicar un plugin de Photoshop bajo GPL y pretender obligar a publicar el código fuente de Photoshop; la ley sí tiene varias excepciones para open source; parece que Meta protesta porque la EU AI Office no reconoce Meta AI como open source, así que no puede acogerse a esas excepciones; para más detalle, ver el enlace a la ley y el enlace al Code of Practice

  • Admito que la sola reacción de Meta me predispone a pensar que esta ley de IA probablemente contiene justo lo que realmente necesitamos, aunque en realidad no sepa bien qué incluye

    • El “AI Code of Practice” consta de 3 capítulos y puede revisarse aquí y en el historial del borrador; todavía no he leído el texto completo y solo conozco mejor la ley de IA anterior (artificialintelligenceact.eu); supongo que Meta objetará sobre todo el capítulo 2, el relacionado con copyright, especialmente por su choque con la práctica de rastrear material con copyright sin permiso; todavía no está claro si eso realmente cae dentro del ‘fair use’

    • Que una empresa sea ‘malvada’ no significa necesariamente que su argumento esté equivocado

  • Para quien tenga curiosidad por un resumen de la guía, se puede ver aquí; sin duda es una regulación pesada; al verla, parece favorecer sobre todo a grandes titulares de copyright, abogados y burócratas

    • Este tipo de regulaciones puede terminar siendo una trampa para las empresas europeas; una vez que superan cierto tamaño, la carga regulatoria aumenta de golpe, así que para las empresas europeas pequeñas o emergentes de IA da miedo cruzar ese umbral de crecimiento; mientras tanto, las big tech de EE. UU. y China pueden innovar mucho más rápido, elevar el nivel de su IA y aumentar su capital, y al final podrían entrar al mercado de la UE con productos bien pulidos y mucho financiamiento, inclinando la competencia claramente a su favor

    • Europa nunca ha desarrollado una industria de IA y aun así intenta regular con exceso de detalle a todo el sector; es regulación por la regulación misma; esperaba un punto de inflexión tras el informe de competitividad de la UE de Draghi, pero me decepciona que la UE no haya cambiado nada de rumbo; me hace perder confianza en la política de la UE

    • Dijiste que es ‘pesada’, pero me gustaría saber en concreto qué es lo que la hace tan pesada

  • A veces las normas de la UE han tenido el poder de imponer su cumplimiento al resto del mundo, como pasó con las políticas de cookies; por lo general, para que una minoría imponga exigencias a la mayoría, el costo de cumplir tiene que ser menor que el costo de resistirse; pero la IA es distinta, el juego es demasiado grande y nadie va a detenerse; la IA, salvo una guerra nuclear, no se va a poder frenar

    • Los riesgos potenciales de la IA son enormes, desde armas automatizadas hasta una AGI maliciosa; en Alemania aún queda el trauma de las ametralladoras automáticas de la división entre Alemania Oriental y Occidental, y Ucrania también está sufriendo un fuerte impacto psicológico por la guerra de drones; los riesgos reales de la IA son claros, así que la regulación y las leyes son indispensables

    • El resultado de la ley de cookies es solo que la gente vive acosada por popups interminables; sin uBlock, usar la web ya es un sufrimiento; el rastreo de usuarios se movió al lado del servidor y la protección real de la privacidad no mejoró; circula demasiado dinero, así que la industria esquiva con facilidad este tipo de regulaciones mal hechas

  • Me sorprendió ver tantos comentarios apoyando sin cuestionar la regulación europea; me pregunto si soy la única persona que ve que, en esencia, las regulaciones europeas suelen ser excesivas y mal diseñadas

    • Europa nunca ha impulsado políticas que realmente rompan el monopolio de las big tech estadounidenses; la mayoría de usuarios en la UE sigue dependiendo de Google, Meta y Amazon; el objetivo de la UE no parece ser enfrentar directamente a las empresas de EE. UU., sino mantener formas y proteger algunos intereses de seguridad nacional; es una postura demasiado comedida, pero en esencia racional

    • Si es para proteger a los ciudadanos, no veo qué tendría de malo que la regulación sea estricta

    • Calificar algo de ‘ciego’ supone que tú tienes razón y que los demás decidieron así por ignorancia; como tú mismo dijiste que ‘asumes en esencia’ eso, en el fondo es casi una autocrítica

    • En realidad, parece que ha habido demasiada intervención de opiniones externas empeñadas en frenar a Europa

    • El problema es justamente eso de “asumir en esencia”; mejor no asumir de entrada, leer el contenido relevante y formarse una opinión propia; propongo que cada quien tenga una opinión más allá de la de las grandes multinacionales transnacionales

  • Me inquieta que la UE termine poniéndole a los LLMs popups como a todos los sitios web

    • Internet siempre ha estado lleno de popups y patrones de UX diseñados para captar atención, así que me parece extraño que lo único que se critique sea el popup que al menos le da al usuario la oportunidad de elegir directamente no ser rastreado

    • Quien hizo obligatorios los popups no fue la UE, sino las empresas; si los sitios web redujeran por sí mismos la recopilación de datos o la evitaran por completo, ni siquiera harían falta popups, pero prefirieron sacrificar la usabilidad e introducir popups inútiles; por eso terminamos en este caos; de hecho, los sitios que no recopilan nada (por ejemplo, el blog de Fabien Sanglard) no tienen ningún popup; el error de la UE fue no prever este tipo de abuso, aunque el resultado sí ha sido muy malo

    • Se puede hacer perfectamente sin popups, pero todos están demasiado ocupados copiando a las grandes empresas; copiar va primero, la experiencia de uso después

    • Odio esos popups; que esta situación siga abandonada demuestra lo lentos que son los responsables

  • Supongo que el objetivo será frenar el crecimiento de Meta; al ver la publicación de LinkedIn, Meta dice que en realidad le preocupa el freno al crecimiento de las empresas europeas; afirma que “este tipo de regulación excesiva obstaculiza el desarrollo y despliegue de modelos frontier de IA en Europa, y también desalienta a las empresas europeas que quieren construir negocios sobre ellos”

    • Cuando Meta dice que “comparte las preocupaciones con otras empresas”, lo que realmente significa es solo que está usando en ese momento el argumento que más le conviene para hacer PR; en realidad no le importa en absoluto el interés público ni el de otras empresas, solo recopilar más datos y vender más publicidad

    • Al revisar por encima el Code of Practice real, no hay nada especialmente excesivo ni que parezca un ‘abuso excesivo de poder’; al final, lo que se pide es que los proveedores de modelos actúen con transparencia, y eso simplemente choca con la forma habitual de operar de Meta

  • En la publicación de LinkedIn de Kaplan no se menciona en absoluto qué parte de la política es problemática; incluso “frenar el crecimiento” podría referirse en la práctica a algo tan modesto como exigir opt-in para introducir funciones nuevas

    • Siento que este pretexto aparece siempre ante cualquier regulación
  • El entorno global está cada vez más dividido, y creo que Meta ha contribuido a amplificar el descontento y el conflicto; algún día me gustaría ir a Europa y usar libremente LLMs open source

  • Ojalá esta discusión no termine concluyendo que “si hay regulación, el desarrollo de la IA se detiene”; también hay que dar suficiente valor a la protección del copyright y al origen de la información