- Meta Platforms anunció oficialmente que no firmará el Código de Prácticas de IA de la Unión Europea (UE)
- Joel Kaplan, director global de políticas de Meta, enfatizó que el código constituye una regulación excesiva que frena la innovación y el crecimiento
- El código busca ofrecer lineamientos de transparencia y seguridad para cumplir con la AI Act (promulgada en 2024)
- La Comisión Europea publicó la semana pasada la versión final del código de prácticas para modelos de IA de propósito general, y cada empresa puede decidir voluntariamente si lo firma o no
- Además de Meta, empresas como ASML y Airbus participaron en una carta que pedía retrasar su implementación, mientras que OpenAI expresó su intención de sumarse al código
Motivos detrás del rechazo de Meta al código europeo de prácticas de IA
- Meta Platforms anunció oficialmente que decidió no firmar el código de prácticas de inteligencia artificial de la Unión Europea
- Su director global de políticas, Joel Kaplan, afirmó que "Europa va por el camino equivocado en relación con la IA"
- Kaplan sostuvo que el código genera incertidumbre legal para los desarrolladores de modelos e introduce medidas excesivas que van más allá del alcance de la AI Act
- Este código de prácticas busca concretar los requisitos de transparencia y seguridad de la AI Act, aprobada el año pasado, y está previsto que entre en vigor el próximo mes
Resumen del código europeo de prácticas de IA
- La Comisión Europea publicó la versión final del código de prácticas para modelos de IA de propósito general
- Cada empresa puede decidir voluntariamente si firma o no el código
- El objetivo del código es proporcionar un marco para cumplir con la AI Act y garantizar la transparencia y seguridad de la tecnología de IA
Reacción de la industria y temas clave
- Kaplan, de Meta, criticó que "este código está regulado de manera excesiva y será un obstáculo grave para el desarrollo de modelos de IA y el crecimiento de los negocios en Europa"
- Algunas grandes empresas, como ASML y Airbus, firmaron una carta en la que pedían retrasar su implementación por dos años, mostrando una postura crítica
- En cambio, OpenAI expresó oficialmente su intención de participar en el código europeo de prácticas
Cambio en la dirección global de políticas de Meta
- Joel Kaplan fue nombrado director global de políticas de Meta a inicios de 2025
- Anteriormente fue vicepresidente de políticas públicas de Facebook en Estados Unidos y trabajó en la administración de George W. Bush
2 comentarios
La explicación de Latham & Watkins sobre el primer borrador de la EU AI Act mencionada en el comentario de Hacker News de abajo
European Commission Releases First Draft of General-Purpose AI Code of Practice
Contenido principal del borrador de la EU AI Act
Transparencia
Cumplimiento de derechos de autor
Text and Data Mining (TDM)
Transparencia en el cumplimiento de derechos de autor
Clasificación de riesgo sistémico
Marco de gestión de riesgo sistémico
Opiniones en Hacker News
No solo Meta: 40 empresas europeas también pidieron a la UE un aplazamiento de 2 años porque la aplicación de la Ley de IA no está clara; este code of practice es un estándar voluntario y es más amplio que la ley real; la UE sugirió que participar voluntariamente en este estándar podría implicar menos regulación, pero Meta piensa que, como de todos modos será objeto de regulación en todos los frentes, este consentimiento voluntario le aporta poco beneficio real; un punto importante dentro de la ley es que el proveedor del modelo también sería responsable si un socio lo usa de forma inapropiada, lo cual es una exigencia muy complicada para el open source; por ejemplo, se anima a los proveedores de GPAI a establecer mecanismos razonables para prevenir infracciones de copyright, y también a dejar por contrato que los socios deben cumplir esas medidas; para más detalles, ver el análisis de Latham & Watkins
Al leer la cita, se puede entender el contexto de por qué la UE incluyó una excepción que permite usar materiales protegidos por copyright como datos de entrenamiento sin licencia; aunque su implementación sea difícil, me parece que intenta un equilibrio bastante elegante
Me parece un estándar razonable; incluso en modelos de IA open source se podría incluir en la licencia que se tomen medidas adecuadas para evitar generar repetidamente resultados idénticos o muy similares a contenido protegido por copyright; esto es derecho europeo, no derecho estadounidense, y el concepto de “razonable (reasonable)” lo interpretan los jueces ponderando los intereses de ambas partes, así que no se decide solo por interpretación literal
Es frustrante ver que se regule tan apresuradamente una industria naciente cuando nadie sabe cómo va a evolucionar el mercado
No me parece excesivo este estándar si lo que se busca es impedir la distribución de modelos capaces de reproducir tal cual numerosas obras con copyright; eso tampoco se permitiría en software común y corriente, así que no debería haber una excepción solo porque se trate de un modelo de IA
La parte sobre que el proveedor del modelo sea responsable incluso del mal uso por parte de socios no aparece en el texto legal real[0], sino en el capítulo de copyright del Code of Practice; aun así, este Code no impone requisitos adicionales a la ley, sino que muestra ejemplos de ‘cómo’ podría cumplirse; por ejemplo, la ley exige respetar el opt-out legible por máquina, pero no dice cómo, y el código pone como ejemplo el uso de
robots.txt; el contenido sobre copyright está especificado en la measure 1.4: a) tomar medidas técnicas para que el modelo no reproduzca contenido infractor de copyright, b) dejar claro en los términos de uso o en la documentación que no se permite el uso para infringir copyright; en el caso de modelos open source, basta con indicarlo en la documentación; este Code of Practice solo aplica si se firma voluntariamente, y no porque alguien tome mi modelo y lo firme nace una responsabilidad para mí; sería como publicar un plugin de Photoshop bajo GPL y pretender obligar a publicar el código fuente de Photoshop; la ley sí tiene varias excepciones para open source; parece que Meta protesta porque la EU AI Office no reconoce Meta AI como open source, así que no puede acogerse a esas excepciones; para más detalle, ver el enlace a la ley y el enlace al Code of PracticeAdmito que la sola reacción de Meta me predispone a pensar que esta ley de IA probablemente contiene justo lo que realmente necesitamos, aunque en realidad no sepa bien qué incluye
El “AI Code of Practice” consta de 3 capítulos y puede revisarse aquí y en el historial del borrador; todavía no he leído el texto completo y solo conozco mejor la ley de IA anterior (artificialintelligenceact.eu); supongo que Meta objetará sobre todo el capítulo 2, el relacionado con copyright, especialmente por su choque con la práctica de rastrear material con copyright sin permiso; todavía no está claro si eso realmente cae dentro del ‘fair use’
Que una empresa sea ‘malvada’ no significa necesariamente que su argumento esté equivocado
Para quien tenga curiosidad por un resumen de la guía, se puede ver aquí; sin duda es una regulación pesada; al verla, parece favorecer sobre todo a grandes titulares de copyright, abogados y burócratas
Este tipo de regulaciones puede terminar siendo una trampa para las empresas europeas; una vez que superan cierto tamaño, la carga regulatoria aumenta de golpe, así que para las empresas europeas pequeñas o emergentes de IA da miedo cruzar ese umbral de crecimiento; mientras tanto, las big tech de EE. UU. y China pueden innovar mucho más rápido, elevar el nivel de su IA y aumentar su capital, y al final podrían entrar al mercado de la UE con productos bien pulidos y mucho financiamiento, inclinando la competencia claramente a su favor
Europa nunca ha desarrollado una industria de IA y aun así intenta regular con exceso de detalle a todo el sector; es regulación por la regulación misma; esperaba un punto de inflexión tras el informe de competitividad de la UE de Draghi, pero me decepciona que la UE no haya cambiado nada de rumbo; me hace perder confianza en la política de la UE
Dijiste que es ‘pesada’, pero me gustaría saber en concreto qué es lo que la hace tan pesada
A veces las normas de la UE han tenido el poder de imponer su cumplimiento al resto del mundo, como pasó con las políticas de cookies; por lo general, para que una minoría imponga exigencias a la mayoría, el costo de cumplir tiene que ser menor que el costo de resistirse; pero la IA es distinta, el juego es demasiado grande y nadie va a detenerse; la IA, salvo una guerra nuclear, no se va a poder frenar
Los riesgos potenciales de la IA son enormes, desde armas automatizadas hasta una AGI maliciosa; en Alemania aún queda el trauma de las ametralladoras automáticas de la división entre Alemania Oriental y Occidental, y Ucrania también está sufriendo un fuerte impacto psicológico por la guerra de drones; los riesgos reales de la IA son claros, así que la regulación y las leyes son indispensables
El resultado de la ley de cookies es solo que la gente vive acosada por popups interminables; sin uBlock, usar la web ya es un sufrimiento; el rastreo de usuarios se movió al lado del servidor y la protección real de la privacidad no mejoró; circula demasiado dinero, así que la industria esquiva con facilidad este tipo de regulaciones mal hechas
Me sorprendió ver tantos comentarios apoyando sin cuestionar la regulación europea; me pregunto si soy la única persona que ve que, en esencia, las regulaciones europeas suelen ser excesivas y mal diseñadas
Europa nunca ha impulsado políticas que realmente rompan el monopolio de las big tech estadounidenses; la mayoría de usuarios en la UE sigue dependiendo de Google, Meta y Amazon; el objetivo de la UE no parece ser enfrentar directamente a las empresas de EE. UU., sino mantener formas y proteger algunos intereses de seguridad nacional; es una postura demasiado comedida, pero en esencia racional
Si es para proteger a los ciudadanos, no veo qué tendría de malo que la regulación sea estricta
Calificar algo de ‘ciego’ supone que tú tienes razón y que los demás decidieron así por ignorancia; como tú mismo dijiste que ‘asumes en esencia’ eso, en el fondo es casi una autocrítica
En realidad, parece que ha habido demasiada intervención de opiniones externas empeñadas en frenar a Europa
El problema es justamente eso de “asumir en esencia”; mejor no asumir de entrada, leer el contenido relevante y formarse una opinión propia; propongo que cada quien tenga una opinión más allá de la de las grandes multinacionales transnacionales
Me inquieta que la UE termine poniéndole a los LLMs popups como a todos los sitios web
Internet siempre ha estado lleno de popups y patrones de UX diseñados para captar atención, así que me parece extraño que lo único que se critique sea el popup que al menos le da al usuario la oportunidad de elegir directamente no ser rastreado
Quien hizo obligatorios los popups no fue la UE, sino las empresas; si los sitios web redujeran por sí mismos la recopilación de datos o la evitaran por completo, ni siquiera harían falta popups, pero prefirieron sacrificar la usabilidad e introducir popups inútiles; por eso terminamos en este caos; de hecho, los sitios que no recopilan nada (por ejemplo, el blog de Fabien Sanglard) no tienen ningún popup; el error de la UE fue no prever este tipo de abuso, aunque el resultado sí ha sido muy malo
Se puede hacer perfectamente sin popups, pero todos están demasiado ocupados copiando a las grandes empresas; copiar va primero, la experiencia de uso después
Odio esos popups; que esta situación siga abandonada demuestra lo lentos que son los responsables
Supongo que el objetivo será frenar el crecimiento de Meta; al ver la publicación de LinkedIn, Meta dice que en realidad le preocupa el freno al crecimiento de las empresas europeas; afirma que “este tipo de regulación excesiva obstaculiza el desarrollo y despliegue de modelos frontier de IA en Europa, y también desalienta a las empresas europeas que quieren construir negocios sobre ellos”
Cuando Meta dice que “comparte las preocupaciones con otras empresas”, lo que realmente significa es solo que está usando en ese momento el argumento que más le conviene para hacer PR; en realidad no le importa en absoluto el interés público ni el de otras empresas, solo recopilar más datos y vender más publicidad
Al revisar por encima el Code of Practice real, no hay nada especialmente excesivo ni que parezca un ‘abuso excesivo de poder’; al final, lo que se pide es que los proveedores de modelos actúen con transparencia, y eso simplemente choca con la forma habitual de operar de Meta
En la publicación de LinkedIn de Kaplan no se menciona en absoluto qué parte de la política es problemática; incluso “frenar el crecimiento” podría referirse en la práctica a algo tan modesto como exigir
opt-inpara introducir funciones nuevasEl entorno global está cada vez más dividido, y creo que Meta ha contribuido a amplificar el descontento y el conflicto; algún día me gustaría ir a Europa y usar libremente LLMs open source
Ojalá esta discusión no termine concluyendo que “si hay regulación, el desarrollo de la IA se detiene”; también hay que dar suficiente valor a la protección del copyright y al origen de la información