- En la legislatura del estado de Nueva York se presentó un proyecto de ley que exige colocar advertencias en el contenido noticioso generado por IA y obliga a una revisión humana
- El proyecto se llama ‘NY FAIR News Act (New York Fundamental Artificial Intelligence Requirements in News Act)’ y busca promover la transparencia en la industria de las noticias y proteger el periodismo
- Entre sus disposiciones principales se incluyen divulgación del uso de IA, revisión por parte de editores y medidas de protección de información confidencial
- El proyecto señala como problema la posibilidad de falsedad o plagio en contenido generado por IA e incluye también disposiciones de protección laboral, como la prohibición de despidos o recortes salariales a trabajadores de prensa
- Recibe el apoyo de importantes sindicatos del sector, como WGA-East, SAG-AFTRA, DGA y NewsGuild of New York, y destaca como una respuesta al deterioro de la confianza y a la amenaza al empleo derivadas de la adopción de IA
Resumen de la NY FAIR News Act
- La NY FAIR News Act, presentada conjuntamente por la senadora estatal de Nueva York Patricia Fahy y la asambleísta Nily Rozic, exige que las organizaciones de noticias identifiquen claramente el contenido generado con IA
- El contenido “sustancialmente redactado usando inteligencia artificial generativa” debe incluir una advertencia (
disclaimer)
- Se aplica a todas las formas de contenido noticioso, no solo artículos, sino también audio, imágenes y material visual
- Todo contenido generado por IA debe pasar por una revisión previa de un empleado humano con control editorial
- Incluso dentro de la redacción, se debe revelar a periodistas y otros integrantes si se usa IA y de qué manera
Principales regulaciones del proyecto
- Incluye múltiples disposiciones centradas en reforzar la transparencia de la IA
- Obligación de establecer salvaguardas para proteger información confidencial a la que la IA pueda acceder (en especial, información relacionada con las fuentes)
- Incluye una cláusula de excepción de protección de copyright: quedan excluidos los casos en que la ley de copyright reconozca autoría humana
- También señala explícitamente los problemas de confiabilidad del contenido generado por IA
- Los legisladores argumentan que el contenido de IA “puede ser falso o engañoso” y presentar “posibilidad de citas no autorizadas o plagio”
Reacción del sector periodístico y los sindicatos
- El proyecto recibe amplio apoyo de los principales sindicatos del sector de noticias
- Participan WGA-East, SAG-AFTRA, DGA y NewsGuild of New York
- La portavoz de NewsGuild, Jennifer Sheehan, confirmó que el sindicato está debatiendo el impacto de la adopción de IA y la protección del empleo
- En diciembre de 2025, NewsGuild lanzó la campaña ‘News Not Slop’ para exigir salvaguardas sobre el uso de IA en las redacciones
- En la ciudad de Nueva York, el sindicato de Business Insider realizó una protesta contra artículos publicados con una firma de IA (
byline)
Disposiciones de protección del periodismo y derechos laborales
- El proyecto incluye disposiciones que prohíben despidos, reducción de tareas o recortes de salario y beneficios por la adopción de IA
- Esto representa un intento de convertir en ley cláusulas que en años recientes se habían incorporado en contratos sindicales de redacciones individuales
- La senadora Fahy afirmó que “la IA puede amenazar al periodismo y la confianza pública” y mencionó que el 76% de los estadounidenses expresó preocupación por la posibilidad de que la IA robe o reproduzca contenido noticioso
Contexto y significado
- Nueva York, como centro de la industria periodística en Estados Unidos, busca reforzar al mismo tiempo la confiabilidad del periodismo y la protección de los trabajadores
- Este proyecto es considerado un primer intento de legislación a nivel estatal que abarca de forma integral transparencia de IA, copyright y derechos laborales
1 comentarios
Opiniones en Hacker News
Sorprende que últimamente casi no se hable de noticias sobre legislación relacionada con IA
Solo en el estado de Nueva York ya existen varias propuestas y normas, como RAISE (protocolos de seguridad para IA de frontera, supervisión y reporte de incidentes), S8420A (obligación de divulgar personajes generados por IA en publicidad), GBL Article 47 (detección de crisis y avisos en chatbots de IA), S7676B (protección del derecho de imagen de los actores frente a la IA), NYC LL144 (monitoreo de sesgo en herramientas de contratación con IA), y SAFE for Kids Act, que limita los feeds algorítmicos para menores (aún pendiente)
Incluso si una app solo da servicio a usuarios de Nueva York, al menos tres de estas podrían aplicarle
El sistema legal estatal en EE. UU. parece un campo minado aún más complejo que la regulación de la UE
Pero yo más bien creo que terminarán aplicándose de forma que castigue en exceso a los desarrolladores honestos
No solo por proteger a menores, sino porque permitir que el usuario elija ayudaría a recuperar la confianza
Los sistemas no deterministas no pueden auditarse de forma total
En cambio, podría ser más realista que sindicatos o gremios periodísticos indiquen voluntariamente si se usó IA
En la práctica están atados a un sistema legal centrado en las grandes corporaciones, pero aun así se creen superiores
Creo que hace falta etiquetar el “reporte original”
La mayoría de las noticias son información reprocesada y por eso la IA puede reemplazarlas, pero el trabajo del periodista que investiga directamente no tiene sustituto
Todos los artículos deberían indicar sus fuentes, y si la IA inventa enlaces incorrectos, eso ya es una gran señal de alerta
Lo irónico es que a los grandes medios se les confía incluso con fuentes superficiales
Esto viene influido por el antiguo proyecto Civil
Aunque habría que hacer una excepción para proteger las fuentes anónimas de los periodistas
Las noticias generadas por IA deben pasar obligatoriamente por una revisión de un editor humano
La organización debe asumir la responsabilidad por los resultados de la IA, y no debería bastar con un simple aviso de exención
Hay que evitar que esto se convierta en un show de compliance meramente formal, como pasa con algunas certificaciones de seguridad
Si una noticia errónea generada por IA causa daños, el medio debería responder por ello
Primero habría que exigir responsabilidad desde arriba
Idealmente, debería ser ilegal hacer pasar contenido generado por IA como si fuera creación humana
Cuando se abusa de las advertencias, la gente termina ignorando la señal
Solo si se limita a artículos de noticias se puede mantener la credibilidad del aviso
Hasta la cámara del smartphone o Photoshop usan IA
La IA puede intervenir en cada una de ellas
Me preocupa que esto termine como la Prop 65, con todo el contenido llevando una advertencia de “se usó IA”
Una frase ambigua como “la mayoría involucró IA” sería un paraíso para los abogados
Ver wiki de Prop 65
Hasta la edición o corrección podrían considerarse “autoría sustancial”
Según este artículo de Washington Post, el 78% de los fabricantes reformuló sus ingredientes
Empecé en la W3C un grupo de trabajo para estandarizar la divulgación de contenido con IA
Estamos creando un estándar para que los sitios web puedan divulgar voluntariamente el grado de intervención de la IA
Ver la página de W3C y el repositorio en GitHub
Nueva York quiere que las impresoras 3D detecten cuando imprimen piezas de armas
Pero este tipo de regulación al final será un sistema que solo cumplirán los usuarios de buena fe
No existe una forma de detectar perfectamente si algo fue generado por IA, y una solución más realista sería educación y mayor concientización
Al final, parece que todos los sitios web terminarán poniendo un texto del tipo “este sitio puede incluir contenido con IA según los criterios del estado de Nueva York”
Si los medios les ponen advertencias a todos sus contenidos, la advertencia pierde valor
Si el regulador prohíbe eso, los medios incluso podrían terminar usando IA en todo
A esto me gustaría llamarlo el “efecto Sesame”
No confío en medios que ponen una advertencia genérica en todos los artículos
Toda esta discusión en el fondo trata del problema de una cultura que confía ciegamente en los resultados de la IA
Las advertencias son solo una medida temporal; lo que hace falta es responsabilidad en la propia estructura de toma de decisiones
Estamos experimentando con un sistema basado en consenso en el que varios agentes de IA independientes votan y se verifican entre sí
Se puede probar en el CLI open source consensus.tools
En una realidad saturada de contenido de baja calidad, un sistema de consenso es demasiado costoso para aplicarlo ampliamente
Por eso, una obligación mínima de advertencia sigue siendo necesaria