2 puntos por GN⁺ 2026-02-07 | 1 comentarios | Compartir por WhatsApp
  • En la legislatura del estado de Nueva York se presentó un proyecto de ley que exige colocar advertencias en el contenido noticioso generado por IA y obliga a una revisión humana
  • El proyecto se llama ‘NY FAIR News Act (New York Fundamental Artificial Intelligence Requirements in News Act)’ y busca promover la transparencia en la industria de las noticias y proteger el periodismo
  • Entre sus disposiciones principales se incluyen divulgación del uso de IA, revisión por parte de editores y medidas de protección de información confidencial
  • El proyecto señala como problema la posibilidad de falsedad o plagio en contenido generado por IA e incluye también disposiciones de protección laboral, como la prohibición de despidos o recortes salariales a trabajadores de prensa
  • Recibe el apoyo de importantes sindicatos del sector, como WGA-East, SAG-AFTRA, DGA y NewsGuild of New York, y destaca como una respuesta al deterioro de la confianza y a la amenaza al empleo derivadas de la adopción de IA

Resumen de la NY FAIR News Act

  • La NY FAIR News Act, presentada conjuntamente por la senadora estatal de Nueva York Patricia Fahy y la asambleísta Nily Rozic, exige que las organizaciones de noticias identifiquen claramente el contenido generado con IA
    • El contenido “sustancialmente redactado usando inteligencia artificial generativa” debe incluir una advertencia (disclaimer)
    • Se aplica a todas las formas de contenido noticioso, no solo artículos, sino también audio, imágenes y material visual
  • Todo contenido generado por IA debe pasar por una revisión previa de un empleado humano con control editorial
  • Incluso dentro de la redacción, se debe revelar a periodistas y otros integrantes si se usa IA y de qué manera

Principales regulaciones del proyecto

  • Incluye múltiples disposiciones centradas en reforzar la transparencia de la IA
    • Obligación de establecer salvaguardas para proteger información confidencial a la que la IA pueda acceder (en especial, información relacionada con las fuentes)
    • Incluye una cláusula de excepción de protección de copyright: quedan excluidos los casos en que la ley de copyright reconozca autoría humana
  • También señala explícitamente los problemas de confiabilidad del contenido generado por IA
    • Los legisladores argumentan que el contenido de IA “puede ser falso o engañoso” y presentar “posibilidad de citas no autorizadas o plagio

Reacción del sector periodístico y los sindicatos

  • El proyecto recibe amplio apoyo de los principales sindicatos del sector de noticias
    • Participan WGA-East, SAG-AFTRA, DGA y NewsGuild of New York
    • La portavoz de NewsGuild, Jennifer Sheehan, confirmó que el sindicato está debatiendo el impacto de la adopción de IA y la protección del empleo
  • En diciembre de 2025, NewsGuild lanzó la campaña ‘News Not Slop’ para exigir salvaguardas sobre el uso de IA en las redacciones
    • En la ciudad de Nueva York, el sindicato de Business Insider realizó una protesta contra artículos publicados con una firma de IA (byline)

Disposiciones de protección del periodismo y derechos laborales

  • El proyecto incluye disposiciones que prohíben despidos, reducción de tareas o recortes de salario y beneficios por la adopción de IA
    • Esto representa un intento de convertir en ley cláusulas que en años recientes se habían incorporado en contratos sindicales de redacciones individuales
  • La senadora Fahy afirmó que “la IA puede amenazar al periodismo y la confianza pública” y mencionó que el 76% de los estadounidenses expresó preocupación por la posibilidad de que la IA robe o reproduzca contenido noticioso

Contexto y significado

  • Nueva York, como centro de la industria periodística en Estados Unidos, busca reforzar al mismo tiempo la confiabilidad del periodismo y la protección de los trabajadores
  • Este proyecto es considerado un primer intento de legislación a nivel estatal que abarca de forma integral transparencia de IA, copyright y derechos laborales

1 comentarios

 
GN⁺ 2026-02-07
Opiniones en Hacker News
  • Sorprende que últimamente casi no se hable de noticias sobre legislación relacionada con IA
    Solo en el estado de Nueva York ya existen varias propuestas y normas, como RAISE (protocolos de seguridad para IA de frontera, supervisión y reporte de incidentes), S8420A (obligación de divulgar personajes generados por IA en publicidad), GBL Article 47 (detección de crisis y avisos en chatbots de IA), S7676B (protección del derecho de imagen de los actores frente a la IA), NYC LL144 (monitoreo de sesgo en herramientas de contratación con IA), y SAFE for Kids Act, que limita los feeds algorítmicos para menores (aún pendiente)
    Incluso si una app solo da servicio a usuarios de Nueva York, al menos tres de estas podrían aplicarle
    El sistema legal estatal en EE. UU. parece un campo minado aún más complejo que la regulación de la UE

    • Mucha gente cree que estas leyes en realidad no se van a hacer cumplir
      Pero yo más bien creo que terminarán aplicándose de forma que castigue en exceso a los desarrolladores honestos
    • Ojalá leyes como SAFE for Kids Act se amplíen para exigir un interruptor para desactivar el feed algorítmico a todos los usuarios
      No solo por proteger a menores, sino porque permitir que el usuario elija ayudaría a recuperar la confianza
    • Al final, creo que el uso de IA en contratación probablemente termine prohibiéndose por completo
      Los sistemas no deterministas no pueden auditarse de forma total
    • Poner avisos en publicaciones es un reto legal mayor porque toca el tema de la libertad de expresión
      En cambio, podría ser más realista que sindicatos o gremios periodísticos indiquen voluntariamente si se usó IA
    • Que EE. UU. se burle de la regulación europea es una forma de autojustificación
      En la práctica están atados a un sistema legal centrado en las grandes corporaciones, pero aun así se creen superiores
  • Creo que hace falta etiquetar el “reporte original”
    La mayoría de las noticias son información reprocesada y por eso la IA puede reemplazarlas, pero el trabajo del periodista que investiga directamente no tiene sustituto
    Todos los artículos deberían indicar sus fuentes, y si la IA inventa enlaces incorrectos, eso ya es una gran señal de alerta

    • Mi sitio Forty.news cubre noticias de hace 40 años, y aun así con frecuencia me dicen que “hacen falta fuentes”
      Lo irónico es que a los grandes medios se les confía incluso con fuentes superficiales
    • Colorado Sun pone una etiqueta de tipo de cobertura en cada artículo
      Esto viene influido por el antiguo proyecto Civil
    • Así como queremos saber el origen de los alimentos, también importa la transparencia sobre el origen de la información
      Aunque habría que hacer una excepción para proteger las fuentes anónimas de los periodistas
    • Ya existen etiquetas como “exclusive!”, pero eso no equivale a una verdadera indicación de procedencia
  • Las noticias generadas por IA deben pasar obligatoriamente por una revisión de un editor humano
    La organización debe asumir la responsabilidad por los resultados de la IA, y no debería bastar con un simple aviso de exención
    Hay que evitar que esto se convierta en un show de compliance meramente formal, como pasa con algunas certificaciones de seguridad
    Si una noticia errónea generada por IA causa daños, el medio debería responder por ello

    • Pero al mismo tiempo, ni siquiera el presidente asume responsabilidad cuando difunde videos manipulados con IA
      Primero habría que exigir responsabilidad desde arriba
  • Idealmente, debería ser ilegal hacer pasar contenido generado por IA como si fuera creación humana

    • Pero si se le pone advertencia a todo, existe el riesgo de que se vuelva inútil, como la Prop 65
      Cuando se abusa de las advertencias, la gente termina ignorando la señal
      Solo si se limita a artículos de noticias se puede mantener la credibilidad del aviso
    • La definición de “generado por IA” es ambigua
      Hasta la cámara del smartphone o Photoshop usan IA
    • También es difícil distinguir entre el trabajo descuidado de un humano y contenido generado por IA
    • Publicar no es simplemente escribir: incluye investigación, edición, revisión y muchas otras etapas
      La IA puede intervenir en cada una de ellas
    • Al final, el punto clave es dónde trazar la línea entre asistido por IA vs. generado por IA
  • Me preocupa que esto termine como la Prop 65, con todo el contenido llevando una advertencia de “se usó IA”
    Una frase ambigua como “la mayoría involucró IA” sería un paraíso para los abogados
    Ver wiki de Prop 65

    • Aun así, eso podría permitir filtrar contenido no generado con IA
    • Pero como pasa con la mayoría de las advertencias obligatorias, es muy probable que se vuelva formal y sin sentido
    • Incluso podría ocurrir que “No AI!” se convierta en una opción premium para gente adinerada
      Hasta la edición o corrección podrían considerarse “autoría sustancial”
    • Por otro lado, también hay estudios que dicen que la Prop 65 sí redujo el uso de químicos por parte de las empresas
      Según este artículo de Washington Post, el 78% de los fabricantes reformuló sus ingredientes
  • Empecé en la W3C un grupo de trabajo para estandarizar la divulgación de contenido con IA
    Estamos creando un estándar para que los sitios web puedan divulgar voluntariamente el grado de intervención de la IA
    Ver la página de W3C y el repositorio en GitHub

    • Hubo una pregunta sobre cómo participar
  • Nueva York quiere que las impresoras 3D detecten cuando imprimen piezas de armas
    Pero este tipo de regulación al final será un sistema que solo cumplirán los usuarios de buena fe
    No existe una forma de detectar perfectamente si algo fue generado por IA, y una solución más realista sería educación y mayor concientización

  • Al final, parece que todos los sitios web terminarán poniendo un texto del tipo “este sitio puede incluir contenido con IA según los criterios del estado de Nueva York”

    • Incluso surgió la broma de que mejor de una vez lo hagan así de verdad
  • Si los medios les ponen advertencias a todos sus contenidos, la advertencia pierde valor
    Si el regulador prohíbe eso, los medios incluso podrían terminar usando IA en todo
    A esto me gustaría llamarlo el “efecto Sesame”

    • Yo, como periodista de datos, uso IA en algunas partes, pero siempre lo reveo en la sección de metodología
      No confío en medios que ponen una advertencia genérica en todos los artículos
    • En cambio, los medios que realmente verifican con intervención humana podrían esperar un aumento de suscriptores
    • También es posible una estrategia de diferenciación del tipo “todo nuestro contenido fue verificado por humanos”
  • Toda esta discusión en el fondo trata del problema de una cultura que confía ciegamente en los resultados de la IA
    Las advertencias son solo una medida temporal; lo que hace falta es responsabilidad en la propia estructura de toma de decisiones
    Estamos experimentando con un sistema basado en consenso en el que varios agentes de IA independientes votan y se verifican entre sí
    Se puede probar en el CLI open source consensus.tools

    • Pero la mayoría de los creadores de contenido prioriza la velocidad y la reducción de costos por encima de la precisión
      En una realidad saturada de contenido de baja calidad, un sistema de consenso es demasiado costoso para aplicarlo ampliamente
      Por eso, una obligación mínima de advertencia sigue siendo necesaria