1 puntos por GN⁺ 2025-09-30 | 1 comentarios | Compartir por WhatsApp
  • El gobernador de California firmó un proyecto de ley para reforzar la transparencia en IA
  • La nueva ley establece estándares de transparencia para el desarrollo y uso de sistemas de IA
  • Las empresas ahora tendrán la obligación de divulgar información sobre el proceso de toma de decisiones de la IA y sus impactos
  • El objetivo principal es la protección del consumidor y reforzar la responsabilidad frente al mal uso de la IA
  • La entrada en vigor de la ley sienta las bases para impulsar la regulación de la industria de IA y su desarrollo ético

Resumen del proyecto de ley de transparencia en IA de California

  • El gobernador de California firmó oficialmente un nuevo proyecto de ley para fortalecer la transparencia en IA
  • La ley exige que empresas e instituciones divulguen información relacionada con el proceso de toma de decisiones cuando desarrollen o utilicen sistemas de IA
  • Entre sus puntos principales, establece la obligación de explicar qué datos y criterios utilizó la IA para llegar a sus conclusiones, y cuáles son los posibles impactos del sistema
  • También incorpora mecanismos para garantizar la transparencia, de modo que los consumidores sepan cuándo están siendo afectados por decisiones algorítmicas al usar servicios o productos basados en IA
  • En última instancia, esta ley busca elevar la responsabilidad de la industria de IA, además de prevenir el mal uso de la IA y recuperar la confianza del consumidor
  • Con su implementación, se espera que California se consolide como líder en ética y regulación de la IA dentro de Estados Unidos

1 comentarios

 
GN⁺ 2025-09-30
Comentarios en Hacker News
  • Si es un problema del mundo real, me pregunto si esta ley evitaría que mi propiedad intelectual (PI) sea usada por LLM sin autorización
    • El objetivo principal de esta ley es proporcionar un marco básico para poder debatir con base en datos reales. Por eso exige que las empresas tecnológicas publiquen planes de seguridad, informes de transparencia y registros de incidentes. También por eso las multas se fijaron bajas, en 10 mil dólares. Una regulación integral de la IA es todavía demasiado prematura, y California tampoco es la autoridad que administra la ley de copyright de EE. UU.
    • Se ordena al gobierno crear un marco para desarrollar clústeres públicos de cómputo. Es muy probable que esta ley beneficie mucho a algunos contratistas del gobierno y, históricamente, creo que también podría terminar canalizando dinero a ciertas personas mediante contratos adjudicados de forma discrecional. Ver artículo relacionado: editorial de Sacramento Bee
    • Incluye disposiciones de protección para denunciantes internos. Eso podría hacer que se expongan conductas ilegales
    • Ya se puede proteger del mismo modo que con las infracciones de PI cometidas por humanos
    • Al final, esta ley resuelve el problema real de dar más dinero a los funcionarios públicos
  • Encontré un sitio web donde se pueden ver el texto real de la ley y sus anotaciones: https://sb53.info/
    • Según la definición de "modelo de inteligencia artificial", se trata de sistemas basados en máquinas con distintos niveles de autonomía que, a partir de entradas, generan salidas capaces de afectar entornos físicos o virtuales. Es decir, incluso una podadora simple podría quedar incluida, ya que existe una relación entre la entrada (acelerador, interruptor de apagado) y la salida (cuchilla giratoria). La definición de "riesgo crítico" dice que es un riesgo que podría causar la muerte o lesiones graves a 50 personas o más, o pérdidas de al menos mil millones de dólares, pero cada año hay más gente lesionada por podadoras que eso
  • Al leer el texto de la ley, da la impresión de que es un favor para la industria de la "seguridad de la IA". Se pagará muy bien la certificación de cumplimiento
    • En las Big4 hay socios boomer que se aferran a no separar las áreas de consultoría, y esta ley de IA les dará una nueva fuente de ingresos. En especial, creo que deloitte saldrá muy beneficiada esta vez
    • La persona que escribió ese comentario trabaja en una gran empresa desarrolladora de IA. Su postura contra la regulación de la IA está muy vinculada con su salario. También tiende a burlarse de la "seguridad de la IA". Muchas industrias de Silicon Valley tienen poca conciencia de cultura de seguridad. Que la regulación sea ineficiente es un problema, pero también hay que considerar los problemas que surgen cuando no hay regulación en absoluto. La corrupción interna de la industria, los sobornos y la colusión también deben señalarse
  • La ley especifica multas de 1 millón de dólares por la primera infracción intencional que cause "muerte, lesiones graves o riesgo crítico", y luego hasta 10 millones de dólares en infracciones posteriores. Si la infracción no fue intencional (por error, etc.) y aun así generó ese riesgo, no hay multa. Las multas solo tienen tope máximo, no mínimo. Es decir, 0 dólares también cumple con la cláusula de "hasta 10 millones de dólares"
  • ¿Aunque cause daños por mil millones de dólares, la multa sería solo de 10 millones? Lo mismo con daños "críticos". Yo no llamaría a eso regulación. Aunque OpenAI le pague a un ingeniero 1 millón de dólares al año, una multa de 10 mil dólares, o incluso de 1 millón o 10 millones, no tiene ningún efecto disuasivo
  • Por lo que se discute, esta ley no significa nada y al mismo tiempo sirve como motivo para geobloquear California. Hace demasiadas cosas, pero a la vez hace muy poco. Es costosa y barata a la vez. Es un ejemplo de corrupción y también el primer paso en la regulación de la IA. Las empresas de IA podrían irse de California, o podrían entrar más porque el estándar regulatorio es bajo. Si alguien conoce un enlace con una discusión realmente más profunda, me gustaría verlo
    • Creo que cualquier resultado es posible, y que dependerá de cómo el gobierno y los tribunales la interpreten y la hagan cumplir. El texto legal es tan ambiguo que podría convertirse en un martillo o no tener ningún efecto
  • Creo que esto debió haberse controlado de antemano mediante una ley federal. Pero las definiciones de esta ley son demasiado descuidadas. En especial, la definición de "modelo de inteligencia artificial" incluye en la práctica a casi todas las máquinas y algoritmos. Parece una definición hecha después de ver The Twilight Zone y querer prepararse por si algún día aparece un androide con reloj cucú
  • Tenía curiosidad por cómo California iba a definir la IA, y por ahora se acerca más a un término de marketing. Aquí la describen como un sistema no biológico que recibe entradas y genera salidas
    • Son graciosas dos reacciones a este comentario: "No existe ninguna tecnología real que encaje en esa definición" y "Entonces, ¿mi cafetera?"
    • Mi opinión es distinta de la de arriba. No existe ninguna tecnología que cumpla esa definición. La IA no puede "inferir" nada a partir de una entrada. Del mismo modo, tampoco se ha demostrado eso en humanos
    • Entonces mi cafetera también contaría, ¿no?
  • En una palabra, esto es "censura con más pasos". Si ves lo que exige la ley, las empresas deben documentar mitigación de riesgos y protocolos de seguridad, y el gobierno define qué es riesgoso mientras el sector privado construye sistemas de filtrado en consecuencia. Eso es censura previa contraria a la Primera Enmienda de EE. UU. La Corte Suprema federal ya dejó claro que solo se permite en casos de incitación directa a la violencia (precedente Brandenburg) y excepciones limitadas (pornografía infantil, amenazas reales). El hecho de que la tecnología sea nueva no debería darle al Estado derecho a crear nuevas categorías de discurso riesgoso. Si una IA proporciona información de nivel experto sobre diseño de armas o asistencia para delitos, debe reportarse al gobierno y también ofrecer mitigaciones. Hoy es "riesgo crítico", mañana puede ampliarse a "desinformación", "discurso de odio", etc. En el momento en que el Estado obliga a restringir contenido con el pretexto de la seguridad, pierde su justificación lógica
    • Ya es delito, bajo 18 USC § 842, proporcionar información para fabricar explosivos y otros usos criminales. Ahí se busca un equilibrio entre libertad de expresión y probabilidad de daño real. La IA no es sujeto de libertad de expresión, así que el Estado puede regularla. Decir que exigir a las empresas filtrar las salidas de IA es censura previa se basa en la idea de que la empresa no puede controlar el "habla" de la IA. Esa lógica no se sostiene. Un generador de frases combinadas al azar tampoco queda protegido por ser mi hosting en línea. Aplicar la lógica de libertad de expresión a la censura de IA no es apropiado
    • Los LLM no tienen derechos. Los LLM son herramientas, y el Estado puede regular herramientas. Incluso si uno simpatiza con eso, una persona podría publicar directamente instrucciones para fabricar armas en el blog de una empresa
    • "Hoy es riesgo crítico, mañana desinformación, discurso de odio, etc.", ese es el problema. A mí me preocupan más los riesgos cotidianos que los riesgos críticos. Aunque un LLM dé información dañina, al final solo resume contenido que ya está publicado en línea. La sociedad estadounidense ya está llena de discurso de odio, pero eso tampoco es un problema nuevo. Más bien, el problema es la "desinformación". Los LLM a gran escala leen internet y le añaden una apariencia de autoridad, de modo que el poder de Google o MS termina respaldando información no verificada. Sería un buen enfoque que el LLM indicara cosas en la forma "Y afirmó X". El tema de la "seguridad" suele ser mayormente bloquear contenido para adultos, lo cual ya no me parece muy significativo en la era de Pornhub. El problema que de verdad requiere discusión es la provisión de servicios personalizados con fines comerciales para engañar o evadir al cliente. Eso debe tratarse desde la perspectiva de los derechos del consumidor. Otro problema es cuando la IA actúa como mi jefe (por ejemplo: Uber)
    • Después de ver el desarrollo de las redes sociales durante los últimos 15 años, la lección es que la evaluación y respuesta rápida a los riesgos llegó demasiado tarde. Las redes sociales ya acumularon influencia política y regularlas de forma efectiva se volvió casi imposible. Espero que no repitamos el mismo error con la IA generativa