El respaldo de OpenAI a un proyecto de ley de Illinois para limitar la responsabilidad por IA
(wired.com)- OpenAI respalda el proyecto de ley del Senado de Illinois SB 3444, que limitaría la responsabilidad legal de los laboratorios de IA bajo ciertas condiciones incluso si un modelo de IA causa grandes pérdidas de vidas humanas o daños materiales masivos
- El proyecto define como “daño crítico (critical harm)” los casos en los que un modelo de IA provoque la muerte o lesiones graves a más de 100 personas, o daños materiales superiores a mil millones de dólares
- Si un laboratorio de IA causó ese daño sin intención ni negligencia grave, y publicó en su sitio web un informe de seguridad, protección y transparencia, podría quedar exento de responsabilidad
- El proyecto define “modelo de frontera (frontier model)” como una IA con un costo de entrenamiento superior a 100 millones de dólares, por lo que grandes laboratorios como OpenAI, Google, xAI, Anthropic y Meta probablemente entrarían en esa categoría
- Esta definición se interpreta como un intento de establecer un marco regulatorio centrado en sistemas de IA de alto rendimiento
- El portavoz de OpenAI, Jamie Radice, dijo en una declaración enviada por correo electrónico que “este enfoque ayuda a reducir el riesgo de daños graves de los sistemas avanzados de IA, al tiempo que permite que la tecnología llegue a empresas y personas”
- También señaló que ayudaría a establecer estándares claros y consistentes a nivel nacional, en lugar de regulaciones distintas en cada estado
- El “daño crítico” definido por el proyecto también incluye casos en los que la IA genere armas químicas, biológicas, radiológicas o nucleares, o realice por sí sola actos que serían considerados delitos si los cometiera un ser humano
- Incluso si estas acciones provocaran daños a gran escala, el laboratorio de IA podría quedar exento de responsabilidad legal si no actuó de forma intencional y presentó los informes requeridos
-
Choque entre la regulación federal y las leyes estatales
- Caitlin Niedermeyer, del equipo de asuntos globales de OpenAI, subrayó en su testimonio de apoyo a la SB 3444 la necesidad de un marco federal de regulación de la IA
- Sostuvo que regulaciones distintas según el estado podrían generar fricciones ineficientes, y que se debe reforzar la armonización con un sistema federal
- Esto se asemeja a la postura general de Silicon Valley y coincide con la lógica de priorizar el mantenimiento de la competitividad de Estados Unidos en IA
- Niedermeyer afirmó que “el despliegue seguro de los modelos de frontera y el mantenimiento del liderazgo innovador de Estados Unidos deben ser la estrella polar (North Star) de la regulación”
- Caitlin Niedermeyer, del equipo de asuntos globales de OpenAI, subrayó en su testimonio de apoyo a la SB 3444 la necesidad de un marco federal de regulación de la IA
-
Posibilidades de aprobación y críticas al proyecto
- Scott Wisor, director de políticas de Secure AI Project, consideró poco probable que el proyecto avance, dado el enfoque regulatorio sobre tecnología de Illinois
- En una encuesta entre residentes de Illinois, el 90% se opuso a eximir de responsabilidad a las empresas de IA
- Los legisladores estatales, de hecho, están presentando proyectos para endurecer la responsabilidad de los desarrolladores de IA
- Illinois ya fue el primer estado en aprobar una ley que restringe el uso de IA en servicios de salud mental, y en 2008 aprobó la Ley de Privacidad de Información Biométrica (BIPA)
- Scott Wisor, director de políticas de Secure AI Project, consideró poco probable que el proyecto avance, dado el enfoque regulatorio sobre tecnología de Illinois
-
El problema no resuelto de la responsabilidad por daños causados por IA
- Aunque la SB 3444 se enfoca en daños a gran escala, sigue el debate sobre los daños a nivel individual
- Algunas familias han demandado a OpenAI alegando que sus hijos se suicidaron tras interacciones anómalas con ChatGPT
- La legislación federal sobre IA sigue sin avances en el Congreso
- La administración Trump publicó órdenes ejecutivas y marcos de referencia, pero el debate legislativo de fondo sigue estancado
- Ante la falta de lineamientos federales, gobiernos estatales como California y Nueva York aprobaron por su cuenta leyes que obligan a presentar informes de seguridad y transparencia
- Mientras el auge de la IA continúa desde hace varios años, la responsabilidad legal en caso de que un modelo de IA provoque un evento catastrófico sigue siendo un asunto sin resolver
- Aunque la SB 3444 se enfoca en daños a gran escala, sigue el debate sobre los daños a nivel individual
1 comentarios
Opiniones de Hacker News
Intenté usar GPT 5.4 y Opus 4.6 para generar cómo fabricar sustancias neurotóxicas con artículos de uso cotidiano
El modelo al principio se atascó en cómo conseguir fósforo (P), pero al final terminó indicando listados de eBay para “fósforo decorativo” e incluso palabras clave usadas en el mercado negro real
Recibí orientación sobre medidas de seguridad, lista de materiales, métodos de ocultamiento y hasta el proceso químico mediante búsquedas académicas
Claro, esto fue un resultado anómalo posible mediante un ataque de agotamiento de contexto (context exhaustion attack), y después lo reporté a OpenAI y Anthropic, pero no respondieron
Cuando lo volví a intentar recientemente, la sesión se cerró, así que parece que ya lo corrigieron
Estoy seguro de que esto es del tipo de cosas que les quitan el sueño a las unidades antiterroristas
Antes incluso había muchos foros sobre “información que el gobierno quiere ocultar”
Pero ahora lo verdaderamente aterrador es que se reduce la fricción para llevarlo a la práctica
Yo he usado ChatGPT y Claude en mi área de especialidad, y a menudo generan contenido que a un no experto le suena convincente, pero es completamente incorrecto
También me pregunto si alguien ha llegado a hacer experimentos reales siguiendo instrucciones químicas de un LLM
En realidad, si no sobrescribes el system prompt, así es exactamente como debería funcionar
Citan el texto original de la Ley del Senado de Illinois 3444
“Daño crítico (critical harm)” significa que un modelo de IA haya causado la muerte de más de 100 personas o daños materiales por más de mil millones de dólares
El desarrollador queda exento de responsabilidad por negligencia no intencional si publicó previamente protocolos de seguridad y un informe de transparencia
Aun así, parece insuficiente que baste con subir un PDF
O sea, si un modelo pequeño causa un incidente, no recibe esa protección
¿Entonces mientras solo mueran 99 personas no pasa nada? Es una lógica extraña de “ve a lo grande o vete a casa”
No basta con publicar documentos; para quedar protegido también hay que cumplir realmente esos protocolos
El regulador debería fijar un “estándar razonable”, y solo si la empresa lo cumple debería haber inmunidad
Tanto la inmunidad incondicional como la responsabilidad incondicional son excesivas
Al final, el problema de la ley es que el estándar está puesto demasiado bajo
Un caso representativo es la Price–Anderson Act de 1957, que limita la responsabilidad de la industria nuclear
Incluso si hay daños por más de un billón de dólares, como en el accidente de Fukushima, el gobierno asume la mayor parte
La discusión sobre la inmunidad para la industria de la IA va en ese mismo sentido
Además, ver que Gemini respondió mal el año de vencimiento de esa ley me hizo sentir otra vez la necesidad de verificar los hechos en la IA
Claro, es una analogía simplificada, pero está claro que sigue siendo un proyecto para evadir responsabilidades
Parece un intento de evitar responsabilidad cuando se ataca al objetivo equivocado
Casi sorprende que ni siquiera hayan mencionado “Skynet”
Si necesitan inmunidad, es porque ya saben que esto es riesgoso
Me recuerda al caso de Iowa
El senado estatal aprobó dos veces un proyecto que bloquea demandas contra empresas de pesticidas y herbicidas si cumplen con el etiquetado de la EPA
Iowa también es el estado donde la incidencia de cáncer está aumentando más rápido en EE. UU.
Parece que esto va a ser un gran debate, como en las demandas por PFAS (enlace del artículo)
Construimos sistemas que no entendemos, y ahora el siguiente paso resulta ser darles inmunidad; es irónico
Pero lo que de verdad da miedo es que esta reacción provenga de una forma de pensar demasiado estrecha
Creo que la cuestión de la responsabilidad es simple
La persona que toma la decisión siempre debe responder
La excusa de “la IA me dijo que lo hiciera” no vale
Aunque si lo ejecutó alguien sin autoridad, eso ya sería otra forma de responsabilidad
Al final, la IA solo será un nuevo chivo expiatorio
Al final hicieron el cálculo de que hacer lobby ante el gobierno es más barato y más rápido que mejorar la seguridad del producto
Lo más sorprendente es que haya tantos desarrolladores dispuestos a entregarles las llaves del mundo a empresas así
En Illinois también hay otro proyecto que obligaría a verificación de edad a nivel de sistema operativo (HB 5511)
La razón por la que se aprueban estas malas leyes es que nosotros no alzamos la voz
Si eres residente, deberías mandarles un correo a tus legisladores ahora mismo
Apostemos: “¿Cuándo bajarán este post de la portada?”
En el proyecto real (enlace) sí aparece explícitamente ‘muerte de más de 100 personas o daños por mil millones de dólares’
Creo que el título original en realidad era más preciso
Nosotros somos quienes lo estamos consumiendo
OpenAI empezó como una organización sin fines de lucro para reducir los riesgos de los LLM, pero ahora va exactamente en sentido contrario
Esta postura no sorprende viniendo de OpenAI y Sam Altman
Es común que las empresas externalicen sus costos
Pero, ¿cómo podemos impedir este tipo de conducta?
¿Es simplemente el resultado de que la codicia venció a la ética?
Hay casos excepcionales como el movimiento contra SOPA/PIPA, pero en la mayoría de los casos los incentivos corporativos son mucho más fuertes que el interés individual
Al final, es el mismo mecanismo por el que se debilita la democracia
La corporación es, en esencia, una estructura diseñada para evadir responsabilidad, así que habría que limitar las corporaciones en cascada y las entidades de propósito especial (SPV)
Y no habría que votar por políticos ni jueces que crean en la Friedman Doctrine
La sociedad actual está inclinada a favor de quienes poseen capital
No sería muy distinto de una ley que diga “si tienes un patrimonio neto superior a mil millones de dólares, puedes golpear a cualquiera y quedar inmune”
Al final, será anulada salvo que los tribunales también estén corrompidos
Cómo convertirlo en acción social es una tarea pendiente de la civilización misma
Fueron los demócratas quienes crearon la CFPB, y los republicanos la debilitaron
Hay que apoyar a las fuerzas políticas que frenan los monopolios y la manipulación
En especial porque está surgiendo una generación joven más progresista, así que es importante elegir al candidato correcto en las primarias
Al final, si cambia solo el 25% del electorado, el mundo puede cambiar