1 puntos por GN⁺ 19 일 전 | 1 comentarios | Compartir por WhatsApp
  • OpenAI respalda el proyecto de ley del Senado de Illinois SB 3444, que limitaría la responsabilidad legal de los laboratorios de IA bajo ciertas condiciones incluso si un modelo de IA causa grandes pérdidas de vidas humanas o daños materiales masivos
    • El proyecto define como “daño crítico (critical harm)” los casos en los que un modelo de IA provoque la muerte o lesiones graves a más de 100 personas, o daños materiales superiores a mil millones de dólares
    • Si un laboratorio de IA causó ese daño sin intención ni negligencia grave, y publicó en su sitio web un informe de seguridad, protección y transparencia, podría quedar exento de responsabilidad
    • El proyecto define “modelo de frontera (frontier model)” como una IA con un costo de entrenamiento superior a 100 millones de dólares, por lo que grandes laboratorios como OpenAI, Google, xAI, Anthropic y Meta probablemente entrarían en esa categoría
    • Esta definición se interpreta como un intento de establecer un marco regulatorio centrado en sistemas de IA de alto rendimiento
  • El portavoz de OpenAI, Jamie Radice, dijo en una declaración enviada por correo electrónico que “este enfoque ayuda a reducir el riesgo de daños graves de los sistemas avanzados de IA, al tiempo que permite que la tecnología llegue a empresas y personas”
    • También señaló que ayudaría a establecer estándares claros y consistentes a nivel nacional, en lugar de regulaciones distintas en cada estado
    • El “daño crítico” definido por el proyecto también incluye casos en los que la IA genere armas químicas, biológicas, radiológicas o nucleares, o realice por sí sola actos que serían considerados delitos si los cometiera un ser humano
    • Incluso si estas acciones provocaran daños a gran escala, el laboratorio de IA podría quedar exento de responsabilidad legal si no actuó de forma intencional y presentó los informes requeridos
  • Choque entre la regulación federal y las leyes estatales

    • Caitlin Niedermeyer, del equipo de asuntos globales de OpenAI, subrayó en su testimonio de apoyo a la SB 3444 la necesidad de un marco federal de regulación de la IA
      • Sostuvo que regulaciones distintas según el estado podrían generar fricciones ineficientes, y que se debe reforzar la armonización con un sistema federal
      • Esto se asemeja a la postura general de Silicon Valley y coincide con la lógica de priorizar el mantenimiento de la competitividad de Estados Unidos en IA
      • Niedermeyer afirmó que “el despliegue seguro de los modelos de frontera y el mantenimiento del liderazgo innovador de Estados Unidos deben ser la estrella polar (North Star) de la regulación”
  • Posibilidades de aprobación y críticas al proyecto

    • Scott Wisor, director de políticas de Secure AI Project, consideró poco probable que el proyecto avance, dado el enfoque regulatorio sobre tecnología de Illinois
      • En una encuesta entre residentes de Illinois, el 90% se opuso a eximir de responsabilidad a las empresas de IA
      • Los legisladores estatales, de hecho, están presentando proyectos para endurecer la responsabilidad de los desarrolladores de IA
      • Illinois ya fue el primer estado en aprobar una ley que restringe el uso de IA en servicios de salud mental, y en 2008 aprobó la Ley de Privacidad de Información Biométrica (BIPA)
  • El problema no resuelto de la responsabilidad por daños causados por IA

    • Aunque la SB 3444 se enfoca en daños a gran escala, sigue el debate sobre los daños a nivel individual
      • Algunas familias han demandado a OpenAI alegando que sus hijos se suicidaron tras interacciones anómalas con ChatGPT
    • La legislación federal sobre IA sigue sin avances en el Congreso
      • La administración Trump publicó órdenes ejecutivas y marcos de referencia, pero el debate legislativo de fondo sigue estancado
      • Ante la falta de lineamientos federales, gobiernos estatales como California y Nueva York aprobaron por su cuenta leyes que obligan a presentar informes de seguridad y transparencia
    • Mientras el auge de la IA continúa desde hace varios años, la responsabilidad legal en caso de que un modelo de IA provoque un evento catastrófico sigue siendo un asunto sin resolver

1 comentarios

 
GN⁺ 19 일 전
Opiniones de Hacker News
  • Intenté usar GPT 5.4 y Opus 4.6 para generar cómo fabricar sustancias neurotóxicas con artículos de uso cotidiano
    El modelo al principio se atascó en cómo conseguir fósforo (P), pero al final terminó indicando listados de eBay para “fósforo decorativo” e incluso palabras clave usadas en el mercado negro real
    Recibí orientación sobre medidas de seguridad, lista de materiales, métodos de ocultamiento y hasta el proceso químico mediante búsquedas académicas
    Claro, esto fue un resultado anómalo posible mediante un ataque de agotamiento de contexto (context exhaustion attack), y después lo reporté a OpenAI y Anthropic, pero no respondieron
    Cuando lo volví a intentar recientemente, la sesión se cerró, así que parece que ya lo corrigieron
    Estoy seguro de que esto es del tipo de cosas que les quitan el sueño a las unidades antiterroristas

    • Esta información ya se podía conseguir fácilmente en internet desde hace 20 o 30 años
      Antes incluso había muchos foros sobre “información que el gobierno quiere ocultar”
      Pero ahora lo verdaderamente aterrador es que se reduce la fricción para llevarlo a la práctica
    • La frase de que “los agentes antiterroristas no pueden dormir” me parece muy exagerada, pero hoy voy a aceptar esa energía positiva tal cual
    • Me pregunto si tienes formación en bioquímica
      Yo he usado ChatGPT y Claude en mi área de especialidad, y a menudo generan contenido que a un no experto le suena convincente, pero es completamente incorrecto
      También me pregunto si alguien ha llegado a hacer experimentos reales siguiendo instrucciones químicas de un LLM
    • Este tipo de información ya era perfectamente accesible con una búsqueda en Google incluso antes de la IA
    • No estoy de acuerdo con eso de que “el modelo no debería funcionar así”
      En realidad, si no sobrescribes el system prompt, así es exactamente como debería funcionar
  • Citan el texto original de la Ley del Senado de Illinois 3444
    “Daño crítico (critical harm)” significa que un modelo de IA haya causado la muerte de más de 100 personas o daños materiales por más de mil millones de dólares
    El desarrollador queda exento de responsabilidad por negligencia no intencional si publicó previamente protocolos de seguridad y un informe de transparencia
    Aun así, parece insuficiente que baste con subir un PDF

    • Lo interesante es que esta ley solo aplica a los “modelos frontier”
      O sea, si un modelo pequeño causa un incidente, no recibe esa protección
      ¿Entonces mientras solo mueran 99 personas no pasa nada? Es una lógica extraña de “ve a lo grande o vete a casa”
    • La clave está en la sección 15
      No basta con publicar documentos; para quedar protegido también hay que cumplir realmente esos protocolos
      El regulador debería fijar un “estándar razonable”, y solo si la empresa lo cumple debería haber inmunidad
      Tanto la inmunidad incondicional como la responsabilidad incondicional son excesivas
      Al final, el problema de la ley es que el estándar está puesto demasiado bajo
    • Es común que las empresas trasladen su responsabilidad al público
      Un caso representativo es la Price–Anderson Act de 1957, que limita la responsabilidad de la industria nuclear
      Incluso si hay daños por más de un billón de dólares, como en el accidente de Fukushima, el gobierno asume la mayor parte
      La discusión sobre la inmunidad para la industria de la IA va en ese mismo sentido
      Además, ver que Gemini respondió mal el año de vencimiento de esa ley me hizo sentir otra vez la necesidad de verificar los hechos en la IA
    • Esta es la versión en IA de la lógica de “las armas no matan gente
      Claro, es una analogía simplificada, pero está claro que sigue siendo un proyecto para evadir responsabilidades
    • Esta ley también conecta con la polémica sobre el desarrollo de armas autónomas
      Parece un intento de evitar responsabilidad cuando se ataca al objetivo equivocado
      Casi sorprende que ni siquiera hayan mencionado “Skynet”
      Si necesitan inmunidad, es porque ya saben que esto es riesgoso
  • Me recuerda al caso de Iowa
    El senado estatal aprobó dos veces un proyecto que bloquea demandas contra empresas de pesticidas y herbicidas si cumplen con el etiquetado de la EPA
    Iowa también es el estado donde la incidencia de cáncer está aumentando más rápido en EE. UU.

    • Si un producto fue aprobado por el gobierno, ¿la empresa debe seguir siendo responsable si después se descubre que era dañino?
      Parece que esto va a ser un gran debate, como en las demandas por PFAS (enlace del artículo)
    • Al final, esto parece ser un conflicto entre los intereses industriales locales y la salud pública
  • Construimos sistemas que no entendemos, y ahora el siguiente paso resulta ser darles inmunidad; es irónico

    • Exacto, el objetivo es evadir responsabilidad
      Pero lo que de verdad da miedo es que esta reacción provenga de una forma de pensar demasiado estrecha
  • Creo que la cuestión de la responsabilidad es simple
    La persona que toma la decisión siempre debe responder
    La excusa de “la IA me dijo que lo hiciera” no vale
    Aunque si lo ejecutó alguien sin autoridad, eso ya sería otra forma de responsabilidad
    Al final, la IA solo será un nuevo chivo expiatorio

    • Pero no siempre está claro quién es el responsable
  • Al final hicieron el cálculo de que hacer lobby ante el gobierno es más barato y más rápido que mejorar la seguridad del producto
    Lo más sorprendente es que haya tantos desarrolladores dispuestos a entregarles las llaves del mundo a empresas así

    • En realidad, esta forma de actuar ha sido la estrategia estándar de las empresas desde mediados del siglo XX, y les ha funcionado bastante bien
    • Pero ¿cómo se supone que haces “seguro” un producto no determinista (nondeterministic)?
  • En Illinois también hay otro proyecto que obligaría a verificación de edad a nivel de sistema operativo (HB 5511)
    La razón por la que se aprueban estas malas leyes es que nosotros no alzamos la voz
    Si eres residente, deberías mandarles un correo a tus legisladores ahora mismo

  • Apostemos: “¿Cuándo bajarán este post de la portada?”

    • El título cambió a “OpenAI backs Illinois bill that would limit when AI labs can be held liable”
      En el proyecto real (enlace) sí aparece explícitamente ‘muerte de más de 100 personas o daños por mil millones de dólares’
      Creo que el título original en realidad era más preciso
    • Actualización: salió de la portada en algún momento entre 1 y 4 horas después
    • Pero como esto tiene efecto de marketing, no creo que lo eliminen
      Nosotros somos quienes lo estamos consumiendo
    • Si apuesto, diría que tardará 3 meses; y si no lo bajan, entonces gano la apuesta para toda la vida
  • OpenAI empezó como una organización sin fines de lucro para reducir los riesgos de los LLM, pero ahora va exactamente en sentido contrario

    • Eso fue antes de que descubrieran el potencial del dinero
    • Las empresas con “Open” en el nombre casi siempre son cerradas
    • Al final, todo el mundo tiene un precio
    • Ellos también ya olvidaron sus ideales iniciales
    • Quizá desde el principio todo era mentira
  • Esta postura no sorprende viniendo de OpenAI y Sam Altman
    Es común que las empresas externalicen sus costos
    Pero, ¿cómo podemos impedir este tipo de conducta?
    ¿Es simplemente el resultado de que la codicia venció a la ética?

    • A nivel social es difícil impedirlo
      Hay casos excepcionales como el movimiento contra SOPA/PIPA, pero en la mayoría de los casos los incentivos corporativos son mucho más fuertes que el interés individual
      Al final, es el mismo mecanismo por el que se debilita la democracia
    • Cambiar el concepto mismo de persona jurídica podría ser la solución
      La corporación es, en esencia, una estructura diseñada para evadir responsabilidad, así que habría que limitar las corporaciones en cascada y las entidades de propósito especial (SPV)
      Y no habría que votar por políticos ni jueces que crean en la Friedman Doctrine
      La sociedad actual está inclinada a favor de quienes poseen capital
    • Si esta ley se aprobara, tendría muchas posibilidades de ser inconstitucional
      No sería muy distinto de una ley que diga “si tienes un patrimonio neto superior a mil millones de dólares, puedes golpear a cualquiera y quedar inmune”
      Al final, será anulada salvo que los tribunales también estén corrompidos
    • Lo que un individuo puede hacer es limitado
      Cómo convertirlo en acción social es una tarea pendiente de la civilización misma
    • Muchos lo ignorarán, pero quiero decirlo igual: voten por el Partido Demócrata
      Fueron los demócratas quienes crearon la CFPB, y los republicanos la debilitaron
      Hay que apoyar a las fuerzas políticas que frenan los monopolios y la manipulación
      En especial porque está surgiendo una generación joven más progresista, así que es importante elegir al candidato correcto en las primarias
      Al final, si cambia solo el 25% del electorado, el mundo puede cambiar