- El gobierno de Estados Unidos anunció el ‘Plan de Acción Nacional de IA (AAIAP)’ para el desarrollo y uso seguro y responsable de la inteligencia artificial (IA)
- Presenta cinco objetivos estratégicos clave: ampliar la inversión en investigación y desarrollo de IA, garantizar confiabilidad y responsabilidad, formar talento, fortalecer la infraestructura y el acceso a los datos, y promover la cooperación global
- Se enfoca en establecer una base legal y de políticas públicas para que la IA aporte beneficios sociales y económicos mientras se minimizan los riesgos
- Destaca medidas para prevenir el uso indebido y el abuso de la IA en ámbitos militares y no militares, proteger la ética y los derechos humanos, y resguardar la seguridad nacional y el interés público
- Impulsa al mismo tiempo la innovación en IA y la definición de normas mediante la colaboración público-privada
Resumen del Plan de Acción Nacional de IA
- La administración de Estados Unidos consideró necesario contar con una estrategia integral a nivel nacional, dado el impacto que la tecnología de IA tiene en toda la sociedad
- Presenta una orientación de política pública para lograr al mismo tiempo dos objetivos: fomentar la innovación y controlar los riesgos
1. Fortalecimiento de la inversión en I+D de IA y de la infraestructura
- Estados Unidos ampliará la inversión federal en I+D para impulsar el desarrollo de la IA y su competitividad global
- Promoverá la expansión de infraestructura pública como supercomputación, conjuntos de datos de alta calidad y herramientas de código abierto necesarias para la investigación en IA
- Brindará oportunidades de acceso a datos y recursos computacionales para que también puedan aprovecharlos investigadores, startups y grupos minoritarios
- A nivel nacional, dará apoyo prioritario a la investigación sobre aplicaciones de IA centradas en sectores específicos como salud, clima, agricultura y energía
- Ampliará la inversión en I+D interdisciplinaria en áreas como ciencia básica, confiabilidad, seguridad y IA ética
2. Construcción de un ecosistema de IA confiable y responsable
- El gobierno establecerá estándares de transparencia, seguridad y explicabilidad de la IA para extenderlos también al sector privado
- Garantizará por vía legal e institucional la equidad de la IA (no discriminación y reducción de desigualdades), la protección de la privacidad y el cumplimiento ético
- Reforzará los sistemas de prueba y validación antes del uso real, incluyendo evaluación de riesgos algorítmicos y análisis de impacto
- Introducirá regulación y supervisión adicionales para usos de IA de alto riesgo, por ejemplo en salud, finanzas y seguridad pública
- Establecerá procedimientos ágiles para determinar responsabilidades y ofrecer reparación en casos de fallas o uso indebido de la IA
3. Desarrollo de talento y fuerza laboral en IA
- Reforzará de forma integral la educación en alfabetización en IA desde la primaria hasta la universidad, así como en la educación para adultos
- Ampliará el apoyo para que estudiantes de grupos marginados y de regiones vulnerables también puedan participar en la educación en IA
- Ampliará los programas de formación de doctores y especialistas en IA, así como de recapacitación profesional (upskilling) para trabajadores en activo
- Fortalecerá las capacidades de IA en el gobierno y las instituciones públicas, y apoyará el intercambio y la cooperación con talento del sector privado y la industria
- Incluye medidas para atraer talento en IA, políticas migratorias y activación del reclutamiento de talento internacional
4. Ampliación del acceso a datos e infraestructura
- Establecerá políticas para asegurar, compartir y aprovechar datos de alta calidad, equitativos y seguros
- Impulsará la apertura de datos públicos y su vinculación con datos privados, asegurando la interoperabilidad
- Clarificará los estándares de privacidad de datos, seguridad y ética
- Apoyará el uso compartido de infraestructura como supercomputación y nube para investigadores y desarrolladores de IA, empresas, escuelas y organizaciones sin fines de lucro
- Reforzará la estandarización de datos, el control de calidad y los sistemas de gobernanza de datos
5. Gobernanza global de la IA y cooperación internacional
- Liderará el establecimiento de estándares y normas globales sobre ética, seguridad y confiabilidad de la IA
- Reforzará la cooperación en políticas, tecnología e investigación con el G7, la OCDE, la ONU y países aliados
- Construirá una solidaridad internacional para prevenir la militarización de la IA, la vigilancia y los usos indebidos autoritarios
- Impulsará la estandarización global de la IA, la interoperabilidad y la garantía de la movilidad de datos
- Ampliará el desarrollo de capacidades en IA y el apoyo internacional para países menos desarrollados y Estados vulnerables
Sistema de ejecución y supervisión
- La Oficina de Política Científica y Tecnológica de la Casa Blanca (OSTP) encabezará la coordinación general de toda la estrategia
- Cada dependencia (defensa, comercio, educación, energía, salud, etc.) elaborará y operará planes de implementación concretos
- Se garantizará la participación de las partes interesadas mediante instancias de consulta público-privada, grupos de expertos y mecanismos de recopilación de opiniones ciudadanas
- Se establecerán hojas de ruta detalladas por objetivo, indicadores de desempeño y un sistema periódico de revisión y reporte de la implementación
- Se reforzarán la transparencia, la inclusión y la responsabilidad en el proceso de ejecución de las políticas
Conclusión y tareas futuras
- Persigue de manera simultánea los dos objetivos de promover la innovación en IA y minimizar los riesgos
- Destaca que, junto con el avance tecnológico, es indispensable establecer estándares éticos, legales y sociales
- Señala como tareas clave de mediano y largo plazo el liderazgo global, la cooperación internacional, la formación de talento y el fortalecimiento de la regulación y la gobernanza
- Plantea que establecer regulaciones efectivas, mantener una supervisión continua y contar con la participación activa de todos los sectores de la sociedad son condiciones para una política exitosa
1 comentarios
Opiniones de Hacker News
Está claro que la IA es un área enormemente importante para el crecimiento económico, pero también quiero enfatizar que la energía limpia es igual de importante. En este momento, ambas están en un punto de inflexión clave. Sin embargo, EE. UU. quiere ir a la delantera en IA, mientras que en energía actúa como si no estuviera pasando nada y evita enfrentar la realidad. Esa actitud corre el riesgo de hacer que EE. UU. ceda su liderazgo económico en el sector energético a otros países dentro de los próximos 20 años. Peor aún, la postura actual del gobierno está haciendo que las empresas energéticas estadounidenses se aferren a las formas tradicionales y, al final, podrían quebrar en 10 o 20 años. Cuando eso pase, EE. UU. podría verse obligado a rescatarlas por razones estratégicas
Está bien ver que se fomente la IA de código abierto y de pesos abiertos. En particular, me llamó la atención que se deje claro que open-weight y open-source no son lo mismo
Sin apoyo real, es decir, sin financiamiento, no se puede decir que tenga mucho significado práctico que el gobierno solo lo aliente. Si uno mira esa parte del documento (ver el PDF), queda claro que casi no hay contenido al respecto
Me pregunto cómo puede coexistir el objetivo principal de asegurar la primacía de EE. UU. con una política de open-weight. Si los pesos abiertos se publican, cualquiera puede usar esa tecnología
Me pregunto cómo se cruzan el interés del gobierno en modelos “justos” y la política de código abierto. En especial, la idea de “justicia” que maneja el gobierno se siente hasta inquietante
Es una política sin mucho sentido
Todas estas políticas al final nacen del deseo de control. No les interesa el beneficio mutuo real, ni la exactitud ni la precisión; el objetivo es que quienes tienen el poder controlen los pesos abiertos y el código fuente de los modelos para bloquear ideas, preguntas o pensamiento libre no autorizados
Personalmente, lo más importante para mí es que adoptaron una postura fuerte sobre los modelos de IA open-source y open-weight. Esa postura choca con algunas otras regulaciones, como la EU AI Act. La EU AI Act tampoco prohíbe los modelos open-weight, pero aunque hay excepciones para proyectos por debajo de 10²⁵ FLOPS, sigue siendo un entorno regulatorio bastante pesado para proyectos abiertos descentralizados
Si uno ve el apartado de “recomendaciones de política”, casi todo son palabras sin contenido real
Parece más enfocado en energía no renovable e ideología impuesta por el gobierno que en código abierto y energías renovables. No sé si esa lectura es puro optimismo o simple negación de la realidad
En la parte de energía mencionan alimentar la IA con fusión nuclear, pero no mencionan la solar, y eso se siente casi como un chiste
Técnicamente, la energía solar también podría verse como energía de fusión en sentido amplio, ya que viene de la fusión en el espacio y llega en forma de fotones
Me pregunto cuánta tierra haría falta para operar toda la infraestructura de IA solo con energía solar. Quiero decir que la solar no es práctica, pero también tengo una curiosidad genuina sobre eso
No parece haber forma de impedir que las empresas de IA usen solo energía renovable
En mi pueblo instalaron grandes plantas solares en tierras agrícolas. La solar está bien para techos residenciales, pero es difícil usarla para operar centros de datos 24/7 sin baterías
La demanda eléctrica de la IA y la curva de generación solar no coinciden
Como política posterior digna de atención después de la página de AI Action de EE. UU., está PREVENTING WOKE AI IN THE FEDERAL GOVERNMENT. Ese documento define DEI como distorsión de hechos sobre raza y sexo, diversidad de resultados, teoría crítica de la raza, temas transgénero, sesgo inconsciente, interseccionalidad, racismo sistémico, discriminación y conceptos similares. Afirma que DEI amenaza una IA confiable al sacrificar el compromiso con la verdad
En la práctica, casi todos los objetivos del Action Plan están orientados a promover el uso de la IA, pero el último dice que hay que “combatir los medios sintéticos en el sistema legal”. La generación de medios sintéticos es una función principal de la mayoría de las IA, como los LLM, así que me pregunto cómo se supone que eso conviva con ese objetivo
No sé si la primera oración es sátira o va en serio. Todo el documento se siente como una petición de un grupo de lobby de la industria. Un ejemplo del uso de LLM en el sistema legal sería parecido a cuando un abogado senior le pide a un junior que redacte un borrador. El problema aparece cuando ese borrador se presenta directamente ante el tribunal sin revisión. Eso pasa por mala aplicación del razonamiento jurídico, citas falsas de precedentes y apoyo a argumentos incorrectos
Creo que todo el documento se entendería mejor si se leyera con la voz de Patrick Bateman
Algunas personas lo interpretan como que lo más importante es llegar primero a la AGI. Quien controle la AGI tendría el poder de gobernar el mundo
Esta parte tiene que ver con el watermarking, es decir, con sistemas de identificación y autenticación de medios sintéticos creados por IA. Por ejemplo, se necesitarían estándares separados para evitar que deepfakes maliciosos dañen la justicia legal. En consecuencia, se proponen medidas como dar herramientas a tribunales e instituciones judiciales para responder a deepfakes, desarrollar lineamientos de benchmarks forenses y revisar las Federal Rules of Evidence
Dice que “para que el gobierno federal renueve contratos con desarrolladores de LLM, solo reconocerá sistemas que produzcan resultados ‘objetivos y sin sesgo’ según los criterios que este gobierno acepte”. En otras palabras, la salida de la IA tiene que ajustarse al estándar de verdad de esta administración
Cuando planteé esta preocupación antes, recibí una reacción negativa. Probablemente porque iba contra el ambiente favorable a los LLM
En el documento relacionado se habla de ejemplos en los que el concepto de DEI funciona como una restricción en la IA, y se afirma que la obsesión con la “verdad” amenaza la propia existencia de una IA confiable
La expresión “sin sesgo ideológico top-down” es, en esencia, casi lo mismo que “corrección política”
Si tengo que adaptarme a este tipo de “verdad al estilo estadounidense”, preferiría dejar la industria IT. Al menos da cierto alivio que la AI Act de la UE retrase esta exposición
“Objetivo” y “sin sesgo top-down” me suena a imponer la creencia de que 2+2=5 y de que siempre estamos en guerra con Asia Oriental
Quiero señalar que la mayoría de los puntos enumerados en el Action Plan, como “desregulación administrativa, adopción libre de IA, fomento del open-source, defensa de los valores estadounidenses, aseguramiento de datasets científicos para IA y aceleración de la adopción de IA en el gobierno”, en realidad contradicen las políticas concretas. Las acciones recientes del gobierno van directamente en contra de los objetivos aquí declarados. Personalmente, todo esto me parece una dirección peligrosa en este momento, así que me cuesta tomarlo en serio
Parece que la fórmula del éxito es no poner regulación mientras se impulsan solo fines políticos
Todo el documento se parece más a propaganda del tipo “realizar los grandes beneficios de Estados Unidos a través de la IA”
Hablan de “desregulación administrativa”, pero en la práctica no hay ninguna regulación para rentar GPUs y entrenar modelos
En conclusión, se señala que las declaraciones vacías no significan nada. Casi nadie cree de verdad en promesas sin ejecución
Gran parte del contenido se siente más cercana a “propaganda de consignas” al estilo del Partido Comunista Chino. Pero en EE. UU. el gobierno no tiene la capacidad de movilizar de forma coordinada a todos los sectores como un Estado autoritario, así que esa atmósfera vacía probablemente no funcione bien
Después de la pandemia, la palabra “plan” parece significar muy poco. Es por la incompetencia nacional. Mi predicción es que este tipo de Action Plan al final no tendrá resultados reales más allá de discursos y ejecución de presupuesto
Si sigue así, solo se gastarán contratos de millones de dólares sin resultados reales. La ideología conservadora funciona con la lógica de dar privilegios solo a ciertos grupos y convertir los costos médicos de la gente común en un lujo para luego recortarlos
Tratar de resolver problemas del mundo real solo con políticas en papel es un problema crónico que EE. UU., el Reino Unido y la UE arrastran desde hace tiempo
En Canadá, basta con anunciar programas gubernamentales en la emisora pública para conseguir apoyo popular, incluso sin implementación real ni presupuesto. Se siente como Pravda
Dice que “la industria de la salud en EE. UU. es lenta para adoptar IA por la desconfianza en la tecnología, regulaciones complejas y la falta de estándares claros de gobernanza y gestión de riesgos, por lo que hace falta un esfuerzo federal coherente”, pero me pregunto si el enfoque de “hacerlo primero y arreglarlo después” encaja en la medicina. El sector salud ya tiene estándares claros y estrictos, y eso no va bien con la introducción de sistemas experimentales
He vivido que el sistema de salud de EE. UU. ya está al borde del colapso. Siento de forma muy clara la diferencia entre la atención del médico rural de mi infancia y el actual sistema de urgencias “tipo comida rápida”. Mis experiencias médicas recientes solo han sido de indiferencia e incompetencia. Nunca mejoré después de una consulta; solo recibí facturas enormes. Incluso la odontología se deterioró muchísimo desde que el capital privado tomó control. De ahora en adelante, no pienso buscar atención médica por mi cuenta salvo que exista riesgo de morir
Los tratamientos con IA necesitan validación estricta, pero introducir IA en facturación y administración podría generar un gran ahorro de costos. Una parte importante del gasto sanitario en EE. UU. es administrativa
La atención médica en EE. UU. ya es muy frágil, y hay miles de muertes por esperas, diagnósticos erróneos e ineficiencia. En diagnóstico, la IA ya supera a los médicos en la mayoría de los casos
La estrategia de “move fast and break things” también podría traer cambios positivos a la medicina si se cuantifican bien los riesgos. Si el riesgo de tratamientos experimentales no es mayor que el riesgo de muerte por retrasar el tratamiento de enfermedades cotidianas, una innovación rápida podría beneficiar a largo plazo. De hecho, hay estudios donde la IA superó a los médicos en salas de urgencias
El sistema de salud de EE. UU. ya llegó a su límite, así que difícilmente podría empeorar; incluso si se deteriora más, el resultado podría terminar viéndose como una mejora