- Empleados internos de Google están exigiendo establecer límites éticos claros (líneas rojas) para los proyectos de inteligencia artificial (IA) militar
- Expresan preocupación por la expansión de la colaboración con el Pentágono (Departamento de Defensa de EE. UU.) y plantean la necesidad de limitar el alcance del uso militar de la IA
- Esta exigencia es vista como una tendencia similar a la reciente decisión de Anthropic de establecer sus propias restricciones sobre la IA militar
- Los empleados sostienen que deben definirse directrices claras para evitar que divisiones de IA de Google, como DeepMind, participen en desarrollo de armas o apoyo en combate
- Vuelve a cobrar fuerza el debate interno en las empresas tecnológicas sobre los límites entre la ética de la IA y la cooperación en seguridad nacional
Preocupación de los empleados de Google por la IA militar
- Empleados de Google han manifestado preocupación por la posibilidad de que la tecnología de IA de la empresa se use con fines militares
- En particular, ante la expansión de la colaboración con el Pentágono, subrayan la necesidad de contar con normas internas que impidan aplicar la IA a armas letales o sistemas de combate
- Los empleados afirman que deben reforzarse las guías éticas y dejar claro el carácter no militar del desarrollo de IA
Comparación con Anthropic
- Recientemente, Anthropic anunció medidas propias de restricción para la IA militar
- Las demandas de los empleados de Google apuntan en una dirección similar a esa decisión de Anthropic
- Ambos casos se interpretan como movimientos internos de la industria tecnológica para evitar el uso indebido militar de la IA
El papel de DeepMind y el debate interno
- Se está debatiendo la posibilidad de que DeepMind, subsidiaria de Google, participe en proyectos relacionados con el Pentágono
- Algunos empleados sostienen que deben fijarse líneas rojas claras para que DeepMind no se involucre en desarrollo de armas ni sistemas de apoyo al combate
Tensión ética dentro de las empresas tecnológicas
- Este debate dentro de Google vuelve a poner en primer plano la tensión entre la ética de la IA y la cooperación en seguridad nacional
- Las demandas de los empleados plantean al mismo tiempo dos desafíos: la responsabilidad social empresarial y la limitación del uso militar de la tecnología
Lo que significa para toda la industria
- Los casos de Anthropic y Google muestran una tendencia en la que las empresas de IA están redefiniendo sus criterios internos sobre la cooperación militar
- En adelante, es posible que otras empresas tecnológicas también enfrenten exigencias para establecer políticas claras sobre el uso militar de la IA
1 comentarios
Opiniones de Hacker News
Entiendo la postura, pero me pregunto cómo funcionaría esto a escala global
Por ejemplo, empleados en EE. UU. podrían negarse a desarrollar estas armas, pero empleados en China quizá no
Me preocupa cómo equilibrar el sentimiento antibélico individual con la realidad del mundo, especialmente en medio de una carrera armamentista de IA
La lógica de que simplemente hay que igualar sus capacidades es peligrosa
El equilibrio entre el sentimiento antibélico personal y la realidad debe darse con apertura de la información, derecho a rechazar el consentimiento voluntario y la exigencia de justificación para cada decisión
Como referencia, Anthropic no rechazó todos los proyectos militares, sino que adoptó un enfoque de participación condicionada
si EE. UU. la militariza, es muy probable que la use para matar personas este mismo año
Es decir, los desarrolladores en EE. UU. deben considerar que ese resultado es una realidad inmediata
Aunque habría sido mejor que los líderes políticos empezaran a negociar antes de cruzar ciertos límites morales
Es decir, si ingenieros destacados se niegan a participar en proyectos no éticos, también disminuyen las oportunidades de que personas menos capacitadas hagan cosas malas
Igual que un desarrollador white-hat no colabora con un hacker black-hat, la no participación ética tiene un efecto disuasorio
Si un asunto como este tiene que dejarse solo a la autorregulación, entonces ya no hay esperanza
Aun así, que este tipo de dudas morales se exprese públicamente ya es un avance
Estas conversaciones tienen que acumularse para formar consenso social y convertirse en exigencias de cambio
Es mucho mejor que arrodillarse ante un loco con poder
La intención es buena, pero la caja de Pandora de la militarización de la IA ya se abrió hace mucho tiempo
Pero si así fuera, la humanidad ya se habría extinguido varias veces
No deberíamos perder la fe en que la contención es posible
Porque el ejército de EE. UU. ha financiado muchísimos proyectos de computación
La línea roja no debería ser “uso solo dentro del país”, sino simplemente “no hacerlo”
Me impresionó leer que “100 empleados de Google protestaron”
Probablemente para 2027 ya lo habrán cerrado todo en silencio
Por las declaraciones políticas de Jeff Dean, parece estar más cerca del lado de la resistencia
Pero no está claro si toda la dirigencia seguirá esa postura
Hay que prevenirlo al máximo desde ahora para que eso no ocurra
Artículo del New York Times: la guerra de Ucrania y el papel de los drones con IA
Casi no creo que Google vaya a mantener hasta el final una postura de principios
Lo interesante es que, aunque el Departamento de Defensa clasificó a Anthropic como una empresa de riesgo para la cadena de suministro,
sí le dio contratos a OpenAI
Las políticas de prohibición de ambas empresas son casi idénticas, así que me pregunto por qué hubo esa diferencia de trato
Sorprende que esta discusión ya se haya olvidado
Según un artículo de The Guardian,
tanto Google como OpenAI ya tienen contratos de defensa
Si uno no está de acuerdo con eso, lo correcto sería irse de la empresa, pero en la práctica casi nadie lo hará