- Un desarrollador de xAI filtró en GitHub una clave privada de API para LLM, dejando durante dos meses la posibilidad de que cualquiera accediera a modelos internos
- La clave tenía permisos para acceder a más de 60 LLM, incluidos versiones de desarrollo de Grok y modelos entrenados con datos de SpaceX y Tesla
- GitGuardian advirtió sobre el problema hace dos meses, pero la clave seguía siendo válida y solo se eliminó de GitHub después de que el equipo de seguridad lo confirmara
- Este mal manejo de credenciales no solo implica riesgo de exposición de información interna de desarrollo, sino también la posibilidad de ataques a la cadena de suministro o inyección de prompts
- Al mismo tiempo, también han surgido indicios de que la organización DOGE está introduciendo datos del gobierno federal en sistemas de IA, lo que aumenta la preocupación sobre la seguridad de la IA en el ecosistema de Musk
Clave interna de API para LLM de xAI filtrada en GitHub
- Un desarrollador de xAI, la empresa de IA de Elon Musk, publicó por error en GitHub una clave de API para acceso a LLM internos
- Esa clave tenía permisos para acceder a LLM especializados para SpaceX, Tesla y Twitter/X
Cómo ocurrió la filtración y cómo se ignoró la alerta
- Philippe Caturegli, de la firma de consultoría de seguridad Seralys, fue quien primero alertó públicamente en LinkedIn sobre la filtración de la clave
- GitGuardian detectó la clave a partir de esa publicación y, como parte de su monitoreo continuo de GitHub, envió un correo de advertencia
- Aunque la alerta se emitió el 2 de marzo, la clave seguía siendo válida hasta el 30 de abril, y el repositorio solo fue eliminado después de que el equipo de seguridad tomó conocimiento del caso
Impacto de la clave filtrada
- GitGuardian informó que la clave permitía acceder a modelos públicos y privados de Grok
- Ejemplos:
grok-2.5V, research-grok-2p5v-1018, grok-spacex-2024-11-04, tweet-rejector
- La clave podía acceder al menos a más de 60 LLM no publicados y ajustados finamente
Advertencias de expertos en seguridad
- La CMO de GitGuardian, Carole Winqwist, advirtió que un atacante podría usar la clave para ejecutar amenazas como:
- inyección de prompts
- manipulación de LLM
- facilitar ataques a la cadena de suministro
- La filtración se considera un caso que muestra falta de supervisión de la seguridad interna y fallas en la gestión del ciclo de vida de las claves dentro de xAI
Vínculo con organismos gubernamentales y preocupaciones más amplias
- Aunque no hay evidencia de que la clave filtrada estuviera conectada directamente con datos del gobierno, es muy probable que los modelos relacionados hayan sido entrenados con datos internos de SpaceX, Twitter y Tesla
- Mientras tanto, DOGE (Department of Government Efficiency), impulsado por Musk, ya estaría alimentando sistemas de IA con datos del gobierno federal de EE. UU.
- análisis con IA de datos del Departamento de Educación
- despliegue del chatbot GSAi para funcionarios federales
- indicios de uso de IA para vigilar si hay apoyo a la administración Trump
- Esto refuerza una estructura en la que los operadores de sistemas de IA pueden controlar datos sensibles, aumentando el riesgo de filtraciones
Conclusión y alerta de seguridad
- Las credenciales internas expuestas durante un largo periodo muestran fallas en el control de acceso de desarrolladores y en la operación de seguridad interna
- Caturegli evaluó que este incidente es una advertencia sobre la necesidad de una gestión más estricta de la seguridad operativa
1 comentarios
Opiniones de Hacker News
Aunque ya habían pasado casi dos meses desde que GitGuardian advirtió al empleado de xAI sobre la exposición de la clave API, esa clave seguía siendo válida
La exposición del LLM de datos de SpaceX podría convertirse en una causa importante de violaciones de ITAR
Es incompetencia absoluta
Claro, Elon contrata con base en la "capacidad"
Me da más curiosidad para qué se usa el modelo personal "tweet-rejector"
Lo más sorprendente es que funcionarios del gobierno les dijeron a algunos empleados del gobierno de EE. UU. que DOGE está usando IA para monitorear las comunicaciones de al menos una agencia federal
Se nota que los periodistas asumen erróneamente que, si tienen la clave API del LLM, pueden inyectarle datos
Se refiere a un exdesarrollador de IA
[eliminado]
[eliminado]
[reportado]