4 puntos por GN⁺ 2025-05-03 | 1 comentarios | Compartir por WhatsApp
  • Un desarrollador de xAI filtró en GitHub una clave privada de API para LLM, dejando durante dos meses la posibilidad de que cualquiera accediera a modelos internos
  • La clave tenía permisos para acceder a más de 60 LLM, incluidos versiones de desarrollo de Grok y modelos entrenados con datos de SpaceX y Tesla
  • GitGuardian advirtió sobre el problema hace dos meses, pero la clave seguía siendo válida y solo se eliminó de GitHub después de que el equipo de seguridad lo confirmara
  • Este mal manejo de credenciales no solo implica riesgo de exposición de información interna de desarrollo, sino también la posibilidad de ataques a la cadena de suministro o inyección de prompts
  • Al mismo tiempo, también han surgido indicios de que la organización DOGE está introduciendo datos del gobierno federal en sistemas de IA, lo que aumenta la preocupación sobre la seguridad de la IA en el ecosistema de Musk

Clave interna de API para LLM de xAI filtrada en GitHub

  • Un desarrollador de xAI, la empresa de IA de Elon Musk, publicó por error en GitHub una clave de API para acceso a LLM internos
  • Esa clave tenía permisos para acceder a LLM especializados para SpaceX, Tesla y Twitter/X

Cómo ocurrió la filtración y cómo se ignoró la alerta

  • Philippe Caturegli, de la firma de consultoría de seguridad Seralys, fue quien primero alertó públicamente en LinkedIn sobre la filtración de la clave
  • GitGuardian detectó la clave a partir de esa publicación y, como parte de su monitoreo continuo de GitHub, envió un correo de advertencia
  • Aunque la alerta se emitió el 2 de marzo, la clave seguía siendo válida hasta el 30 de abril, y el repositorio solo fue eliminado después de que el equipo de seguridad tomó conocimiento del caso

Impacto de la clave filtrada

  • GitGuardian informó que la clave permitía acceder a modelos públicos y privados de Grok
    • Ejemplos: grok-2.5V, research-grok-2p5v-1018, grok-spacex-2024-11-04, tweet-rejector
  • La clave podía acceder al menos a más de 60 LLM no publicados y ajustados finamente

Advertencias de expertos en seguridad

  • La CMO de GitGuardian, Carole Winqwist, advirtió que un atacante podría usar la clave para ejecutar amenazas como:
    • inyección de prompts
    • manipulación de LLM
    • facilitar ataques a la cadena de suministro
  • La filtración se considera un caso que muestra falta de supervisión de la seguridad interna y fallas en la gestión del ciclo de vida de las claves dentro de xAI

Vínculo con organismos gubernamentales y preocupaciones más amplias

  • Aunque no hay evidencia de que la clave filtrada estuviera conectada directamente con datos del gobierno, es muy probable que los modelos relacionados hayan sido entrenados con datos internos de SpaceX, Twitter y Tesla
  • Mientras tanto, DOGE (Department of Government Efficiency), impulsado por Musk, ya estaría alimentando sistemas de IA con datos del gobierno federal de EE. UU.
    • análisis con IA de datos del Departamento de Educación
    • despliegue del chatbot GSAi para funcionarios federales
    • indicios de uso de IA para vigilar si hay apoyo a la administración Trump
  • Esto refuerza una estructura en la que los operadores de sistemas de IA pueden controlar datos sensibles, aumentando el riesgo de filtraciones

Conclusión y alerta de seguridad

  • Las credenciales internas expuestas durante un largo periodo muestran fallas en el control de acceso de desarrolladores y en la operación de seguridad interna
  • Caturegli evaluó que este incidente es una advertencia sobre la necesidad de una gestión más estricta de la seguridad operativa

1 comentarios

 
GN⁺ 2025-05-03
Opiniones de Hacker News
  • Aunque ya habían pasado casi dos meses desde que GitGuardian advirtió al empleado de xAI sobre la exposición de la clave API, esa clave seguía siendo válida

    • xAI le dijo a GitGuardian que reportara el problema a través del programa de recompensas por bugs de HackerOne, pero unas horas después se eliminó de GitHub el repositorio que contenía la clave API
    • Resulta sorprendente que el equipo de seguridad haya desviado el reporte al programa de HackerOne
    • Al final, fue una suerte que llegara a alguien que pudiera resolver el problema
  • La exposición del LLM de datos de SpaceX podría convertirse en una causa importante de violaciones de ITAR

  • Es incompetencia absoluta

    • No solo los desarrolladores, sino todas las organizaciones deberían escanear continuamente filtraciones de claves API
    • Una falla implica varias fallas
  • Claro, Elon contrata con base en la "capacidad"

  • Me da más curiosidad para qué se usa el modelo personal "tweet-rejector"

  • Lo más sorprendente es que funcionarios del gobierno les dijeron a algunos empleados del gobierno de EE. UU. que DOGE está usando IA para monitorear las comunicaciones de al menos una agencia federal

    • Entiendo que no se puede esperar privacidad en el trabajo, pero es terrible que el empleador esté vigilando esencialmente delitos de pensamiento
    • ¿No es saludable el desacuerdo?
  • Se nota que los periodistas asumen erróneamente que, si tienen la clave API del LLM, pueden inyectarle datos

    • La gente todavía no entiende cómo funcionan los LLM y cree que se puede entrenarlos interactuando a nivel de API
  • Se refiere a un exdesarrollador de IA

  • [eliminado]

  • [eliminado]

  • [reportado]