- En Lilli, la plataforma de IA que McKinsey construyó para uso interno de sus empleados, se obtuvo acceso de lectura y escritura a toda la base de datos mediante una vulnerabilidad accesible sin autenticación
- El ataque fue realizado por un agente de seguridad autónomo; de unos 200 endpoints en la documentación pública de la API, 22 eran accesibles sin autenticación, y la intrusión se logró mediante una inyección SQL en uno de ellos
- La base de datos contenía información interna sensible, incluidos 46.5 millones de mensajes de chat, 728 mil archivos y 57 mil cuentas de usuario
- El agente además expuso toda la estructura operativa de IA de McKinsey, incluidos configuraciones de modelos de IA, prompts del sistema, fragmentos de documentos RAG y flujos de datos hacia APIs externas
- Este incidente muestra que la capa de prompts (prompt layer) está emergiendo como un nuevo punto de vulnerabilidad, y que la protección de la integridad de las instrucciones en sistemas de IA se está convirtiendo en una tarea clave
Resumen de la plataforma Lilli
- McKinsey construyó en 2023 la plataforma interna de IA Lilli para más de 43,000 empleados
- Ofrece chat, análisis de documentos, búsqueda basada en RAG y funciones de búsqueda en más de 100 mil documentos internos
- Procesa más de 500 mil prompts al mes y la usa más del 70% de los empleados
- El nombre de la plataforma proviene del nombre de la primera empleada profesional mujer de la empresa en 1945
Proceso de intrusión
- Un agente de ataque autónomo exploró la documentación pública de la API y confirmó que 22 de unos 200 endpoints eran accesibles sin autenticación
- Uno de esos endpoints registraba en la base de datos las consultas de búsqueda de usuarios, y como una clave JSON se concatenaba directamente en una sentencia SQL, se produjo una inyección SQL
- Era una vulnerabilidad que herramientas existentes como OWASP ZAP no detectaron
- El agente identificó la estructura de la consulta mediante 15 solicitudes repetidas y extrajo datos reales de producción
- Cuando se expuso el primer identificador de empleado, registró la reacción “WOW!”, y al confirmar la exposición masiva de datos registró “This is devastating.”
Datos expuestos
- 46.5 millones de mensajes de chat: conversaciones sensibles sobre estrategia, proyectos de clientes, finanzas, M&A e investigación interna almacenadas en texto plano
- 728 mil archivos: incluidos 192 mil PDF, 93 mil Excel, 93 mil PowerPoint y 58 mil Word
- Los nombres de archivo por sí solos ya eran sensibles, y existían URLs para descarga directa
- Quedó expuesta la estructura de 57 mil cuentas de usuario, 384 mil asistentes de IA y 94 mil espacios de trabajo
Exposición adicional más allá de la base de datos
- Quedaron expuestos 95 prompts del sistema y configuraciones de modelos de IA, junto con información de configuración de 12 tipos de modelos
- Incluían instrucciones de comportamiento de la IA, guardrails y detalles de despliegue y modelos ajustados finamente
- Quedaron expuestos 3.68 millones de fragmentos de documentos RAG, junto con rutas S3 y metadatos internos
- Incluían investigación propietaria y metodologías de McKinsey acumuladas durante décadas
- Flujo de datos a través de APIs externas de IA: quedaron expuestos 1.1 millones de archivos, 217 mil mensajes de agentes y más de 266 mil almacenes vectoriales de OpenAI
- Al encadenar una vulnerabilidad IDOR, incluso fue posible acceder al historial de búsquedas de empleados individuales
Riesgo de la capa de prompts
- La inyección SQL también incluía permiso de escritura
- Como los prompts del sistema de Lilli estaban almacenados en la misma base de datos, un atacante podía modificarlos
- Con una sola solicitud HTTP era posible cambiar las instrucciones de comportamiento de la IA
- Impacto potencial
- Asesoría manipulada: riesgo de alteración en modelos financieros o propuestas estratégicas
- Filtración de datos: posibilidad de insertar información interna en respuestas de la IA y exponerla al exterior
- Eliminación de guardrails: posibilidad de ignorar controles de acceso y exponer datos internos
- Persistencia encubierta: se alteraría solo el comportamiento de la IA sin cambios en logs ni en el código
- Los prompts son activos de alto valor con una gestión de seguridad más deficiente que el código o los servidores; casi no existen controles de acceso, versionado ni verificación de integridad
- Se plantea la conclusión de que “los prompts de IA son la nueva joya de la corona”
Significado del incidente
- A pesar de que McKinsey es una empresa con capacidades tecnológicas globales e inversión en seguridad, una inyección SQL clásica existió en un sistema en operación durante 2 años
- El agente autónomo exploró y amplificó en cadena vulnerabilidades que los escáneres basados en checklist no detectaron
- CodeWall es la plataforma de seguridad autónoma que llevó a cabo este ataque, y ofrece pruebas de seguridad basadas en IA para revisar continuamente la superficie de ataque real
Cronograma de divulgación
- 2026-02-28: el agente autónomo descubre la inyección SQL y comienza la enumeración de la base de datos
- 2026-02-28: se confirma toda la cadena de ataque y se documentan 27 vulnerabilidades
- 2026-03-01: se reporta al equipo de seguridad de McKinsey un resumen del impacto
- 2026-03-02: el CISO de McKinsey confirma recepción y solicita evidencia detallada
- 2026-03-02: McKinsey corrige todos los endpoints sin autenticación, desconecta el entorno de desarrollo y bloquea la documentación pública de la API
- 2026-03-09: anuncio público
1 comentarios
Opiniones de Hacker News
Conozco un poco la situación interna, y Lilli era un sistema solo para uso interno hasta hace un año
Requería todos los procedimientos de seguridad, como VPN y SSO, pero no sé cuándo pasó a ser público
McKinsey incluso tiene que contratar a una empresa externa de pruebas de penetración para hacer pruebas internas pequeñas
Desde la perspectiva de los desarrolladores de Lilli, este error es comprensible. Tuvieron que fallar varios procedimientos de seguridad al mismo tiempo para que quedara expuesto un endpoint accesible desde fuera
Pero esta vez fue un error con autenticación casi nula
Lo más probable es que algún socio senior haya usado su influencia para volver público a Lilli
En ese momento, la mayor parte del equipo original ya se había movido a otros proyectos, y como los proyectos internos perjudican la evaluación, el personal que quedó no tenía motivación
Al final, esto es un fracaso de la cultura tecnológica de McKinsey
Los desarrolladores trabajan sin una dirección clara, y cuando un socio lanza una idea, todos corren con ella para obtener una buena evaluación
Pero antes de que el proyecto termine, el socio ya se fue a otra cosa, y quienes se quedan no tienen motivo para cerrarlo
Por eso la mayoría de los productos parecen una colección de ideas improvisadas por el liderazgo
Si tratas el software como si fuera una consultoría de seis meses, obviamente se rompe
Que hayan despedido en masa a ingenieros capaces en 2024 también muestra cómo entienden la tecnología
A medida que esta cultura se traslada a otras empresas, se va extendiendo una cultura centrada en resultados de corto plazo, como cambios constantes de UI
Artículo relacionado: McKinsey challenges graduates to use AI chatbot in recruitment overhaul (FT)
Al final parece que solo la mantienen hasta que la pueden empaquetar y vender
Las soluciones de IA duran poco y cambian demasiado rápido. Si estoy equivocado, me gustaría aprender
La fuga de datos ya es grave, pero da más miedo que hubiera permiso de escritura sobre el system prompt
Con una sola consulta
UPDATEse podía cambiar la lógica de respuesta de 43 mil consultoresEra posible manipularlo en silencio, sin despliegues, revisión de código ni logs
De esta forma incluso se podría contaminar el contenido de la consultoría estratégica
Sinceramente, la mayoría de las empresas guarda los prompts simplemente en una tabla de Postgres
Un endpoint sin protección registraba en la DB las consultas de búsqueda de los usuarios; los valores estaban parametrizados, pero las claves JSON se concatenaban directamente al SQL
No fue prompt injection, sino una inyección SQL tradicional
Al final, parece que esto va a llevar a un aumento en la demanda de investigadores de seguridad
Me incomodan un poco los títulos del tipo “AI agent does X”
En realidad fueron pentesters usando un agente de IA quienes eligieron y probaron a McKinsey
Últimamente la gente se confunde y cree que estos sistemas de verdad tienen “capacidad de tomar decisiones”, así que habría que expresarlo con más claridad
La expresión “McKinsey & Company — world-class technology teams” es exagerada
En realidad no se les evalúa así
(Lo digo por experiencia trabajando con McKinsey en un gran banco de inversión)
No sé quién es Codewall AI. No hay ninguna mención oficial de que McKinsey realmente haya parchado esto
Incluso en Google search results casi no hay información
Artículo relacionado
Por cierto, el CEO es eth0izzle (GitHub)
La lección de este incidente es que los agentes de IA exponen rápidamente las debilidades de los sistemas internos
Las herramientas empresariales tradicionales fueron diseñadas bajo la premisa de que las usarían humanos, así que la autenticación, la revisión y los procesos funcionaban como líneas de defensa implícitas
Pero cuando entran agentes autónomos, esa capa de protección se derrumba
De ahora en adelante se necesitará una capa de validación automatizada: habrá que revisar continuamente control de acceso, exposición de datos y comportamientos no intencionales
Este texto es un artículo escrito por un LLM, y parte de la información es inexacta
Eso significa que no hubo suficiente revisión humana, así que la confiabilidad del artículo completo es baja
“Más de 200 documentos de API expuestos públicamente, y 22 de ellos accesibles sin autenticación”
Esa sola frase lo explica todo
Recuerdo que hace tiempo un equipo de McKinsey impulsaba con fuerza Watson. Fue un fracaso total
Desde antes ya había puro hype sobre IA y poca sustancia real
No sé en otros temas, pero si ves a alguien de McKinsey hablando de IA, hay que salir corriendo