7 puntos por nell93 2026-03-12 | Aún no hay comentarios. | Compartir por WhatsApp
  • Al observar AIxCC y las tendencias de los concursos de hacking, percibí un cambio de paradigma en la industria de la seguridad y construí directamente un flujo de trabajo práctico de descubrimiento de vulnerabilidades del mundo real.
  • Al inicio también consideré vulnerabilidades de memoria o hacking de caja negra, pero cambié de rumbo debido a limitaciones de políticas y al riesgo de provocar caídas del servidor. En su lugar, elegí como objetivo grandes proyectos web open source (Nextcloud, Matomo, Grafana, etc.) donde el código está publicado de forma transparente y la capacidad de los LLM para comprender el contexto puede lucirse mucho al analizar lógica de negocio compleja.
  • Para resolver el problema del costo (sostenibilidad) por el consumo de tokens, tomé como referencia una publicación de benchmark que vi en GeekNews y diseñé una arquitectura de enrutamiento de 3 etapas basada en modelos GLM con una excelente relación costo-rendimiento.
    • Finding (GLM-4.7): aumentar la cantidad de llamadas a la versión 4.7, unas 3 veces más barata que los modelos de gama alta, para explorar masivamente candidatos a vulnerabilidad
    • Semi-Triage (GLM-5): filtrar en una primera etapa los falsos positivos evidentes
    • Triage (Codex 5.3): validar de forma final con el modelo de gama más alta solo los datos que sobrevivieron, y enviar alertas automáticas a Discord/Notion (antes del reporte, una persona reproduce y verifica manualmente)
  • Mediante prompt engineering, controlé la característica de pereza típica de los LLM de “revisar todo por encima”.
    • Forzar que siempre se impriman en la respuesta estos 3 elementos: “condiciones del atacante, condiciones del servidor e impacto de seguridad (CIA)”
    • Hacer que crucen la información con la política y la documentación oficial de seguridad del open source para distinguir con claridad entre un simple bug y una vulnerabilidad de seguridad
  • Como resultado, la IA logró señalar pequeños vacíos lógicos que una persona puede pasar por alto al comparar decenas de miles de líneas de código de routing y motores de permisos, cuando la concentración empieza a bajar.
  • En particular, la IA detectó una falla en la API de gestión de permisos de dashboards de Grafana, donde se omitía el argumento de scope en una validación interna de permisos, y reporté una grave vulnerabilidad de escalación de privilegios que permite tomar el control de otros dashboards (CVE-2026-21721, CVSS 8.1).
  • Además de eso, obtuve múltiples zero-days (CVE) y recompensas en Nextcloud (XSS, bypass de autenticación), Protobuf (DoS), Airflow y Discourse, entre otros.
  • Comparto la idea de que, en adelante, la IA probablemente reemplazará en gran medida el trabajo de descubrimiento simple de vulnerabilidades (red team), y que la capacidad de diseñar directamente este tipo de flujos de trabajo de seguridad con IA, junto con la formulación de estrategias defensivas desde la perspectiva blue team adaptadas al contexto del negocio, será cada vez más importante para los hackers.

Aún no hay comentarios.

Aún no hay comentarios.