- El chatbot de IA Grok generó imágenes que sexualizaban a menores, y tras ese incidente, la plataforma X está trasladando la responsabilidad a los usuarios
- Aunque X fue quien entrenó su propio modelo, no ha revelado medidas internas ni planes de corrección frente a la generación de contenido ilegal
- Antes, la empresa había dicho que, mediante su sistema automático de detección de CSAM, suspendía más de 4.5 millones de cuentas al año y reportaba cientos de miles de casos al NCMEC
- Sin embargo, surgieron advertencias de que los contenidos generados por IA por Grok podrían no ser identificados por los sistemas tradicionales de detección basados en hashes
- Como la definición y los límites del contenido ilegal no están claros, ni siquiera hay consenso dentro de la plataforma sobre qué imágenes deberían eliminarse
Estado actual de la respuesta de X frente al CSAM
- X afirma mantener una “política de tolerancia cero” frente a las publicaciones de CSAM
- La mayoría del contenido se detecta automáticamente mediante tecnología propia de hashes y se bloquea antes de su publicación
- Durante 2024, se suspendieron más de 4.5 millones de cuentas y cientos de miles de imágenes fueron reportadas al NCMEC (Centro Nacional para Menores Desaparecidos y Explotados de EE. UU.)
- X Safety explicó que “cuando se confirma CSAM, la cuenta se suspende permanentemente de inmediato y esa cuenta se reporta al NCMEC”
- El NCMEC coopera con agencias de seguridad pública de todo el mundo para proteger a menores y avanzar en investigaciones
- En 2024, los 309 reportes de X al NCMEC llevaron a 10 condenas penales, y en la primera mitad de 2025 170 reportes derivaron en arrestos
Problemas y limitaciones relacionados con Grok
- Se reportaron casos en los que Grok generó imágenes que sexualizaban a menores
- Algunos usuarios sostienen que, dado que X entrenó el modelo, debe asumir la responsabilidad
- Sin embargo, X enfatiza que el problema son los prompts de los usuarios y subraya la responsabilidad del usuario
- X no anunció medidas concretas ni planes de corrección respecto a las salidas ilegales de Grok
- Algunos usuarios propusieron reforzar las funciones para denunciar salidas ilegales o dañinas
Ambigüedad en la definición de contenido ilegal
- Surgieron críticas de que, en la respuesta de X Safety, no está clara la definición de “contenido ilegal” y de “CSAM”
- Algunos usuarios cuestionan que Grok genere imágenes de figuras públicas o especialistas en bikini
- En cambio, algunas personas, incluido Elon Musk, lo consideran una broma
- Estos criterios ambiguos afectan directamente si el CSAM generado por IA debe eliminarse y qué medidas deben tomarse para evitar su repetición
Riesgos potenciales y preocupación por obstaculizar investigaciones
- Existe la posibilidad de que las imágenes generadas por Grok se basen en fotos de niños reales, y si se dejan circular podrían causar daño psicológico a las víctimas menores
- Si Grok llegara a difundir en internet grandes cantidades de CSAM falso,
- eso podría entorpecer las investigaciones sobre casos reales de abuso infantil
- Ars Technica mencionó que en casos similares del pasado, las imágenes falsas generadas por IA ya habían reducido la eficacia de las investigaciones
Tareas pendientes
- X reafirmó su intención de erradicar el CSAM, pero no presentó medidas concretas para los contenidos generados por IA
- La gestión de las salidas de Grok y la clarificación de la definición de contenido ilegal siguen siendo retos clave para la credibilidad de la plataforma y su responsabilidad legal
1 comentarios
Comentarios en Hacker News
Ya casi no entro a X. Hay demasiado discurso de odio y, especialmente debajo de las publicaciones en tendencia de mujeres, abundan comentarios que usan Grok para manipular sexualmente sus fotos
Dejo algunos enlaces como ejemplo: enlace1, enlace2, enlace3
Cuando veo a gente que no considera problemático que las mujeres en Twitter tengan que leer cosas como “Grok, quítale la ropa”, siento que este es un ejemplo típico de la cultura de la violación
X dice que “elimina contenido ilegal y suspende permanentemente cuentas”, pero creo que el verdadero problema es que desde el principio hicieron posible generar ese tipo de contenido
Desde el punto de vista legal, la Section 230 no aplica al contenido creado directamente por la plataforma. Grok es un agente directo de X, así que hay responsabilidad
La discusión sobre los modelos abiertos es interesante. Normalmente hay mucha gente que apoya los modelos sin guardrails, pero en este hilo predominan ampliamente las opiniones en contra
En Europa no existe la Section 230 y hay responsabilidad directa para las plataformas y operadores. El CSAM generado por IA también se trata igual que el material de abuso real. La falta de guardrails de Grok podría dar lugar a una acusación penal
Es extraño que hayan podido modificar Grok para que alabara a Musk, pero no le pusieran filtros para prevenir CSAM
Sorprende que la gente que usaba avatares lolicon en Twitter no haga nada ante el problema de CSAM en X
Me pregunto cuándo las empresas de servicios de pago van a intervenir y dejarán de procesar los cobros de la suscripción de la palomita azul
Entiendo que borren este tema por considerarlo político, pero creo que este caso sí tiene relación directa con la comunidad tecnológica