Las herramientas de detección de IA no pueden confirmar si un texto fue escrito por IA [Traducción]
(blogbyash.com)-
Planteamiento: A medida que generar textos con IA se vuelve más fácil, la presión por detectarla se dispara
- Cualquiera puede sacar texto con ChatGPT y otros modelos, pero aumentan los casos en los que escuelas, empresas y clientes, al fiar demasiado en los detectores de IA, confunden texto humano como IA (falso positivo).
- El artículo original subraya la presión de tener que distinguir la escritura humana real en medio de una avalancha de contenido de IA y advierte que la sospecha excesiva termina acallando a quienes crean.
-
Cómo funcionan las herramientas de detección de IA
- La mayoría analiza la 'perplejidad' y la 'burstiness' (variación en longitud y complejidad de las oraciones) para puntuar patrones de IA como estructura repetitiva y monótona o tono uniforme.
- Herramientas como GPTZero calculan una "probabilidad de generación por IA" del XX% a partir de la distribución de probabilidad por oración, pero eso es solo una estimación estadística, no una prueba concluyente.
-
Límites de desempeño: lo que muestran estudios y pruebas
- En pruebas de referencia, la precisión varía mucho y ronda entre 60% y 90%, y cae por debajo del 50% frente a IA avanzadas como GPT-4o o textos reescritos por humanos.
- Casos en los que un texto pasa de "100% IA" a "0% IA" son frecuentes solo con traducción (incluso usando Google Translate) o parafraseo (como con QuillBot), y el desempeño es aún más débil en coreano y textos de mercados no anglófonos.
-
Riesgos operativos: el desastre que causan los falsos positivos
- En tareas universitarias ya se sanciona a estudiantes por "conducta indebida" solo con resultados del detector, y hay casos reales de clientes corporativos que cancelan contratos alegando que se "usó IA".
- Incluso la postura oficial de OpenAI es que "no existe una herramienta de detección de IA confiable", y el texto lo toma como base para advertir fuertemente que los resultados del detector no constituyen evidencia legal.
-
Resumen rápido de funciones por herramienta
- GPTZero: especializado para entornos educativos, ofrece reportes por párrafo con análisis de perplejidad y burstiness. (Limitación: alta tasa de falsos positivos en textos reescritos)
- Originality.ai: detecta IA y plagio al mismo tiempo, con puntuaciones y resaltados detallados. (Limitación: pago, probabilidades que inducen sobrerreacción)
- Crossplag: soporte multilingüe basado en ML, fuerte en el mercado académico. (Limitación: alta variabilidad por dominio y vulnerabilidad en traducciones)
- Otros (QuillBot, Grammarly AI Detector): combinan versiones gratuitas y de pago, enfocados en escaneo rápido. (Limitación común: débiles contra IA avanzada o textos editados)
-
Consejos prácticos: enfoque más allá de los detectores
- Usa el detector solo como "señal de alerta" y valida la autenticidad con el proceso de redacción (historial de borradores, registro de versiones de Git), metadatos y entrevistas.
- A nivel de políticas, define claramente el alcance del uso de IA (por ejemplo, "solo generación de ideas con IA, texto final redactado por humanos"); para autores, la mejor práctica es hacer esto transparente.
-
Estrategias de protección para autores: acumular evidencia en lugar de atajos
- En lugar de trucos de "humanización" para evitar la IA (sustitución de sinónimos, etc.), conviene dejar evidencia con marcas de tiempo de teclado y registros de edición, además de variar el estilo (incluir giros personales y humor).
- Desde la perspectiva de lectores y evaluadores, no se debe tomar una puntuación de "93% IA" como prueba absoluta, sino aplicar validación múltiple (varias herramientas + revisión humana).
Aún no hay comentarios.