El pensamiento crítico en OSINT está colapsando gradualmente por culpa de la IA
(dutchosintguy.com)- OSINT (inteligencia de fuentes abiertas) originalmente era un “juego de pensar”
- Últimamente se está convirtiendo cada vez más en un “juego de confianza” que depende de herramientas de IA
- Empezó con resúmenes de documentos, traducción y redacción de reportes, y ha pasado a investigaciones guiadas por IA, reduciendo el pensamiento crítico
- Bajo la ilusión de “trabajar de forma más inteligente”, el proceso real de pensamiento se está desmoronando
Cambios provocados por la expansión de la IA
- El autor también usa a diario ChatGPT, Copilot, Claude, Gemini y otras herramientas
- El problema es que los analistas han empezado a saltarse los procesos difíciles y a delegar el pensamiento en la IA
- En OSINT no solo importa la velocidad; lo esencial es el criterio, y ese criterio no lo puede dar un modelo
- Si no se preservan los hábitos críticos, uno termina convirtiéndose en operador de automatización en vez de investigador
Un estudio que todos deberían leer
- A inicios de 2025, un equipo de Carnegie Mellon y Microsoft Research publicó un estudio con 319 trabajadores del conocimiento
- Resultado: cuanto mayor es la confianza en la IA, menor tiende a ser el pensamiento crítico
- En cambio, las personas con más confianza en sí mismas hacen más preguntas y verifican más
- La confianza en la IA termina conectándose con la renuncia al pensamiento propio
Lo que ya se ve en el trabajo real
- En vez de formular hipótesis, se ha pasado a pedirle ideas a la IA
- En vez de verificar fuentes, se asume que la IA ya lo hizo
- En vez de evaluar perspectivas diversas, se edita el resumen de la IA y se da por terminado
- Incluso los expertos se acostumbran a esta forma de trabajo y muchas veces dejan de pensar
Casos de mal uso de IA en OSINT
Fallo en la verificación de imágenes
- Se subió una foto de una protesta a Gemini y se preguntó “¿Dónde fue tomada esta foto?”; respondió “París”
- Al ver las señales, las placas y el estilo arquitectónico, está claro que era Bélgica, pero por confiar en la IA se llegó a una conclusión equivocada
Distorsión en perfiles de personas
- Al resumir con Claude la actividad en línea de una persona, se la describe como “activista, trabajador tecnológico, figura inofensiva”
- Se omite su historial en foros de extrema derecha → riesgo de seleccionarlo como ponente de un evento sin validación
Fallo al analizar campañas de desinformación
- Se ingresaron mensajes de Telegram en ChatGPT para pedir un resumen y análisis de patrones
- Solo se destacaron palabras clave, mientras se pasaron por alto los patrones lingüísticos de un grupo ruso de manipulación informativa
Amenazas que enfrentan los analistas OSINT
- Todos los casos anteriores son posibilidades de fallo muy reales en OSINT
- El problema no fue la malicia ni la pereza, sino que los analistas confiaron demasiado en las herramientas
- La IA no puede sustituir la capacidad de investigación, y su uso acrítico pone en riesgo al OSINT
El oficio de OSINT se está muriendo
- El oficio no es una “lista de herramientas”, sino el hábito mental de dudar y comprobar
- Es el instinto de volver a mirar cuando algo se siente raro, revisar metadatos y detectar inconsistencias de idioma
- La IA hace que el trabajo parezca fácil y elimina el proceso de pensamiento
- En medio de la comodidad, el oficio se está perdiendo
Comparación entre analistas de antes y de ahora
Antes:
- Se analizaban imágenes borrosas con varias herramientas, se revisaba información EXIF y se hacía búsqueda inversa usando puntos de referencia
- Se traducían manualmente publicaciones en otros idiomas, se seguían hashtags y se revisaba el historial de actividad de cuentas
- Se analizaba el WHOIS de dominios, se rastreaban subdominios y se investigaban conexiones de correo electrónico
Ahora:
- Se mete la imagen en una IA, se confirma una ubicación y se sigue adelante
- Se le pide a la IA que resuma una publicación y se usa de inmediato
- Se le pregunta a la IA “¿Quién opera este dominio?” y se confía en la respuesta
Consecuencias de perder el oficio
- Se pierde la capacidad de pensar en contexto, contrastar fuentes, validar hipótesis y explorar con profundidad
- La IA induce a error con frases convincentes y seguridad aparente
- Actores maliciosos aprovechan las debilidades de la IA para inyectar datos manipulados
El nuevo rol del analista: vigilante de la IA
- La GenAI no va a desaparecer; el problema surge cuando se la considera un “criterio de juicio” y no un “asistente”
- Ahora el analista necesita asumir el rol de probar, verificar y desconfiar de la IA
- Ya no debe ser “quien encuentra respuestas”, sino “quien rompe las respuestas”
Cambio en la mentalidad del analista
- Antes el papel era simplemente hacerle preguntas a la IA y recibir respuestas,
ahora debe pasar a interrogar y verificar minuciosamente las respuestas que la IA produce - Antes uno se limitaba a aceptar tal cual lo que la IA resumía,
ahora hay que desmenuzar ese resumen y analizar qué información falta y qué interpretación se introdujo - Antes era común usar o seguir directamente las sugerencias dadas por la IA,
ahora hace falta descomponer por qué surgió esa sugerencia y reconstruirla desde cero - Antes existía la tendencia a creer en las respuestas limpias y tajantes que presentaba la IA,
ahora hay que rastrear de dónde vienen y en qué fuentes se basan, aunque el proceso sea sucio y complejo - Antes se delegaba en la IA la elaboración de perfiles sobre una persona o un hecho,
ahora es clave verificar por cuenta propia si la narrativa de ese perfil coincide con el contexto real - Antes, si la IA hacía bien un borrador, se entregaba tal cual,
ahora se necesita desarmar ese borrador, detectar sus problemas y volver a ensamblarlo para hacerlo realmente propio
Cómo revivir el pensamiento crítico
Añadir “fricción” a propósito
- Los resultados demasiado rápidos son peligrosos
- Aunque la información venga de la IA, hay que ejecutar igual el proceso de verificación que siempre se hacía
Tácticas:
- “¿Qué habría hecho si no existiera la IA?” → ejecutar realmente ese trabajo
- Buscar deliberadamente contraejemplos para comprobar si la salida de la IA es correcta
- Pedirle a otro modelo “haz una interpretación completamente opuesta”
Recuperar el hábito de verificar fuentes
- GenAI no cita al estilo OSINT
- Todo nombre, enlace o cita que proporcione el modelo debe rastrearse hasta su origen
Tácticas:
- Comparar lado a lado el resultado de la IA vs. las fuentes reales
- Aunque se vea un resumen, abrir siempre el texto original
Tratar a la IA como “compañera de pensamiento”
- La IA no es más que una analista junior; necesita supervisión
Tácticas:
- Pedirle que refute mi hipótesis
- Darle mis notas de investigación y pedirle que señale qué falta
- Usarla para simular perspectivas diversas
Comparar entre modelos
- Comparar las salidas de ChatGPT, Claude, Gemini y Copilot
- Tomar las diferencias como señales e investigar sus causas
“Romper” el modelo a propósito
- Hacer preguntas intencionalmente contradictorias o ambiguas
- Identificar patrones de error → compensarlos con juicio humano
Seguir haciendo el “trabajo difícil”
- La IA es una herramienta de apoyo; el trabajo central debe hacerse directamente
Tácticas:
- Intentar geolocalizar por cuenta propia antes de usar la IA
- Escribir un resumen propio antes de ver el resumen de la IA
- Antes de perfilar con IA, hacer primero el perfil manualmente y luego comparar
El colapso silencioso y cómo enfrentarlo
- El colapso del pensamiento crítico no llega de golpe
- Mientras más rápido y más limpio se vuelve un informe, mayor puede ser la crisis
- Es peligroso acostumbrarse a creer, sin verificar, en información que parece correcta
Sin embargo, todo esto se puede revertir
- No es necesario excluir a la IA
- En cambio, hay que enfrentarla, dudar de ella y refutarla
- No eres un “usuario de herramientas”, sino un “investigador”
✅ Lista de verificación para prevenir el abuso de IA en OSINT
- ✅ ¿Rastreaste el origen de la salida de la IA?
- ✅ ¿Consultaste fuentes no basadas en IA antes de aceptar el resultado?
- ✅ ¿Lo desafiaste con una hipótesis contraria o con otro modelo?
- ✅ ¿Lo verificaste cruzadamente con al menos dos fuentes humanas?
- ✅ ¿Ejecutaste al menos una tarea de forma manual?
- ✅ ¿Revisaste si la salida de la IA contiene supuestos implícitos?
- ✅ ¿Trataste a la IA como compañera de pensamiento y no como fuente de verdad?
- ✅ ¿Volviste intencionalmente más lento el proceso de verificación?
- ✅ ¿Te preguntaste “qué estoy creyendo sin haberlo verificado”?
- ✅ ¿Les indicaste a los lectores si se usó IA en el resultado OSINT?
1 comentarios
Opiniones en Hacker News
• Los participantes no eran flojos. Eran profesionales con mucha experiencia
• Lo aterrador es que muchos usuarios creen que están pensando críticamente gracias a la GenAI
• En la inteligencia de fuentes abiertas, el gran problema no es el análisis profundo, sino encontrar qué vale la pena ver en medio del aluvión de información
• En lugar de formular hipótesis, los usuarios le piden ideas a la IA
• Creo que importan los actos y momentos físicos de escribir o analizar
• Esta es una de las maneras en que la IA puede volver más estúpidos a los humanos para alcanzar una inteligencia sobrehumana
• Siento que la IA hace más lento el aprendizaje
• Llevo más de 20 años trabajando como analista y usando OSINT e IA
• OSINT y el análisis son habilidades profesionales con una metodología
• Si quisiera entender los fundamentos de OSINT, visitaría el sitio web oficial
• Esta publicación no se limita a OSINT y puede aplicarse ampliamente donde la IA se adopta como una nueva herramienta