2 puntos por GN⁺ 2025-04-05 | 1 comentarios | Compartir por WhatsApp
  • OSINT (inteligencia de fuentes abiertas) originalmente era un “juego de pensar”
  • Últimamente se está convirtiendo cada vez más en un “juego de confianza” que depende de herramientas de IA
  • Empezó con resúmenes de documentos, traducción y redacción de reportes, y ha pasado a investigaciones guiadas por IA, reduciendo el pensamiento crítico
  • Bajo la ilusión de “trabajar de forma más inteligente”, el proceso real de pensamiento se está desmoronando

Cambios provocados por la expansión de la IA

  • El autor también usa a diario ChatGPT, Copilot, Claude, Gemini y otras herramientas
  • El problema es que los analistas han empezado a saltarse los procesos difíciles y a delegar el pensamiento en la IA
  • En OSINT no solo importa la velocidad; lo esencial es el criterio, y ese criterio no lo puede dar un modelo
  • Si no se preservan los hábitos críticos, uno termina convirtiéndose en operador de automatización en vez de investigador

Un estudio que todos deberían leer

  • A inicios de 2025, un equipo de Carnegie Mellon y Microsoft Research publicó un estudio con 319 trabajadores del conocimiento
  • Resultado: cuanto mayor es la confianza en la IA, menor tiende a ser el pensamiento crítico
  • En cambio, las personas con más confianza en sí mismas hacen más preguntas y verifican más
  • La confianza en la IA termina conectándose con la renuncia al pensamiento propio

Lo que ya se ve en el trabajo real

  • En vez de formular hipótesis, se ha pasado a pedirle ideas a la IA
  • En vez de verificar fuentes, se asume que la IA ya lo hizo
  • En vez de evaluar perspectivas diversas, se edita el resumen de la IA y se da por terminado
  • Incluso los expertos se acostumbran a esta forma de trabajo y muchas veces dejan de pensar

Casos de mal uso de IA en OSINT

Fallo en la verificación de imágenes

  • Se subió una foto de una protesta a Gemini y se preguntó “¿Dónde fue tomada esta foto?”; respondió “París”
  • Al ver las señales, las placas y el estilo arquitectónico, está claro que era Bélgica, pero por confiar en la IA se llegó a una conclusión equivocada

Distorsión en perfiles de personas

  • Al resumir con Claude la actividad en línea de una persona, se la describe como “activista, trabajador tecnológico, figura inofensiva”
  • Se omite su historial en foros de extrema derecha → riesgo de seleccionarlo como ponente de un evento sin validación

Fallo al analizar campañas de desinformación

  • Se ingresaron mensajes de Telegram en ChatGPT para pedir un resumen y análisis de patrones
  • Solo se destacaron palabras clave, mientras se pasaron por alto los patrones lingüísticos de un grupo ruso de manipulación informativa

Amenazas que enfrentan los analistas OSINT

  • Todos los casos anteriores son posibilidades de fallo muy reales en OSINT
  • El problema no fue la malicia ni la pereza, sino que los analistas confiaron demasiado en las herramientas
  • La IA no puede sustituir la capacidad de investigación, y su uso acrítico pone en riesgo al OSINT

El oficio de OSINT se está muriendo

  • El oficio no es una “lista de herramientas”, sino el hábito mental de dudar y comprobar
  • Es el instinto de volver a mirar cuando algo se siente raro, revisar metadatos y detectar inconsistencias de idioma
  • La IA hace que el trabajo parezca fácil y elimina el proceso de pensamiento
  • En medio de la comodidad, el oficio se está perdiendo

Comparación entre analistas de antes y de ahora

Antes:

  • Se analizaban imágenes borrosas con varias herramientas, se revisaba información EXIF y se hacía búsqueda inversa usando puntos de referencia
  • Se traducían manualmente publicaciones en otros idiomas, se seguían hashtags y se revisaba el historial de actividad de cuentas
  • Se analizaba el WHOIS de dominios, se rastreaban subdominios y se investigaban conexiones de correo electrónico

Ahora:

  • Se mete la imagen en una IA, se confirma una ubicación y se sigue adelante
  • Se le pide a la IA que resuma una publicación y se usa de inmediato
  • Se le pregunta a la IA “¿Quién opera este dominio?” y se confía en la respuesta

Consecuencias de perder el oficio

  • Se pierde la capacidad de pensar en contexto, contrastar fuentes, validar hipótesis y explorar con profundidad
  • La IA induce a error con frases convincentes y seguridad aparente
  • Actores maliciosos aprovechan las debilidades de la IA para inyectar datos manipulados

El nuevo rol del analista: vigilante de la IA

  • La GenAI no va a desaparecer; el problema surge cuando se la considera un “criterio de juicio” y no un “asistente”
  • Ahora el analista necesita asumir el rol de probar, verificar y desconfiar de la IA
  • Ya no debe ser “quien encuentra respuestas”, sino “quien rompe las respuestas”

Cambio en la mentalidad del analista

  • Antes el papel era simplemente hacerle preguntas a la IA y recibir respuestas,
    ahora debe pasar a interrogar y verificar minuciosamente las respuestas que la IA produce
  • Antes uno se limitaba a aceptar tal cual lo que la IA resumía,
    ahora hay que desmenuzar ese resumen y analizar qué información falta y qué interpretación se introdujo
  • Antes era común usar o seguir directamente las sugerencias dadas por la IA,
    ahora hace falta descomponer por qué surgió esa sugerencia y reconstruirla desde cero
  • Antes existía la tendencia a creer en las respuestas limpias y tajantes que presentaba la IA,
    ahora hay que rastrear de dónde vienen y en qué fuentes se basan, aunque el proceso sea sucio y complejo
  • Antes se delegaba en la IA la elaboración de perfiles sobre una persona o un hecho,
    ahora es clave verificar por cuenta propia si la narrativa de ese perfil coincide con el contexto real
  • Antes, si la IA hacía bien un borrador, se entregaba tal cual,
    ahora se necesita desarmar ese borrador, detectar sus problemas y volver a ensamblarlo para hacerlo realmente propio

Cómo revivir el pensamiento crítico

Añadir “fricción” a propósito

  • Los resultados demasiado rápidos son peligrosos
  • Aunque la información venga de la IA, hay que ejecutar igual el proceso de verificación que siempre se hacía

Tácticas:

  • “¿Qué habría hecho si no existiera la IA?” → ejecutar realmente ese trabajo
  • Buscar deliberadamente contraejemplos para comprobar si la salida de la IA es correcta
  • Pedirle a otro modelo “haz una interpretación completamente opuesta”

Recuperar el hábito de verificar fuentes

  • GenAI no cita al estilo OSINT
  • Todo nombre, enlace o cita que proporcione el modelo debe rastrearse hasta su origen

Tácticas:

  • Comparar lado a lado el resultado de la IA vs. las fuentes reales
  • Aunque se vea un resumen, abrir siempre el texto original

Tratar a la IA como “compañera de pensamiento”

  • La IA no es más que una analista junior; necesita supervisión

Tácticas:

  • Pedirle que refute mi hipótesis
  • Darle mis notas de investigación y pedirle que señale qué falta
  • Usarla para simular perspectivas diversas

Comparar entre modelos

  • Comparar las salidas de ChatGPT, Claude, Gemini y Copilot
  • Tomar las diferencias como señales e investigar sus causas

“Romper” el modelo a propósito

  • Hacer preguntas intencionalmente contradictorias o ambiguas
  • Identificar patrones de error → compensarlos con juicio humano

Seguir haciendo el “trabajo difícil”

  • La IA es una herramienta de apoyo; el trabajo central debe hacerse directamente

Tácticas:

  • Intentar geolocalizar por cuenta propia antes de usar la IA
  • Escribir un resumen propio antes de ver el resumen de la IA
  • Antes de perfilar con IA, hacer primero el perfil manualmente y luego comparar

El colapso silencioso y cómo enfrentarlo

  • El colapso del pensamiento crítico no llega de golpe
  • Mientras más rápido y más limpio se vuelve un informe, mayor puede ser la crisis
  • Es peligroso acostumbrarse a creer, sin verificar, en información que parece correcta

Sin embargo, todo esto se puede revertir

  • No es necesario excluir a la IA
  • En cambio, hay que enfrentarla, dudar de ella y refutarla
  • No eres un “usuario de herramientas”, sino un “investigador”

✅ Lista de verificación para prevenir el abuso de IA en OSINT

  • ✅ ¿Rastreaste el origen de la salida de la IA?
  • ✅ ¿Consultaste fuentes no basadas en IA antes de aceptar el resultado?
  • ✅ ¿Lo desafiaste con una hipótesis contraria o con otro modelo?
  • ✅ ¿Lo verificaste cruzadamente con al menos dos fuentes humanas?
  • ✅ ¿Ejecutaste al menos una tarea de forma manual?
  • ✅ ¿Revisaste si la salida de la IA contiene supuestos implícitos?
  • ✅ ¿Trataste a la IA como compañera de pensamiento y no como fuente de verdad?
  • ✅ ¿Volviste intencionalmente más lento el proceso de verificación?
  • ✅ ¿Te preguntaste “qué estoy creyendo sin haberlo verificado”?
  • ✅ ¿Les indicaste a los lectores si se usó IA en el resultado OSINT?

1 comentarios

 
GN⁺ 2025-04-05
Opiniones en Hacker News

• Los participantes no eran flojos. Eran profesionales con mucha experiencia

  • Suponer que antes de la llegada de la IA eran excelentes pensadores críticos es una exageración
  • Según mi experiencia, quienes tercerizan su pensamiento en los LLM son personas que ya lo tercerizaban en podcasts, artículos de noticias, publicaciones de Reddit, Twitter, TikTok, etc.
  • Los LLM les dieron opiniones que podían repetir

• Lo aterrador es que muchos usuarios creen que están pensando críticamente gracias a la GenAI

  • No es muy distinto de sentirse experto por ver videos de TikTok
  • Las personas que tercerizan su pensamiento y recopilan opiniones que quieren oír ahora pueden llegar con más facilidad a la conclusión que desean

• En la inteligencia de fuentes abiertas, el gran problema no es el análisis profundo, sino encontrar qué vale la pena ver en medio del aluvión de información

  • Desde la perspectiva de la CIA, la comunidad de inteligencia de EE. UU. usa un sistema de IA generativa llamado OSIRIS para analizar información de fuentes abiertas
  • El exdirector de la CIA dijo que se usa principalmente para resúmenes

• En lugar de formular hipótesis, los usuarios le piden ideas a la IA

  • En lugar de verificar las fuentes, asumen que la IA ya las verificó
  • En lugar de evaluar múltiples perspectivas, integran y editan el resumen de la IA y siguen adelante
  • Esto no es una situación hipotética; es algo que realmente está ocurriendo

• Creo que importan los actos y momentos físicos de escribir o analizar

  • Llevar una imagen borrosa a un software de edición fotográfica y usar herramientas de manipulación es una parte esencial para resolver el problema
  • Estoy elaborando un diagrama de flujo del proceso para una línea de manufactura de un nuevo producto
  • Parece que las ideas y las preguntas surgen en esos pequeños espacios

• Esta es una de las maneras en que la IA puede volver más estúpidos a los humanos para alcanzar una inteligencia sobrehumana

  • El uso de GenAI parece más dañino que útil como herramienta
  • En un escenario donde se sube una foto y se pregunta por la ubicación, la IA propone una ubicación incorrecta

• Siento que la IA hace más lento el aprendizaje

  • Estoy aprendiendo Rust, y aunque la IA ayuda a empezar, toma más tiempo alcanzar la capacidad de hacer el trabajo
  • Creo que debería apagar la IA y esforzarme por mi cuenta

• Llevo más de 20 años trabajando como analista y usando OSINT e IA

  • La mayoría de los analistas sí tienen capacidad de pensamiento crítico
  • Como OSINT no siempre está controlado por procedimientos legales, muchas personas pueden convertirse en analistas de OSINT
  • Existe presión para ceder ante las sugerencias de la IA

• OSINT y el análisis son habilidades profesionales con una metodología

  • El OSINT con IA hace posible cosas que antes eran imposibles
  • La falta de pensamiento crítico puede deberse a que ahora hay menos personal o menos procesos para validar los datos

• Si quisiera entender los fundamentos de OSINT, visitaría el sitio web oficial

  • Pero una consulta simple a chatgpt daría una respuesta más rápida

• Esta publicación no se limita a OSINT y puede aplicarse ampliamente donde la IA se adopta como una nueva herramienta