Pensar — rápido, lento y con inteligencia artificial: cómo la IA está reconfigurando la forma en que piensan los humanos
(papers.ssrn.com)Thinking—Fast, Slow, and Artificial
Un estudio plantea que la IA no es una herramienta, sino un "tercer sistema de pensamiento"
- Enero de 2026, Wharton School de la Universidad de Pensilvania
- Steven D. Shaw (investigador doctoral)
- Gideon Nave (profesor de marketing/ciencias del comportamiento)
- Amplía el modelo de pensamiento humano de System 1 / 2 → System 1 / 2 / 3
- Afirmación central:
→ La IA no es una simple herramienta, sino un sistema de pensamiento que opera externamente (System 3)
Conceptos clave
Marco previo
- System 1: intuición rápida
- System 2: análisis lento
Concepto añadido
- System 3: IA (sistema cognitivo externo)
- Opera fuera del cerebro
- Automatizado, basado en datos, rápido
- Puede asistir o sustituir el pensamiento humano
Cognitive Surrender (rendición cognitiva)
-
Definición:
→ Fenómeno en el que se aceptan los resultados de la IA tal cual, sin verificarlos -
Diferencia frente a conceptos previos:
- Offloading: uso de herramientas (como una calculadora)
- Surrender: ceder el juicio mismo
-
Rasgo distintivo:
- El usuario no percibe "la IA respondió esto", sino
→ "yo lo juzgué así"
- El usuario no percibe "la IA respondió esto", sino
Resumen del experimento
- Participantes: 1,372 personas
- Total de 9,593 trials
- La precisión de la IA fue manipulada intencionalmente
Resultado 1: las personas siguen a la IA casi tal cual
- IA correcta → 92.7% la sigue
- IA incorrecta → 79.8% la sigue
→ Aunque se equivoque, la mayoría la acepta
Resultado 2: el desempeño queda subordinado a la IA
- Brain-only: 45.8%
- IA correcta: 71.0%
- IA incorrecta: 31.5%
→ Si la IA falla, el rendimiento es peor que actuar en solitario
Resultado 3: problema de confianza + seguridad subjetiva
- Al usar IA:
- la confianza subjetiva aumenta +11.7%p
- sin importar si había error o no
→ Incluso cuando se equivoca, genera más certeza
Resultados según la condición
Presión de tiempo
- Se debilita el pensamiento humano (disminuye System 2)
- Se mantiene la dependencia de la IA
- Resultado:
- si la IA acierta, ayuda
- si la IA falla, sigue empeorando el resultado
Recompensas + retroalimentación
- Aumenta la corrección de errores
- Sube la tasa de rechazo a respuestas erróneas de la IA
- Pero:
- la cognitive surrender no desaparece por completo
Diferencias individuales
Aumenta la cognitive surrender cuando hay:
- alta confianza en la IA
- baja tendencia al pensamiento analítico
- baja capacidad cognitiva
Disminuye la cognitive surrender con:
- alto Fluid IQ
- alta Need for Cognition
Cambio importante de marco
El pensamiento humano ahora ya no se organiza como
"pensamiento rápido vs. pensamiento lento", sino como
→ "mi pensamiento vs. el pensamiento de la IA"
Riesgos clave
- El desempeño cambia directamente según la precisión de la IA
- En situaciones con error:
- disminuye el juicio
- aumenta la certeza
- Se vuelve ambiguo quién es el responsable
Implicaciones
-
El problema no es que la IA se equivoque, sino
→ que el usuario no la verifique -
Especialmente
→ el riesgo se amplifica en áreas que exigen juicios de alta inteligencia
Relacionado: https://news.ycombinator.com/item?id=47467913
2 comentarios
Mmm, sí, así es. Cuando la IA toma una decisión equivocada, en vez de pensar por mi cuenta termino pidiéndole a la IA que lo corrija un poco, y al final como no salía una respuesta, recuerdo que abrí una sesión nueva...
Por qué los sistemas de IA no aprenden y qué hacer al respecto
Lecciones sobre el aprendizaje autónomo desde la ciencia cognitiva
Emmanuel Dupoux, Yann LeCun, Jitendra Malik
https://arxiv.org/pdf/2603.15381