24 puntos por helio 2026-03-22 | 2 comentarios | Compartir por WhatsApp

Thinking—Fast, Slow, and Artificial

Un estudio plantea que la IA no es una herramienta, sino un "tercer sistema de pensamiento"

  • Enero de 2026, Wharton School de la Universidad de Pensilvania
    • Steven D. Shaw (investigador doctoral)
    • Gideon Nave (profesor de marketing/ciencias del comportamiento)
  • Amplía el modelo de pensamiento humano de System 1 / 2 → System 1 / 2 / 3
  • Afirmación central:
    → La IA no es una simple herramienta, sino un sistema de pensamiento que opera externamente (System 3)

Conceptos clave

Marco previo

  • System 1: intuición rápida
  • System 2: análisis lento

Concepto añadido

  • System 3: IA (sistema cognitivo externo)
    • Opera fuera del cerebro
    • Automatizado, basado en datos, rápido
    • Puede asistir o sustituir el pensamiento humano

Cognitive Surrender (rendición cognitiva)

  • Definición:
    → Fenómeno en el que se aceptan los resultados de la IA tal cual, sin verificarlos

  • Diferencia frente a conceptos previos:

    • Offloading: uso de herramientas (como una calculadora)
    • Surrender: ceder el juicio mismo
  • Rasgo distintivo:

    • El usuario no percibe "la IA respondió esto", sino
      → "yo lo juzgué así"

Resumen del experimento

  • Participantes: 1,372 personas
  • Total de 9,593 trials
  • La precisión de la IA fue manipulada intencionalmente

Resultado 1: las personas siguen a la IA casi tal cual

  • IA correcta → 92.7% la sigue
  • IA incorrecta → 79.8% la sigue

→ Aunque se equivoque, la mayoría la acepta


Resultado 2: el desempeño queda subordinado a la IA

  • Brain-only: 45.8%
  • IA correcta: 71.0%
  • IA incorrecta: 31.5%

→ Si la IA falla, el rendimiento es peor que actuar en solitario


Resultado 3: problema de confianza + seguridad subjetiva

  • Al usar IA:
    • la confianza subjetiva aumenta +11.7%p
    • sin importar si había error o no

→ Incluso cuando se equivoca, genera más certeza


Resultados según la condición

Presión de tiempo

  • Se debilita el pensamiento humano (disminuye System 2)
  • Se mantiene la dependencia de la IA
  • Resultado:
    • si la IA acierta, ayuda
    • si la IA falla, sigue empeorando el resultado

Recompensas + retroalimentación

  • Aumenta la corrección de errores
  • Sube la tasa de rechazo a respuestas erróneas de la IA
  • Pero:
    • la cognitive surrender no desaparece por completo

Diferencias individuales

Aumenta la cognitive surrender cuando hay:

  • alta confianza en la IA
  • baja tendencia al pensamiento analítico
  • baja capacidad cognitiva

Disminuye la cognitive surrender con:

  • alto Fluid IQ
  • alta Need for Cognition

Cambio importante de marco

El pensamiento humano ahora ya no se organiza como
"pensamiento rápido vs. pensamiento lento", sino como

→ "mi pensamiento vs. el pensamiento de la IA"


Riesgos clave

  • El desempeño cambia directamente según la precisión de la IA
  • En situaciones con error:
    • disminuye el juicio
    • aumenta la certeza
  • Se vuelve ambiguo quién es el responsable

Implicaciones

  • El problema no es que la IA se equivoque, sino
    → que el usuario no la verifique

  • Especialmente
    → el riesgo se amplifica en áreas que exigen juicios de alta inteligencia


Relacionado: https://news.ycombinator.com/item?id=47467913

2 comentarios

 
bini59 2026-03-23

Mmm, sí, así es. Cuando la IA toma una decisión equivocada, en vez de pensar por mi cuenta termino pidiéndole a la IA que lo corrija un poco, y al final como no salía una respuesta, recuerdo que abrí una sesión nueva...

 
mrtj0329 2026-03-23

Por qué los sistemas de IA no aprenden y qué hacer al respecto
Lecciones sobre el aprendizaje autónomo desde la ciencia cognitiva
Emmanuel Dupoux, Yann LeCun, Jitendra Malik
https://arxiv.org/pdf/2603.15381