- Conclusión
- La razón por la que muchos sistemas de soporte de decisiones con IA (DSS) fracasan en la práctica no es el rendimiento del modelo, sino que “no se diseñó la confianza”.
- Este texto redefine la confianza no como una emoción o un problema de UX, sino como un mecanismo de predicción en situaciones de riesgo y como un “contrato”, y explica por qué el enfoque de “aumentemos la confianza” termina generando no uso o mal uso.
- Fundamentos
- El núcleo del problema de la confianza es la confusión entre trust (actitud del usuario) y trustworthiness (capacidad real)
- Los usuarios no confían en la IA de forma vaga, sino en contratos específicos como precisión, equidad y responsabilidad
- Si no se explicitan el contrato y sus límites, la UI, la autoridad y el tono de las explicaciones pueden generar una confianza indebida que termine en incidentes
- El papel de la explicabilidad (XAI) tampoco es “amplificar” la confianza, sino corregir la dependencia o la sospecha
- Ejecución (cómo mejorar)
- Si creas o adoptas un AI-DSS, la perspectiva cambia de “¿cómo aumentamos la confianza?” a
“¿qué queremos que se confíe, y cuándo debe dudarse o suspenderse el juicio?”
- Idea clave en una línea
- La causa del fracaso de AI-DSS no es el rendimiento, sino el diseño de la confianza; la solución es un diseño centrado en contratos, vulnerabilidad y calibración.
Aún no hay comentarios.