- A medida que las empresas adoptan chatbots basados en LLM para la automatización de la atención al cliente, se limita el acceso a asesores humanos y las respuestas falsas y los errores se vuelven cotidianos
- Estos sistemas operan de forma discriminatoria según el nivel económico: mientras los clientes premium todavía reciben atención humana, los clientes comunes quedan atrapados en respuestas automatizadas
- Los LLM se están expandiendo hacia áreas de juicio ambiguo como la evaluación de seguros y la fijación de precios, haciendo que las personas gasten más tiempo en discutir y persuadir a las máquinas
- La responsabilidad difusa y los sesgos sociales de los sistemas de ML provocan daños reales, como detenciones injustas y reconocimientos erróneos, y su estructura compleja hace que sea difícil exigir responsabilidades
- Si se expande el agentic commerce, en el que los LLM automatizan pagos y compras, podrían intensificarse la manipulación, el fraude y el traslado de costos, consolidando una “desigualdad de las molestias”
La incomodidad de automatizar el servicio al cliente
- Las empresas están redirigiendo las consultas hacia chatbots basados en LLM para reducir costos de soporte al cliente, y cada vez es más difícil conectarse con un agente humano
- Con los avances de los modelos de voz, también existe la posibilidad de automatizar la atención telefónica
- Los LLM ofrecen respuestas amables y pacientes, pero repiten mentiras y errores, retrasando la resolución de problemas
- Estos sistemas funcionan de manera discriminatoria según la clase económica
- Los clientes de alto valor todavía pueden acceder a agentes humanos, mientras que los clientes comunes quedan atrapados conversando con un LLM
- Los LLM son vulnerables a la imprevisibilidad y a los injection attacks, por lo que su autoridad para actuar fuera del sistema está limitada
- Son útiles para problemas simples, pero frente a errores administrativos complejos o problemas sistémicos terminan generando más frustración
Discutir con el modelo
- Los LLM se están expandiendo más allá del soporte al cliente hacia áreas de trabajo ambiguas como la evaluación de seguros, la fijación de precios y las decisiones legales
- Se prioriza la eficiencia en costos por encima de la exactitud, de modo que, aunque haya decisiones erróneas, el sistema se mantiene si la rentabilidad total sigue intacta
- Este entorno provoca una nueva forma de desperdicio de trabajo
- Un caso representativo es la fijación algorítmica de precios, donde el precio de un boleto de avión cambia según el navegador, el dispositivo o la cuenta
- Los médicos tienen que aprender frases específicas para persuadir al LLM de una aseguradora, y los consumidores terminan ajustando su apariencia para que una cámara los reconozca correctamente
- Las personas pasan cada vez más tiempo discutiendo con máquinas
- Un LLM se parece a la “habitación china”: genera respuestas sin comprender realmente, careciendo de entendimiento humano
- En el futuro podrían proliferar contenidos de “8 verduras para bajar tu prima del seguro” y otros consejos para responderle a la máquina
- Las personas también están usando LLM como herramienta para enfrentarse a la burocracia
- Ya aparecieron LLM personales que automatizan respuestas ante rechazos de reclamaciones de seguros, cancelaciones de suscripciones y negociaciones de precios
- Sin embargo, la asimetría entre empresas e individuos sigue intacta, y los usuarios deben asumir el riesgo financiero derivado de fallos del LLM
La difusión de la responsabilidad
- Se cita una directriz interna de IBM de 1979: “Las computadoras no pueden ser responsables, por lo tanto no deben tomar decisiones de gestión”
- Los sistemas de ML están produciendo casos en los que se perjudica a personas inocentes
- El caso de Angela Lipps, detenida injustamente durante 4 meses por un error de reconocimiento facial
- El caso en que una cámara de vigilancia confundió la bolsa de botanas de Taki Allen con un arma y provocó el despliegue de policías armados
- Estos casos se analizan no como simples fallas técnicas, sino como fallas de sistemas sociotécnicos
- La ausencia de juicio humano, los errores de procedimiento y la desconexión entre organizaciones interactúan de forma compleja
- Los modelos de ML presentan sesgos sociales como si fueran objetividad estadística
- Hay casos de subestimación de la solvencia de prestatarios negros, reducción de servicios médicos para mujeres y reconocimiento erróneo de rostros negros
- La opacidad del modelo y sus explicaciones autocontradictorias distorsionan el juicio de quienes revisan sus resultados
- Los modelos a gran escala se construyen con muchísimas personas y organizaciones separadas entre sí, por lo que la responsabilidad queda difusa
- Están compuestos por estructuras multicapa: hospitales, aseguradoras, proveedores de modelos, proveedores de datos, personal subcontratado, etc.
- Como resultado, se debilitan tanto la noción de responsabilidad individual como la posibilidad de corregir errores
- Se prevé que aumente el número de víctimas de decisiones automatizadas, como en accidentes de vehículos autónomos o despidos derivados de evaluaciones de personal basadas en Copilot
- Las empresas responden con multas o ajustes contractuales, pero es difícil exigir responsabilidades a nivel individual
- Esto refleja un problema estructural de la ingeniería moderna en general: cuanto más complejo es el sistema, más difícil es identificar la causa de un accidente
- Un nivel de complejidad que antes requería grandes investigaciones, como en accidentes aéreos, se está extendiendo ahora a decisiones cotidianas
Mecanismos de mercado y “Agentic Commerce”
- El agentic commerce es un concepto en el que un LLM administra el método de pago del usuario y realiza compras de forma automática
- El LLM automatiza la comparación de precios, la renovación de seguros y la renovación de suscripciones, eliminando etapas intermedias de distribución
- McKinsey prevé una reducción de la publicidad centrada en humanos y plantea la inserción de anuncios dentro de chatbots y estructuras de negociación entre LLM
- Sin embargo, esto genera incentivos muy fuertes para manipular el comportamiento de los LLM
- La publicidad dirigida a LLM y la competencia por manipular el SEO podrían evolucionar hacia una nueva forma de guerra algorítmica
- Se podría inducir la respuesta de un LLM con ciertos píxeles, tipografías o colores, o intentar impulsar ventas contaminando datos de entrenamiento
- Plataformas como OpenAI pasarían a estructurarse como intermediarios entre productores y consumidores, obteniendo ingresos de ambos lados
- La negociación automática entre LLM corre el riesgo de degenerar en una guerra de ataques mutuos de “dark patterns”
- Señales falsas, injection attacks y registros excesivos de transacciones podrían producir interacciones caóticas
- Algunos centros de investigación predicen un cambio hacia pagos basados en criptomonedas, pero eso podría agravar los problemas de errores, fraude y reembolsos
- Si un LLM realiza una compra equivocada, surge la falta de claridad sobre quién es responsable
- Se perfila una estructura compleja de disputas entre procesadores de pago, bancos y LLM
- Esta incertidumbre podría traducirse en aumentos de comisiones de pago y mayores costos de prevención del fraude
- Al final, los consumidores comunes terminan compartiendo el costo del riesgo
- Los consumidores quizá deban usar perfiles falsos y herramientas automatizadas para engañar o negociar con los LLM
- Aunque esto genera cansancio e ineficiencia, si todo el mercado adopta LLM podría consolidarse como una estructura imposible de evitar
- Solo los sectores adinerados mantendrían servicios centrados en humanos, profundizando la “desigualdad de las molestias”
1 comentarios
Comentarios en Hacker News
No necesito hacer 1000 transacciones al día
No creo que tener que aprobar cada compra vaya a ser una molestia fatal
No pienso dejarle mi tarjeta de crédito a un LLM en lo absoluto, por problemas estructurales como las vulnerabilidades de inyección
Y me cuesta confiar igual en las arquitecturas de IA del futuro
Aun así, cosas como la automatización de atención al cliente parecen una tendencia inevitable
Yo ya marco 0 cada vez que llamo a la farmacia de Costco para escapar del infierno del sistema automatizado
Al final, los únicos que ganan con estos sistemas son los accionistas y los directivos
Siento que el mundo actual gira cada vez más alrededor de la manipulación y la ausencia de verdad
Los LLM son un logro técnico impresionante, pero el problema es que se están usando de una forma que amplía la brecha de clases
En adelante, ni las grandes empresas, ni los Estados, ni los LLM serán algo en lo que se pueda confiar
Tenemos que reorganizarnos otra vez alrededor de grupos y comunidades en los que sí podamos confiar
El problema no era la institución sino la contaminación del entorno. La economía de la atención de las redes sociales destruyó la confianza
La contaminación informativa afecta a todos y al final nos está llevando a un ecosistema de información dominado por bots
Aunque participen personas y bots a la vez, la interacción basada en reglas va a volverse más importante
Pero el valor para el accionista no quiere eso. Al final habrá que evolucionar dentro de la contradicción entre el aumento de costos y la tecnofobia
Mi padre cambió la batería de una llave de auto con ayuda de IA y quedó muy satisfecho
También le preguntó a una IA sobre reglas del seguro y obtuvo mejores resultados que buscando por su cuenta
Yo también ahora prefiero preguntarle cosas simples a una IA en vez de a Google
En la mayoría de los casos, la IA ya está en un nivel "bastante útil", y a menudo es mejor
A la gente no le importa si eso es solo un predictor de tokens. Si el resultado es bueno, basta
Parece una estructura donde las empresas crean el problema y luego venden la solución
Por mi experiencia trabajando con equipos de atención al cliente, el objetivo de mejorar la tecnología siempre es reducir la cantidad de tickets y bajar costos
También se mide la satisfacción, pero lo central es el volumen de tickets
Incluso antes de los LLM, los chatbots se usaban por esta razón
Pero atención al cliente también funciona como un sistema de alerta temprana para la empresa, así que si reduces el contacto con personas, se vuelve más difícil detectar el dolor de los usuarios
Me hace pensar en la frase de capacitación interna de IBM de 1979: "A COMPUTER CAN NEVER BE HELD ACCOUNTABLE"
Ahí está la razón de por qué hoy se repite tanto eso de “la computadora dice que no se puede”
Si un gerente quiere evitar la responsabilidad, solo tiene que dejarle la decisión a la computadora
Al final, la IA está reforzando la automatización de la evasión de responsabilidades
Lo que más me preocupa es la dispersión y dilución de la responsabilidad
Las organizaciones medianas ya funcionan con una estructura así, y siento que los LLM la van a empeorar todavía más
Les envié a unos amigos la serie de textos de Aphyr y me respondieron “hazme un resumen”
Amigos con los que antes tenía conversaciones profundas ahora solo mandan resúmenes hechos por IA y se quedan en intercambios superficiales
Se siente claramente una disminución de la capacidad de atención
Da la impresión de que mucha gente solo imitaba conocimiento citando "videos inteligentes de YouTube"
Intercambiar textos largos y tener conversaciones profundas fue mucho más fresco y significativo
La IA todavía está en una etapa temprana, y cada semana aparecen nuevas investigaciones y modelos. El futuro aún no está definido
Comparten un enlace de archive.is
Me parece interesante la idea de un “boicot con modelo personal” para hacerle desperdiciar tokens al modelo de Burger King
Así que yo simplemente decidí aceptar a los "amos de los trillones de parámetros"
Los textos de Aphyr son interesantes, pero se sienten como un argumento típicamente estadounidense
El patrón es: “esto es malo → las empresas lo van a abusar sin regulación → estamos perdidos”
Pero cuando llega la hora de proponer regulación (law), todos se echan para atrás
Estados Unidos siempre ha sido así. Las empresas explotan si no hay regulación
Aunque se gane menos dinero en el corto plazo, una sociedad con regulación es más vivible a largo plazo
Haría falta una reforma constitucional, pero con la estructura política actual es casi imposible
Antes también estaba lleno de estafadores y vendedores de aceite de serpiente
Al final, la confianza solo surge de relaciones repetidas. En línea eso es imposible
Parece que en adelante la confianza en la marca va a ser más importante
Y eso a veces termina haciendo que un país se quede atrás frente a otros