- “Sloppypasta” se refiere al acto de copiar tal cual la salida no revisada de un LLM (modelo de lenguaje grande) y enviársela a otra persona, lo que se señala como una conducta descortés porque traslada al receptor una carga innecesaria de verificación
- Este tipo de mensajes provoca una asimetría entre lectura y verificación: quien los redacta los manda en segundos, pero quien los recibe tiene que revisar textos largos, lo que implica una transferencia de trabajo
- El problema de la confianza también es grave: por las alucinaciones (hallucination) de los LLM y su tono excesivamente seguro, el receptor queda en una situación en la que debe desconfiar por defecto de toda la información
- El texto propone como normas básicas de etiqueta al usar IA: “Leer (Read) · Verificar (Verify) · Destilar (Distill) · Revelar (Disclose)”, y enfatiza que no deben compartirse resultados de IA no solicitados
- La IA puede mejorar la productividad, pero se subraya la necesidad de usarla sin invadir el tiempo ni la confianza de otras personas
Definición de Sloppypasta y reconocimiento del problema
- Sloppypasta es una palabra compuesta de “slop” (contenido de IA de baja calidad) y “copypasta” (meme de copiar y pegar), y significa reenviar tal cual resultados de LLM sin leerlos ni verificarlos
- Se considera una conducta asimétrica porque traslada al receptor el esfuerzo de revisión y síntesis que debería asumir quien lo envía
- Es algo frecuente en Slack, Teams, correo electrónico, etc., y se puede identificar fácilmente por el estilo formal característico de la IA y su formato excesivo
- Quien lo manda tarda apenas unos segundos en enviar el mensaje, pero quien lo recibe termina asumiendo la carga de verificar y juzgar el contenido
Tipos y ejemplos de Sloppypasta
- The Eager Beaver: cuando alguien pega tal cual la respuesta de un chatbot con la intención de contribuir al tema de conversación
- Aunque la intención sea buena, un texto de IA genérico y sin contexto interrumpe la conversación y corta su flujo
- The OrAIcle: una forma de respuesta que empieza con “ChatGPT says” para transmitir sin cambios lo que respondió el modelo a una pregunta concreta
- Esto se considera una respuesta descortés, similar a lo que antes era LMGTFY (“Let Me Google That For You”)
- El receptor debe cargar con la tarea de determinar por su cuenta la veracidad, relevancia y fuente del contenido
- The Ghostwriter: cuando alguien comparte texto generado por IA haciéndolo pasar como si fuera propio
- El receptor no tiene base para confiar en ello y, si la información es incorrecta, puede dañar la credibilidad de quien lo envió
Por qué es un problema
- Desequilibrio de esfuerzo: los LLM casi eliminan el costo de redactar, pero el receptor sigue teniendo que invertir un esfuerzo cognitivo considerable para leer y verificar
- Esto acumula deuda cognitiva (cognitive debt), y además quien envía el contenido pierde oportunidades de aprendizaje y comprensión
- Colapso de la confianza: por las alucinaciones y la generación de información falsa de los LLM, el principio de “confía, pero verifica” deja de funcionar
- El receptor debe desconfiar por defecto de todos los mensajes, y se consume el capital de confianza de quien los envía
- Pérdida de señales de pericia: el tono seguro de la IA dificulta distinguir entre experiencia real y falsa seguridad, debilitando aún más la confianza
- Falta de claridad sobre la responsabilidad: cuando hay errores, no queda claro si la responsabilidad recae en la IA o en el usuario
- En consecuencia, Sloppypasta provoca pérdida de aprendizaje, colapso de la confianza y fatiga comunicativa
Opiniones citadas
- “Escribir es un proceso de pensamiento, y delegarlo a un LLM reduce la comprensión y la memoria” — investigación de Anthropic
- “Compartir resultados de IA sin leerlos es una grosería” — Simon Willison
- “Una respuesta pulida escrita por IA, incluso si el contenido es correcto, puede dar la impresión de que te están ignorando” — Blake Stockton
- “Antes, escribir era prueba del pensamiento humano; ahora ya no lo es” — Alex Martsinovich
6 principios para evitar el Sloppypasta
- Read: antes de compartir, hay que leer y entender personalmente el contenido
- Un resultado no leído no puede garantizar exactitud, relevancia ni vigencia
- Verify: hay que hacer verificación de hechos
- Compartir algo implica una garantía implícita de confianza por parte de quien lo envía, y la información incorrecta puede dañar su reputación
- Distill: hay que transmitir solo lo esencial en forma resumida
- Como por su estructura de costos por token los LLM tienden a generar respuestas largas, la responsabilidad de resumir debe recaer en quien comparte
- Disclose: hay que dejar claro si se usó IA
- Compartir qué partes se revisaron y qué prompt se usó puede restaurar señales de confianza
- Share only when requested: no compartir resultados de IA si no fueron solicitados
- Sloppypasta impone al receptor la carga de leer, verificar y resumir
- Share as a link: los resultados largos de IA deben compartirse como enlace o archivo adjunto
- Así se evita llenar la ventana de conversación e interrumpir el flujo
Conclusión
- La IA es útil como herramienta para mejorar la productividad, pero es indispensable usarla de una forma que no invada el tiempo ni la confianza de otras personas
- Las nuevas tecnologías requieren nuevos modales (New manners), y
la IA debe usarse no como sustituto del pensamiento, sino como herramienta para acelerarlo
1 comentarios
Opiniones en Hacker News
Fue un caso en el que alguien pegó tal cual en un ticket de Jira el resultado de un prompt que decía: “redacta una especificación detallada del producto para un pipeline de recolección de datos de ensayos clínicos”
No encajaba para nada con el diseño interno y además incluía un montón de funciones innecesarias
Cuando se lo señalé al PM, me lo pasó con algo tipo “discutámoslo en la revisión del sprint” y que nos “aliáramos” con el equipo de ingeniería
Siento que pronto va a llegar el momento de aprender etiqueta para IA
Resulta bastante irónico eso de que la IA aumentó la productividad
Solo que tardó un poco en extenderse también al trabajo corporativo
La IA es útil, pero fastidia tener que tomarse en serio algo que la otra persona produjo en 10 segundos
Ahorita esto parece el Viejo Oeste, pero en algún momento se van a establecer reglas correctas de uso
Qué ridículo
Hoy de plano decidí crear yo mismo un proyecto POC desde cero
Pasé dos semanas haciendo revisión de código, registrando logs y escribiendo ejemplos para demostrar que la mayor parte no funcionaba
Lo gracioso es que el gerente había reportado que “sí funcionaba” en una semana usando Claude
Yo tuve que escribir 4 tareas de Jira, un montón de commits y tres reportes
Internet nunca ha sido precisamente un espacio de discurso de alta calidad
Como consumidores de contenido, necesitamos mejores herramientas de filtrado, y de forma irónica quizá la IA sea justamente lo que lo haga posible
Es interesante que la gente sienta que el contenido hecho por “su propia IA” está bien, pero que el hecho por “la IA de otros” se sienta como un engaño
Al final, quizá terminemos en un mundo tipo Dead Internet Theory, donde la IA genera contenido y la IA lo consume
Aunque eso suene ineficiente, internet nunca ha sido un lugar eficiente
Si quisiera una respuesta de IA, se la habría pedido yo mismo
Si le pregunto a un humano es porque quiero una respuesta humana
Es como comer fast food de vez en cuando, pero enojarte si en un restaurante fino te sirven un Big Mac
Toman una idea simple y la estiran con frases largas y formales para que parezca más impresionante
A la gente le gusta meter sus ideas en un LLM y ver que el resultado coincide con lo que piensa,
pero desde la perspectiva de los demás es una pérdida de tiempo leer un texto innecesariamente largo
Bastaría con resumirlo en bullet points
Por eso, cuando alguien te manda una respuesta escrita por IA, se siente tan grosero como enviarte un link de LMGTFY
Yo también sé preguntarle a una IA; reenviármelo no aporta ningún valor
Al final, si los productores no les pagan a los consumidores, este ecosistema se va a venir abajo
Mucha gente tampoco soporta “nuestra IA”; simplemente no se la encasquetan a otros
Desde la perspectiva de quien gestiona un equipo, deja clarísimo a quién hay que depurar
El resultado es que la compañía se convirtió en un mercado de drones que lanzan AI slop
No soy diseñador web, así que recibí ayuda para crear un sitio visualmente agradable
Pero todos los ensayos y lineamientos fueron escritos por humanos
Aun así, estuvo bien que se dejara claro el uso de IA
Link de divulgación de IA
Ya suena como parte de una conversación cotidiana
A diferencia de una mentira, el bullshit no distorsiona los hechos, sino la intención del hablante
También se parece al concepto de Gish-gallop: una técnica de debate en la que se lanzan montones de afirmaciones falsas y puntos difíciles de refutar para hacer perder tiempo al otro
Me preocupa que decirle a un colega “deja de usar resultados de IA no verificados” pueda generar tensión
Y sería todavía más incómodo si en realidad sí lo escribió esa persona
¿De verdad se van a poner a contestar otra vez con un texto larguísimo?
Me resultó efectivo abordarlo en una conversación aparte, no en un canal público
También es buena idea proponer una política de uso de IA a nivel de equipo y apoyarse en eso para tener la conversación
A menos que liderazgo técnico lo imponga, conviene abordarlo en formato de revisión de equipo
Antes, aunque escribieras el documento con cuidado, nadie lo leía,
y ahora, si mandas un documento de 3000 páginas generado por IA, nadie lo lee pero igual te lo aprueban
No es perfecto, pero me parece mejor que antes, cuando yo mismo tenía que leérselo en la reunión
En la era de la IA, no sé si ese rol se volverá inútil o si al final todos terminaremos siendo solamente reviewers