3 puntos por GN⁺ 2026-03-16 | 1 comentarios | Compartir por WhatsApp
  • “Sloppypasta” se refiere al acto de copiar tal cual la salida no revisada de un LLM (modelo de lenguaje grande) y enviársela a otra persona, lo que se señala como una conducta descortés porque traslada al receptor una carga innecesaria de verificación
  • Este tipo de mensajes provoca una asimetría entre lectura y verificación: quien los redacta los manda en segundos, pero quien los recibe tiene que revisar textos largos, lo que implica una transferencia de trabajo
  • El problema de la confianza también es grave: por las alucinaciones (hallucination) de los LLM y su tono excesivamente seguro, el receptor queda en una situación en la que debe desconfiar por defecto de toda la información
  • El texto propone como normas básicas de etiqueta al usar IA: “Leer (Read) · Verificar (Verify) · Destilar (Distill) · Revelar (Disclose)”, y enfatiza que no deben compartirse resultados de IA no solicitados
  • La IA puede mejorar la productividad, pero se subraya la necesidad de usarla sin invadir el tiempo ni la confianza de otras personas

Definición de Sloppypasta y reconocimiento del problema

  • Sloppypasta es una palabra compuesta de “slop” (contenido de IA de baja calidad) y “copypasta” (meme de copiar y pegar), y significa reenviar tal cual resultados de LLM sin leerlos ni verificarlos
    • Se considera una conducta asimétrica porque traslada al receptor el esfuerzo de revisión y síntesis que debería asumir quien lo envía
  • Es algo frecuente en Slack, Teams, correo electrónico, etc., y se puede identificar fácilmente por el estilo formal característico de la IA y su formato excesivo
  • Quien lo manda tarda apenas unos segundos en enviar el mensaje, pero quien lo recibe termina asumiendo la carga de verificar y juzgar el contenido

Tipos y ejemplos de Sloppypasta

  • The Eager Beaver: cuando alguien pega tal cual la respuesta de un chatbot con la intención de contribuir al tema de conversación
    • Aunque la intención sea buena, un texto de IA genérico y sin contexto interrumpe la conversación y corta su flujo
  • The OrAIcle: una forma de respuesta que empieza con “ChatGPT says” para transmitir sin cambios lo que respondió el modelo a una pregunta concreta
    • Esto se considera una respuesta descortés, similar a lo que antes era LMGTFY (“Let Me Google That For You”)
    • El receptor debe cargar con la tarea de determinar por su cuenta la veracidad, relevancia y fuente del contenido
  • The Ghostwriter: cuando alguien comparte texto generado por IA haciéndolo pasar como si fuera propio
    • El receptor no tiene base para confiar en ello y, si la información es incorrecta, puede dañar la credibilidad de quien lo envió

Por qué es un problema

  • Desequilibrio de esfuerzo: los LLM casi eliminan el costo de redactar, pero el receptor sigue teniendo que invertir un esfuerzo cognitivo considerable para leer y verificar
    • Esto acumula deuda cognitiva (cognitive debt), y además quien envía el contenido pierde oportunidades de aprendizaje y comprensión
  • Colapso de la confianza: por las alucinaciones y la generación de información falsa de los LLM, el principio de “confía, pero verifica” deja de funcionar
    • El receptor debe desconfiar por defecto de todos los mensajes, y se consume el capital de confianza de quien los envía
  • Pérdida de señales de pericia: el tono seguro de la IA dificulta distinguir entre experiencia real y falsa seguridad, debilitando aún más la confianza
  • Falta de claridad sobre la responsabilidad: cuando hay errores, no queda claro si la responsabilidad recae en la IA o en el usuario
  • En consecuencia, Sloppypasta provoca pérdida de aprendizaje, colapso de la confianza y fatiga comunicativa

Opiniones citadas

  • “Escribir es un proceso de pensamiento, y delegarlo a un LLM reduce la comprensión y la memoria” — investigación de Anthropic
  • “Compartir resultados de IA sin leerlos es una grosería” — Simon Willison
  • “Una respuesta pulida escrita por IA, incluso si el contenido es correcto, puede dar la impresión de que te están ignorando” — Blake Stockton
  • “Antes, escribir era prueba del pensamiento humano; ahora ya no lo es” — Alex Martsinovich

6 principios para evitar el Sloppypasta

  • Read: antes de compartir, hay que leer y entender personalmente el contenido
    • Un resultado no leído no puede garantizar exactitud, relevancia ni vigencia
  • Verify: hay que hacer verificación de hechos
    • Compartir algo implica una garantía implícita de confianza por parte de quien lo envía, y la información incorrecta puede dañar su reputación
  • Distill: hay que transmitir solo lo esencial en forma resumida
    • Como por su estructura de costos por token los LLM tienden a generar respuestas largas, la responsabilidad de resumir debe recaer en quien comparte
  • Disclose: hay que dejar claro si se usó IA
    • Compartir qué partes se revisaron y qué prompt se usó puede restaurar señales de confianza
  • Share only when requested: no compartir resultados de IA si no fueron solicitados
    • Sloppypasta impone al receptor la carga de leer, verificar y resumir
  • Share as a link: los resultados largos de IA deben compartirse como enlace o archivo adjunto
    • Así se evita llenar la ventana de conversación e interrumpir el flujo

Conclusión

  • La IA es útil como herramienta para mejorar la productividad, pero es indispensable usarla de una forma que no invada el tiempo ni la confianza de otras personas
  • Las nuevas tecnologías requieren nuevos modales (New manners), y
    la IA debe usarse no como sustituto del pensamiento, sino como herramienta para acelerarlo

1 comentarios

 
GN⁺ 2026-03-16
Opiniones en Hacker News
  • Hace poco me tocó una versión todavía más terrible de un ticket generado por IA
    Fue un caso en el que alguien pegó tal cual en un ticket de Jira el resultado de un prompt que decía: “redacta una especificación detallada del producto para un pipeline de recolección de datos de ensayos clínicos”
    No encajaba para nada con el diseño interno y además incluía un montón de funciones innecesarias
    Cuando se lo señalé al PM, me lo pasó con algo tipo “discutámoslo en la revisión del sprint” y que nos “aliáramos” con el equipo de ingeniería
    Siento que pronto va a llegar el momento de aprender etiqueta para IA
    • Antes los tickets de Jira eran cortos pero útiles, y ahora son innecesariamente largos y con menos información clave
      Resulta bastante irónico eso de que la IA aumentó la productividad
    • Desde la perspectiva de alguien que mantiene un proyecto open source, este problema ya existía desde hace un año
      Solo que tardó un poco en extenderse también al trabajo corporativo
    • La expresión etiqueta para IA realmente da en el clavo
      La IA es útil, pero fastidia tener que tomarse en serio algo que la otra persona produjo en 10 segundos
      Ahorita esto parece el Viejo Oeste, pero en algún momento se van a establecer reglas correctas de uso
    • O sea, supongo que ellos pueden hacer eso, ¿pero si yo meto sus tickets desastrosos en Claude y despliego tal cual lo que salga, la responsabilidad va a caer sobre mí?
      Qué ridículo
  • Como ingeniero senior, últimamente estoy harto de las revisiones de código mediocres hechas con IA
    Hoy de plano decidí crear yo mismo un proyecto POC desde cero
    Pasé dos semanas haciendo revisión de código, registrando logs y escribiendo ejemplos para demostrar que la mayor parte no funcionaba
    Lo gracioso es que el gerente había reportado que “sí funcionaba” en una semana usando Claude
    Yo tuve que escribir 4 tareas de Jira, un montón de commits y tres reportes
  • No me despierta mucha simpatía la gente que se enoja por este tipo de comportamiento
    Internet nunca ha sido precisamente un espacio de discurso de alta calidad
    Como consumidores de contenido, necesitamos mejores herramientas de filtrado, y de forma irónica quizá la IA sea justamente lo que lo haga posible
    Es interesante que la gente sienta que el contenido hecho por “su propia IA” está bien, pero que el hecho por “la IA de otros” se sienta como un engaño
    Al final, quizá terminemos en un mundo tipo Dead Internet Theory, donde la IA genera contenido y la IA lo consume
    Aunque eso suene ineficiente, internet nunca ha sido un lugar eficiente
    • La razón por la que no me gusta el contenido de “la IA de otros” es clara
      Si quisiera una respuesta de IA, se la habría pedido yo mismo
      Si le pregunto a un humano es porque quiero una respuesta humana
      Es como comer fast food de vez en cuando, pero enojarte si en un restaurante fino te sirven un Big Mac
    • Los textos escritos por IA siempre se sienten como leer un post de LinkedIn
      Toman una idea simple y la estiran con frases largas y formales para que parezca más impresionante
      A la gente le gusta meter sus ideas en un LLM y ver que el resultado coincide con lo que piensa,
      pero desde la perspectiva de los demás es una pérdida de tiempo leer un texto innecesariamente largo
      Bastaría con resumirlo en bullet points
    • Las respuestas de IA son demasiado fáciles de obtener
      Por eso, cuando alguien te manda una respuesta escrita por IA, se siente tan grosero como enviarte un link de LMGTFY
      Yo también sé preguntarle a una IA; reenviármelo no aporta ningún valor
    • Todos quieren crear algo con LLM, pero nadie quiere consumir el resultado
      Al final, si los productores no les pagan a los consumidores, este ecosistema se va a venir abajo
    • Lo que dice este texto no es solo un problema de calidad del contenido, sino de procedencia y autenticidad
      Mucha gente tampoco soporta “nuestra IA”; simplemente no se la encasquetan a otros
  • “sloppypasta” en realidad es una señal útil
    Desde la perspectiva de quien gestiona un equipo, deja clarísimo a quién hay que depurar
    • En nuestra empresa ni siquiera podemos despedir a esa gente
      El resultado es que la compañía se convirtió en un mercado de drones que lanzan AI slop
  • Hubo alguien que copió en un LLM una respuesta a comentarios de revisión de PR y luego pegó el resultado tal cual
    • Eso me hizo pensar en este ejemplo de PR de OCaml
    • En un caso peor, alguien hasta subió directamente una captura de pantalla de una respuesta de Copilot
  • Irónicamente, el propio sitio se ve como un sitio web hecho por un LLM
    • Sí, de hecho el sitio se hizo con un LLM
      No soy diseñador web, así que recibí ayuda para crear un sitio visualmente agradable
      Pero todos los ensayos y lineamientos fueron escritos por humanos
    • Parece que al frontend de Claude Code le gustan las tipografías serif
      Aun así, estuvo bien que se dejara claro el uso de IA
      Link de divulgación de IA
  • Últimamente hay una frase que escucho mucho — “Chat dijo eso
    Ya suena como parte de una conversación cotidiana
  • Hay un libro que se me vino a la mente al leer esto — On Bullshit, de Harry Frankfurt
    A diferencia de una mentira, el bullshit no distorsiona los hechos, sino la intención del hablante
    También se parece al concepto de Gish-gallop: una técnica de debate en la que se lanzan montones de afirmaciones falsas y puntos difíciles de refutar para hacer perder tiempo al otro
  • Este texto propone detener el sloppypasta, pero a mí más bien me interesa cómo responder cuando te llega
    Me preocupa que decirle a un colega “deja de usar resultados de IA no verificados” pueda generar tensión
    Y sería todavía más incómodo si en realidad sí lo escribió esa persona
    • A mí, en una situación parecida, me funcionó responder solo con una línea
      ¿De verdad se van a poner a contestar otra vez con un texto larguísimo?
    • Hay que hacerles ver que, si solo actúan como tubería de la IA, al final se están reemplazando a sí mismos
    • Ni siquiera hace falta decirlo; basta con responder solo cuando su aporte sea significativo
    • Yo convertí este texto en una guía compartible, como nohello.net o dontasktoask.com
      Me resultó efectivo abordarlo en una conversación aparte, no en un canal público
      También es buena idea proponer una política de uso de IA a nivel de equipo y apoyarse en eso para tener la conversación
    • Creo que es mejor cuestionar el patrón que señalar a una persona en particular
      A menos que liderazgo técnico lo imponga, conviene abordarlo en formato de revisión de equipo
  • Cuando hablas con mandos medios de grandes empresas, a menudo dicen “mándame un documento y entonces decidiré”
    Antes, aunque escribieras el documento con cuidado, nadie lo leía,
    y ahora, si mandas un documento de 3000 páginas generado por IA, nadie lo lee pero igual te lo aprueban
    No es perfecto, pero me parece mejor que antes, cuando yo mismo tenía que leérselo en la reunión
    • El rol del mando medio es leer el documento escrito por su equipo y dar retroalimentación para mejorar la claridad
      En la era de la IA, no sé si ese rol se volverá inútil o si al final todos terminaremos siendo solamente reviewers