- En Lobsters siguió la discusión sobre prohibir los textos generados por LLM y cambiar las etiquetas, pero parece haber consenso en que las publicaciones de poco esfuerzo y poca información deben tratarse como spam
- Se propone que respuestas en los comentarios que solo dejen algo como “this is LLM slop” se reporten como fuera de tema, porque se quedan en juzgar si fue generado o no, en vez de hablar del contenido del texto
- Al menos el 80% de la razón para leer Lobsters es la calidad de los comentarios, y resulta molesto tener que filtrar discusiones sobre si una publicación fue o no producto de un LLM
- Si uno envía un texto porque le pareció interesante y el único comentario es algo como “si no fuera un texto escrito por un LLM”, eso termina siendo frustrante para quien lo envió
- Que un texto escrito directamente por una persona sea sospechado de ser un contenido generado por LLM desanima todavía más, y eso ya ha pasado tanto en otras plataformas como con otros autores en Lobsters
Propuesta
- Aunque han seguido las discusiones sobre la prohibición de textos generados por LLM y cambios a etiquetas como
ai/vibecoding, parece haber consenso en que las publicaciones de poco esfuerzo y poca información deben reportarse como spam y seguir adelante - Se propone que, en los comentarios, respuestas que solo dejen “this is LLM slop” o algo por el estilo se reporten como fuera de tema
- Al menos el 80% de la razón para leer Lobsters es la calidad de los comentarios, y es frustrante tener que ir filtrando discusiones sobre si el texto en cuestión fue o no producto de un LLM
- Si alguien envía un texto porque le pareció interesante y el único comentario es algo como “habría sido un buen texto si no lo hubiera escrito un LLM”, eso también resulta frustrante desde la perspectiva de quien lo envió
- Que, después de enviarse, un texto escrito directamente por una persona y sin usar LLM sea sospechado de ser generado por LLM es aún más frustrante y desmotivante
- Esto no ocurrió con textos propios dentro de Lobsters, pero sí hubo reacciones así en otras plataformas, y también se ha visto que les pasa a otros autores en Lobsters
Contexto e intención
- Los LLM son un tema polarizante dentro de la comunidad y la situación ya es frustrante para todos, así que parece poco probable que a estas alturas alguien cambie de opinión
- El punto central de la propuesta es, además de “reportar como spam los textos de poco esfuerzo y seguir adelante”, también “reportar como fuera de tema y seguir adelante los meta comentarios que solo señalan si algo fue hecho con LLM o no”
- Como cada persona tiene un criterio distinto sobre qué considera “slop”, la intención es reducir los casos en que la discusión en los comentarios se desvía del contenido del texto hacia determinar si fue hecho o no con un LLM
1 comentarios
Opiniones de Lobste.rs
Puede no gustarme, pero agradezco este tipo de aviso. No quiero gastar tiempo leyendo texto generado, y siento que cuando la gente le delega la escritura a una herramienta pierde su propia voz, así que tampoco me interesa involucrarme con escritura “asistida”
Uno no lee solo por el contenido, sino también por la perspectiva y el estilo de quien escribe. También vale la pena debatir por qué importaría o no cómo fue escrito un texto, y eso muestra mejor cuánto participó el autor en ese trabajo
Tiene valor contar con una señal temprana que te permita decidir desde el principio cómo tratar ese contenido. Si no te gusta, puedes apretar el botón [-]; yo puedo usar el botón de ocultar
En esos casos, estaría bien tener una señal previa
He visto que siguen sospechando uso de LLM incluso en textos donde el autor afirma haberlo escrito y no hay motivo para no creerle. Si los comentarios ni siquiera pueden identificar de forma confiable el contenido LLM, entonces son puro ruido y, en el mejor de los casos, tan malos como los artículos de relleno con IA
Los comentarios que avisan que una publicación es generada por LLM ayudan, y yo los uso como referencia para reportarla como spam y ocultarla
Claro, no les creo automáticamente; también lo reviso por mi cuenta
Si se pudiera reportar una entrada como relleno/spam, estos comentarios desaparecerían
No tiene sentido prohibir solo los comentarios sin arreglar la función de reportes. Hay que tratar la causa raíz, no el síntoma
Me molesta bastante que haya largas discusiones sobre el origen de algo que a mí solo me parece un texto mediocre común y corriente. Más todavía cuando hay datos útiles enterrados ahí
Me pregunto si no estaría bien tener una forma de dejar una calificación numérica personal sobre la calidad del texto o su nivel de ‘relleno’, aparte de los votos sobre qué tan interesante es. Luego se podría sacar un promedio, y cada usuario podría poner un umbral de ocultamiento automático
Puede que eso complique más a lobste.rs de lo originalmente pensado, pero quizá sea razonable para lidiar con el entorno bastante distópico en el que estamos
Los comentarios de “esto es relleno hecho por LLM” ya me han ahorrado tiempo varias veces, incluso en al menos una publicación que yo mismo envié. No quiero leer relleno, y menos aún publicar relleno
Como lector, esos comentarios me sirven. Sobre todo cuando señalan por qué lo ven así: son más útiles que un simple reporte
La definición de reporte por “spam” en la página about dice:
Eran publicaciones que gente obsesiva o trolls metían para arruinar varios hilos. El contenido de baja calidad generado por LLM no se distingue de ese tipo de contenido
¿Qué hacemos con alguien que solo le pidió a un LLM que corrigiera gramática u ortografía? ¿O con alguien que escribió un argumento bien ordenado en español y le pidió al LLM que lo tradujera? ¿O con una persona con dislexia que dio una lista de puntos clave y le pidió al LLM que los desarrollara en forma de texto?
Ojalá no simplificáramos un tema matizado. Corremos el riesgo de excluir aportes interesantes. Claro que yo tampoco quiero ver aquí relleno sin ningún valor informativo o, peor aún, alucinaciones falsas
Personalmente, veo válidos ambos lados. Lo siguiente no es la postura oficial del sitio, sino una opinión personal, y tampoco es una conclusión muy elaborada. Solo comparto lo que pienso ahora por si ayuda a la discusión
Las razones para querer esa medida son válidas y me generan empatía. Que un texto en el que pusiste esfuerzo sea descartado como si no hubiera habido intervención humana alguna realmente puede desmotivar mucho. Más aún si lo descartan por razones superficiales, como un em dash. Yo también querría irme enseguida
Aun así, puede que esa medida en sí no sea la más ideal para lograr ese objetivo. El efecto de esa intervención sería probablemente perder la mayor defensa que tenemos contra el contenido sin humanos. Cuando todos construyen normas sociales entre sí y las aplican con consistencia, eso escala mucho mejor que una autoridad impuesta desde arriba. Por eso soy muy cauteloso con reprimir una dinámica social que hoy cumple un papel importante. Incluso si se ve daño, me gustaría revisarlo de nuevo más adelante si ese papel se vuelve menos importante
¿Habrá alguna otra medida útil? Si alguien tiene una propuesta que todavía no haya salido aquí, me encantaría que la sugiriera
Obviamente, espero que todos tengan cuidado de no lanzar acusaciones indiscriminadas cuando no hay mucha certeza. Sin importar la justificación que crean tener, la reactividad descuidada es muy destructiva. Si la gente sigue atacándose personalmente por impulso, ningún espacio puede seguir siendo una comunidad
Estoy totalmente de acuerdo. Muchas veces leo un texto y no me da ninguna impresión de haber sido generado por IA, pero alguien más lo afirma con total seguridad. Puedo estar equivocado, pero ¿cómo se puede saber con certeza qué fue generado por IA?
Si de verdad es relleno, creo que la gente no lo va a votar positivamente y eso lo va a regular de forma natural
Cuando la gente dice que quiere la perspectiva y la intuición del autor, ahí sí hay algo realmente importante. Incluso si alguien hiciera con un LLM una entrada de blog ficticia sin ayuda humana más allá del prompt, y por casualidad quedara coherente, correcta en los hechos e interesante, yo igual no tendría muchas ganas de leerla. Al menos en el contexto de lobsters
Tal vez podría existir una plataforma para leer ese tipo de contenido, algo así como una enciclopedia de texto LLM a la que uno entra sabiendo de qué se trata. Pero no me parece que encaje en una comunidad nacida del pensamiento y la creatividad humanos
Dicho eso, esto no cambia mucho las cosas respecto a la publicación actual. No puedo decir con confianza qué tan acertados son realmente los comentarios de “esto huele a LLM”. Aun así, empatizo mucho con el deseo de los miembros de la comunidad de querer la certeza de estar leyendo algo escrito por una persona consciente
Un poco aparte de esta propuesta, me pregunto por qué esta propuesta está siendo reportada como fuera de tema o spam. No parece encajar en ninguna de las dos categorías, ¿no?
Sé que en la sección about se dice explícitamente que este tipo de meta preguntas no son buenas, pero de verdad me pregunto si se me está escapando algo
Puede haber blogueros cuya lengua materna no sea el inglés y que usen IA para pulir el idioma de sus entradas. La gente más acostumbrada al inglés podría identificar esos textos como relleno de IA, cuando en realidad quizá solo sean una forma de escritura asistida
Yo tampoco soy hablante nativo de inglés, así que no detecto tan bien si en esos textos hubo uso de IA o no. Para mí lo más importante es cómo se transmite el mensaje central