- Se abrió un debate sobre si se deben permitir en Hacker News los comentarios que citan respuestas generadas por IA
- Algunos usuarios señalan que este tipo de comentarios reduce la autenticidad de las opiniones y la calidad de la discusión
- Otros sostienen que usar IA en sí puede ser útil y que una prohibición total sería excesiva
- La discusión se amplió a si deben revisarse las guías de HN y al problema de la confiabilidad de lo que dice la IA
- El debate derivó en una conversación sobre cómo la comunidad debe redefinir la responsabilidad de lo que se dice y los criterios de control de calidad en la era de la IA
Debate sobre los comentarios que citan IA dentro de la comunidad de HN
- Algunos usuarios critican que los comentarios del tipo "I asked AI, and it said…" difunden información automática sin valor
- Señalan que estos comentarios se limitan a copiar respuestas repetitivas de la IA en lugar de aportar a la discusión real
- Quienes se oponen a prohibirlos argumentan que la IA puede ser útil como herramienta de búsqueda de información o de resumen, y que citar esos resultados por parte de los usuarios es algo natural
- Aun así, existe la postura de que al citarla se debe indicar la fuente y el contexto
Debate sobre una revisión de las guías
- Algunos proponen agregar a las guías de comentarios de HN una cláusula de prohibición explícita
- La razón es que expresiones como “la IA dijo esto” vuelven ambiguo quién es el autor real de la opinión y debilitan la responsabilidad dentro del debate
- Otros usuarios se oponen a la prohibición por motivos de libertad de expresión y diversidad en el uso de la tecnología
- En su lugar, plantean una solución intermedia con marcado claro o criterios de verificación al citar IA
Puntos centrales de la discusión
- Los temas clave son la confiabilidad de lo que dice la IA, la distinción entre opiniones humanas y contenido generado, y el mantenimiento de la calidad de la comunidad
- También se plantea la preocupación de que, a medida que aumenten las citas a la IA, puedan verse afectadas la estructura del debate y el sistema de confianza de HN
- No se llegó a una conclusión clara, pero hubo coincidencia en que se necesita autorregulación comunitaria y un consenso cultural
1 comentarios
Opiniones de Hacker News
Puede que no se pueda impedir por completo que la gente use IA para pulir sus respuestas, pero es molesto que lo confundan con "ayudar"
Yo vengo aquí porque quiero conocer las ideas de las personas, no las de la IA. Por eso, cuando se nota que alguien usó IA en un texto, eso por sí mismo influye en cómo lo valoro
Hoy en día la traducción con LLM suena natural, pero se sigue notando ese estilo de IA, y en ese punto termina bajando la confianza
Veo los comentarios que citan a la IA como algo parecido a “copiar y pegar tal cual el resultado de una búsqueda”
La diferencia es que mucha gente confunde el resultado de la IA con una respuesta autorizada
Pero en conversaciones sobre IA, citar una respuesta de IA como ejemplo es algo natural, así que prohibirlo por completo no sería apropiado
Al final, esto parece un proceso en el que una nueva etiqueta social se está formando en tiempo real. Como la gente que usaba audífonos Bluetooth en cafés en los 2000, creo que es algo que se va a ajustar por presión social
En realidad, este tipo de comentarios generados por IA ya violan las reglas de HN
Hay casos relacionados en este enlace.
Las reglas de HN tienen lineamientos básicos como si fueran una constitución, y los comentarios de moderación de dang y tomhow funcionan como precedentes
Si se agregaran explícitamente a la guía, podría crearse un ambiente más transparente y acogedor
Incluso antes de los LLM ya había gente que “buscaba y copiaba el primer resultado para pegarlo”
Cada quien puede escribir su opinión libremente, pero si tercerizas por completo el pensamiento, no aportas nada a la conversación
Si eso fuera lo que HN quisiera, ya habría metido bots
Yo vengo aquí porque quiero leer lo que piensa la gente. Por eso no quiero ver comentarios hechos con IA
Pero ya cansa que ahora con solo usar em dash te confundan con IA. En macOS también es fácil escribirlo, y me sirve para expresar mis ideas
¿De verdad hace falta una regla? Este tipo de comentarios ya recibe muchos downvotes. Quien no se dé cuenta tampoco va a leer las reglas
Creo que la actitud de la comunidad se expresa con votos, y la actitud del espacio se expresa con reglas
La ignorancia no exime, así que hace falta dejarlo por escrito
El simple copy-paste de LLM no tiene nada de interesante, así que sería bueno prohibirlo de forma explícita
A nivel comunidad, creo que habría que fomentar la divulgación del uso de IA (disclaimer)
Si alguien escribe algo como “le pregunté a ChatGPT y me respondió esto”, la información en sí puede seguir siendo útil.
Más que prohibirlo del todo, me parece mejor fomentar transparencia y brevedad
Copiar y pegar solo respuestas de LLM sí debería prohibirse. Tiene tan poco interés como “lo busqué y lo traje”
Más que una prohibición absoluta, me parece mejor que se regule mediante vergüenza colectiva (collective embarrassment)
Si se crea una regla, también se terminarían frenando publicaciones que discuten de manera experimental los errores o sesgos de la IA
Por eso creo que es mejor una guía del tipo “tratemos de evitarlo” que una prohibición total
De todos modos, no todo el mundo lee todas las reglas, y como la audiencia de HN es menos técnica que antes, este tipo de respuestas va a seguir apareciendo
Incluso si se crea esta regla, no se va a eliminar los comentarios con IA; solo parece que reduciría el efecto de transparentar su uso
En cambio, si es corto y natural, al punto de que ni se note, no veo por qué hacerlo problema