2 puntos por GN⁺ 2 시간 전 | 2 comentarios | Compartir por WhatsApp
  • AI Slop es la práctica de empujar contenido generado por IA y hecho con poco esfuerzo a personas que no lo necesitan; incluso cuando surge de buenas intenciones, termina diluyendo la señal de las comunidades en línea y agotando a sus miembros
  • La práctica de esparcir por varios subreddits y Slack repositorios de GitHub, posts de blog, videos y libros electrónicos hechos solo ejecutando prompts suele convertirse más en una carga para la comunidad que en una contribución
  • Antes de compartir algo, hay que verificar si realmente es útil, si quien lo hizo lo usa de verdad, si la documentación y las pruebas son suficientes, y si se está listo para hacerse responsable de issues y PR
  • Un buen uso de la IA, como en la idea de Built with AI, not by AI, es cuando una persona piensa, da instrucciones y valida para hacer posible una contribución que antes era difícil; proyectos como Hardwood de Gunnar Morling entran en esa categoría
  • Para respetar a la comunidad, primero hay que observar el ambiente, compartir solo lo que sea relevante y aclarar con precisión si se usó IA y hasta qué punto; de lo contrario, se termina trasladando una carga innecesaria a reviewers y lectores

El impacto de compartir contenido generado por IA en la comunidad

  • En internet está aumentando la cantidad de personas que comparten resultados hechos con IA, y muchos de ellos son, en opinión del autor, cosas que apenas alcanzan para quedarse en el espacio personal de quien los hizo, no para distribuirse en una comunidad amplia
  • No se trata de una postura contraria a la IA en sí, y rechazarla por completo sería, según esta visión, ir contra la dirección de la época
  • El problema es que, incluso sin mala intención, comunidades valiosas se están debilitando poco a poco bajo el ataque de contenido de baja calidad generado con IA
  • Si resultados como “reescribí Kafka en COBOL”, “escribí un post sobre Kafka”, “hice un video sobre Kafka” o “publiqué un ebook sobre Kafka” son en realidad productos de baja calidad hechos por Claude, cuesta verlos como materiales de aprendizaje útiles o como una contribución real a la comunidad
  • Pedir stars para un nuevo repositorio de GitHub solo por haber metido un prompt y ejecutarlo, o compartir sin filtro textos y repositorios generados por IA en todos los subreddits y Slacks posibles, termina cargando a la comunidad

El punto en el que hay que detenerse antes de compartir

  • El patrón que se repite suele ser más o menos este
    • descubren el agentic coding y quedan impactados
    • suben el proyecto a GitHub
    • hacen que la IA escriba un post entusiasta y luego lo comparten en todos los subreddits y grupos de Slack que encuentran, tengan o no relación con el tema
  • Hay que detenerse después del segundo paso y pensar a fondo qué fue lo que se hizo y por qué se quiere compartir
  • Si la razón es “porque está genial”, no alcanza
    • el agentic coding ya no es una novedad sorprendente y ahora forma parte de la manera de trabajar
    • que la IA pueda escribir algo solo porque una persona pudo pensar el prompt ya no significa demasiado por sí mismo
  • Antes de compartir algo ampliamente, conviene hacerse estas preguntas
    • ¿es realmente útil?
    • ¿quien lo hizo lo está usando de verdad?
    • ¿la documentación es suficientemente buena?
    • ¿está en condiciones de usarse?
    • ¿se revisó el código varias veces y se probó lo suficiente?
    • ¿o fue más bien algo hecho una sola vez con Claude para luego sentir al día siguiente que quizá no era tan buena idea?
  • Si se trata de software, hay que estar listo para hacerse responsable como alguien a quien otras personas le van a abrir issues y enviar PR
  • Si se trata de un texto, debería ser un texto que a uno mismo le gustaría leer y que de verdad aporte al entendimiento acumulado de la comunidad
  • Si no es más que texto autocompletado por un LLM, puede terminar siendo algo que ni quien lo hizo quiere escribir ni quien lo lee quiere leer

Por qué esto es un problema

  • El AI slop aumenta el ruido en la comunidad y hace cada vez más difícil distinguir la señal
  • Espacios como Reddit se están cubriendo cada vez más de resultados de IA vibe-coded y, en muchos casos, aunque nacen de buenas intenciones, no logran aportar a la comunidad
  • Cuanto más se contamina una comunidad con este tipo de contenido, más se cansan sus miembros de tener que abrirse paso entre el AI slop y terminan alejándose
  • Cuando los miembros se alejan, existe el riesgo de entrar en una espiral descendente en la que se reduce aún más la vitalidad orgánica de la comunidad
  • Si esta tendencia continúa, las comunidades en línea podrían marchitarse y morir, o converger en algo distópico pero ordinario como MoltBook, donde agentes de IA “conversan” entre sí sin humanos

Buen uso de la IA y mal AI slop

  • La expresión AI Slop se ha vuelto de uso bastante extendido últimamente
  • En general, se usa de forma negativa para referirse a la práctica de empujar material hecho con IA y con poco esfuerzo a personas para las que ese material no resulta útil
  • Aun así, algunas personas llaman “AI Slop” a todo lo relacionado con IA, incluso si no fue escrito por IA, y esa actitud puede superponerse fuertemente con una postura de rechazo visceral a la IA
  • El material hecho con ayuda de IA no es malo en sí mismo
    • la clave está en para qué se usa
  • Un buen uso de la IA es aquel que hace posible algo que antes no se podía hacer, y que permite que personas que antes no podían contribuir ahora sí hagan aportes a la comunidad
  • Si detrás hay atención humana y buena intención, usar IA puede tener un efecto netamente positivo
  • El mal AI slop se parece más a lanzar basura por encima de la cerca para cumplir un objetivo distinto al desarrollo de la comunidad
    • spam
    • publicaciones de baja calidad pensadas para provocar interacción
    • ruido indiferente arrojado en espacios que ni siquiera son adecuados para ese propósito

El criterio para compartir

  • Compartir contenido en línea es algo excelente y fue uno de los elementos importantes que hicieron del internet lo que es hoy
  • Lo importante es entender qué se comparte, con quién y por qué
  • En la era de Geocities, estudiantes nerd de preparatoria armaban sus propias páginas personales y les ponían GIF animados de Under Construction, contadores web y banners de webring
  • Pero haber hecho una de esas páginas no significaba que hubiera que compartirla con toda persona que uno conociera
    • se la podías mostrar a amigos o a tus padres
    • que mereciera compartirse con todo internet era otra cuestión
  • Al contenido generado por IA se le aplica el mismo criterio
    • ya sea una app vibe-coded o un post de blog, no hace falta compartirlo con todo el mundo solo porque se hizo
  • A inicios de 2026, internet vivió un shock colectivo al descubrir el poder de Claude Opus 4.5, y eso en sí mismo fue, según esta visión, algo muy impresionante
  • Cuando las personas descubren algo nuevo, quieren compartirlo con sus amistades
  • Si a eso se le suma el marketing exagerado sobre IA, que ya venía sobrecalentado, el resultado es que subreddits y Slacks terminan desbordados de contenido generado por IA

Qué vale la pena compartir

  • No hecho por IA, sino hecho con IA

    • La distinción “Built with AI, not by AI” del post reciente de Gunnar Morling es la clave
    • La IA es una herramienta poderosa, y no incluirla en la caja de herramientas de trabajo casi roza la negligencia profesional
    • Pero la IA sigue siendo solo una herramienta, y pensar, dar instrucciones y verificar son tareas que le corresponden a la persona
    • Gunnar Morling usó IA para crear Hardwood, un nuevo parser para Apache Parquet
    • Hardwood es un proyecto que ya lleva 4 meses, con una hoja de ruta sólida, una comunidad en crecimiento y un diseño cuidadoso
    • Un proyecto así no merece ser criticado solo por haber usado IA
  • Contribución

    • Hay que evaluar si lo que se quiere compartir realmente contribuye a la comunidad
    • Hay que verificar si, en esencia, no es más que el resultado de meter un prompt en una herramienta de agentic coding
    • Si otra persona pudiera ejecutar el mismo prompt y obtener un resultado parecido, entonces hay razones para dudar de que eso sea, por sí mismo, una contribución significativa al tema en cuestión
    • La ingeniería de prompts puede ser divertida y un objeto de estudio interesante, pero también puede ser algo periférico respecto del tema que trata la comunidad
    • Es parecido a seguir aventando muebles estilo Ikea en una comunidad de entusiastas del mobiliario fino solo porque uno quiere mostrarles un juego de formones interesante
    • No hace falta compartir todas las apps increíbles que se pueden hacer con Claude
    • Las herramientas desechables o scripts pequeños están bien, y en cierto sentido internet también se construyó sobre scripts pequeños, raros y compartidos por la gente
    • Pero para ese tipo de herramientas basta con subirlas a gist o GitHub; no hace falta un post de lanzamiento como si fuera el regreso de Steve Jobs
  • Respeto por la comunidad

    • En plataformas en línea como Usenet, Reddit o lobste.rs, una regla básica de etiqueta es primero “observar en silencio” (lurk)
    • Hay que quedarse un tiempo, leer publicaciones y captar el ambiente del lugar
    • Lo que se permite en una comunidad no lo decide una persona sola, sino sus miembros
    • Aunque hayas hecho una nueva implementación del protocolo de Kafka con vibe coding, si no estás seguro de que la gente quiera verla, hay que leer el ambiente
    • Si no estás seguro, lo mejor es preguntar
    • Otra forma de respetar a la comunidad es indicar de manera muy abierta y clara si se usó IA en una contribución, cómo se usó y en qué partes se usó
  • La asimetría del sinsentido

    • Hay que mirar qué impacto tiene una contribución en otras personas
    • La energía necesaria para refutar tonterías es un orden de magnitud mayor que la energía necesaria para producirlas
    • Si uno publica textos absurdos, les traslada a los lectores la carga de descubrir por sí mismos que no valen la pena
    • Si uno arroja un PR complejo a un proyecto sin el cuidado suficiente, le traslada a la persona que revisa la carga de inspeccionar el código y explicar por qué no se puede mergear
    • En esos casos, la comunidad estaría mejor sin esa contribución
    • Como el AI slop en el mal sentido se ha multiplicado demasiado, comunidades y proyectos están teniendo dificultades para manejar el impacto de las contribuciones
    • Algunas incluso han adoptado políticas de prohibición estricta para todo lo que haya sido tocado por IA
    • Proyectos como Vouch aparecieron para tratar de resolver este problema, pero ya se cruzó un punto difícil de revertir y no está claro hacia dónde va esto
    • Antes de la IA, el esfuerzo necesario para contribuir funcionaba como una especie de prueba de trabajo
    • Ese esfuerzo desanimaba a algunas personas o demostraba un compromiso real, y las comunidades podían absorber incluso contribuciones de baja calidad
    • Quien llegaba con buena intención y ganas de aprender podía recibir mentoría y crecer hasta convertirse en una parte importante de la comunidad, y quien se acercaba al spam seguía siendo manejable porque el volumen era bajo

Un gran poder implica responsabilidad

  • Las comunidades son poderosas, pero frágiles
  • El poder que ofrecen los LLM y las herramientas de agentic coding se puede explorar con entusiasmo
  • También se puede disfrutar esa sensación de “esto está increíble” que traen esas herramientas
  • Pero hay que respetar a la comunidad y compartir solo lo que de verdad sea relevante
  • Los resultados que se parecen a un dibujo infantil hecho con crayones están mejor pegados en el refrigerador de la cocina

2 comentarios

 
GN⁺ 1 시간 전
Opiniones en Hacker News
  • Dejé Reddit casi por completo y ya no entro desde que hicieron experimentos con agentes para farmear karma y publicidad encubierta
    Al leer los posts escritos por esos agentes, sentí que como lector no tendría forma de saber que los había escrito una computadora, y me dio un poco de miedo ver a tanta gente, u otros bots, interactuando con eso como si nada
    Hacker News todavía no está a ese nivel, pero sé que aquí también muchos “usuarios” en realidad son LLM. Las comunidades en línea claramente se están muriendo, y ojalá en medio de esto vuelvan a revivir las comunidades del mundo real

    • Durante un tiempo en Reddit hubo muchos posts experimentales donde publicaban bait de indignación hecho con ChatGPT, y luego los editaban para decir que era falso y que lo había escrito ChatGPT
      Supongo que querían dar una lección haciendo que quienes reaccionaban a historias sobre IA se sintieran tontos, pero la mayoría eran increíblemente falsos. Aun así no importaba: incluso después de admitir que eran falsos, los posts seguían siendo populares y los comentarios seguían llegando
      En los subreddits de consejos, la gente seguía dando recomendaciones sobre la situación, y algunos comentarios decían que habían visto el aviso de que era falso pero que igual querían seguir discutiendo
      Eso deja clarísimo cómo es Reddit. La veracidad de una publicación no importa; la capa activa de comentaristas en los subreddits populares solo quiere algo de qué discutir y, por lo general, algo por lo cual enojarse. Viéndolo en retrospectiva, es lógico: incluso antes de la IA, los posts engañosos ya habían sido por años la forma más fácil de farmear karma
    • Sin prueba de identidad o respaldo basado en redes de confianza, siento que las comunidades públicas de chat están básicamente condenadas. O eso, o se volverán algo apenas un poco mejor que la sección de comentarios de un sitio de noticias: activas, pero sin valor
      Yo participo en varias comunidades en línea que todavía funcionan bien, pero la diferencia es que ahí existen relaciones persistentes construidas con el tiempo y participación que cruza varias plataformas
      Ese reloj también se acabará algún día, pero cuando hay una mezcla de relaciones que pasan por chat de texto, llamadas de voz o video, juegos en línea y actividades presenciales, todavía es más difícil hacerse pasar por un usuario falso
      Aun así, coincido en que la era dorada de las conexiones anónimas y fáciles en línea ya terminó
    • Sería bastante interesante ver cómo las comunidades en línea mueren y las comunidades presenciales podrían volver a vivir
      Como alguien que creció antes de internet, históricamente sé cómo buscar comunidad afuera, pero como me metí muy a fondo en la vida online desde los primeros años de preparatoria, tengo bastante oxidado ese instinto de encontrar clubes o grupos nuevos en la vida real
      Por suerte tengo muchos amigos y salgo seguido, pero me da curiosidad ver cómo lo harán las generaciones jóvenes que nunca vivieron sin internet, y al mismo tiempo les deseo suerte en ese camino
    • Reddit para mí es un servicio casi muerto. Los subreddits populares están llenos de bots, y los de nicho están vacíos. Incluso en subreddits de videojuegos cuesta conseguir una sola respuesta
    • ¿Alguna vez te has puesto a pensar quién fue quien arruinó Reddit?
  • La degradación de internet ya lleva años ocurriendo, y la verdad no sé cómo se vería una solución real
    La mayoría no quiere pasar por verificación de identidad, ni pagar por entrar a una comunidad, ni meterse en espacios solo por invitación. Y los espacios solo por invitación también pueden perder bastante rápido la diversidad de pensamiento
    Aun así, el problema de los bots se va a volver cada vez más insoportable, así que tal vez una de esas opciones sea simplemente la menos mala. Y aparte, me gustó mucho el estilo del autor

  • Administro una comunidad de nicho para creadores y en 2022 implementamos una prohibición de contenido generado por IA. Era fácil ver cuánto iba a corroer la comunidad
    No ha sido fácil. Todos los días bloqueamos cuentas falsas de IA y cada mes eliminamos unas 600 cuentas de creadores de contenido de IA
    Es trabajo extra que antes de que apareciera el contenido de IA no hacía falta, y obviamente también cuesta más. Me da miedo perder esta pelea

    • ¿Qué tal cobrar 1 o 5 dólares por crear una cuenta? Con algo así parecería bastante fácil frenar la avalancha
    • A diferencia de muchas comunidades, al menos ustedes se pusieron del lado correcto desde el principio. Mejor prohibirlo por completo desde el inicio que arrepentirse después de no haberlo hecho hasta darse cuenta lentamente
    • Yo estaba en una pequeña comunidad de escritura creativa de nicho. Fue por 2021~2022, y aunque no me fui por la IA, como la gente tenía curiosidad hice varias demostraciones de distintos LLM en el tablero de charla casual
      Aunque expliqué cómo funcionaban, casi todos mostraron al menos interés. Una escritora dijo que ella también trabajaba de forma parecida, porque aprendía estilo copiando a mano, letra por letra, los textos de autores que le gustaban. En ese momento la principal preocupación era que técnicamente fuera difícil de usar
      Yo decía seguido que estaba ahí para aprender y que no planeaba publicar contenido derivado de LLM. Pero hacia fines de 2022 fue como si se hubiera activado un interruptor y casi todos empezaron a decir que la IA y sus usuarios eran claramente malvados; no mencionaban mi nombre, pero dejaron de interactuar conmigo
      Reposteaban cada vez más contenido de Twitter fuertemente anti-IA y criticaban las propuestas con IA que llegaban a varias publicaciones. Al final alguien reposteó un tuit diciendo que los usuarios de LLM deberían morir, no hubo ni una sola objeción y más bien hubo mucho apoyo
      Entonces simplemente me fui. Yo siempre participé de forma positiva y traté de responder y ayudar a quienes tenían curiosidad. Sí publiqué una historia asistida por IA, pero fue una demostración técnica para mostrar cómo el editor rastreaba automáticamente mis aportes y los de la IA, y dejé claramente marcadas las partes que yo había escrito
      Después agregaron a las reglas de envío una cláusula que decía que si consideraban que algo era contenido escrito por IA, esa persona quedaría en lista negra para todas las publicaciones de la comunidad. Como yo había mostrado lo inútiles que eran los LLM y los detectores de IA, me pareció evidente que si me exponía aunque fuera un poco podían inventar una excusa para ponerme en esa lista negra
      Incluso tenía una historia que estaba escribiendo yo mismo para enviar, pero la abandoné. No quería poner el cuello en la guillotina de una cacería de brujas
      Antes también estuve bastante metido en blockchain y pasé por algo parecido. La mayoría lo ignoraba, y luego, cuando salieron artículos sobre consumo eléctrico, de pronto el simple hecho de estar relacionado con eso pasó a ser un crimen moral absurdo. Pero con el tiempo, cuando quedó claro que las afirmaciones sobre el consumo de energía no eran gran cosa, la ola de odio también se fue apagando
      En el sentido de bloquear a los usuarios de IA, no creo que vayan a “perder la pelea”. Siempre está bien que una comunidad pequeña seleccione a sus miembros. Lo que sí dudo es que se pueda sostener por años esa indignación artificial
      Los argumentos sobre agua y electricidad de los centros de datos de IA me parecen un problema que se resolverá solo, como la crisis del estiércol de caballo en Londres, y las cuestiones de copyright también se acomodarán en cierta medida. Al final, salvo por los spammers de baja calidad, creo que dejará de importar tanto como para prohibirlo. Claro que spammers de baja calidad hay muchísimos
  • En las comunidades en línea los LLM rompieron por completo el equilibrio. La gente quiere interacción humana real con otros que piensen parecido, y va a triunfar quien encuentre cómo ofrecer experiencias en línea auténticas
    Tal vez tengan que volver las comunidades pequeñas, donde la confianza se construye lentamente. ¿Por qué todos los sitios tienen que convertirse en monstruos que buscan 100 millones de usuarios para llegar al IPO? Esa estructura atrae lo peor
    En Reddit usé este mismo nombre de usuario durante años, pero ahora prácticamente lo abandoné

    • No creo que la gente lo quiera tanto como para que realmente marque una diferencia. Incluso antes del contenido basura de IA, Reddit ya venía haciendo cambios que reducían la sensación de interactuar con personas reales y de poder hacer amigos
      La UI muestra menos los nombres de usuario y escondió las sidebars que le daban a cada subreddit una identidad comunitaria propia. En los hilos de comentarios de hoy incluso he oído que Reddit oculta muchas publicaciones de otros usuarios, así que el autor podría estar hablándole al vacío
      La sensación de interacción real se siente mucho mejor en los foros de la vieja escuela. Gracias a los avatares y los elementos de personalización es más fácil ir aprendiendo quién es quién, y como hay una cultura de textos largos también puedes percibir mejor la personalidad de los demás
      Pero, de los foros que sobrevivieron, ¿cuánta gente menor de 35 o 40 años está entrando? Cuando se les da a elegir, al final la gente parece preferir las recompensas dopamínicas de las plataformas comerciales optimizadas para maximizar la participación, junto con un internet centrado en el smartphone que mata los matices
  • A medida que aumenten los comentarios escritos por bots y los medios creados por IA imposibles de distinguir de la realidad, tal vez hasta sea bueno que los humanos abandonen las redes sociales
    Las redes sociales han contribuido a separar a las personas entre sí. Si regresamos al mundo real, podremos volver a creer en lo que vemos y disfrutar la forma de hablar, las expresiones y hasta el olor de otros seres humanos

    • El problema es que muchos tenemos intereses de nicho, y cerca no hay con quién hablar de ellos o te toman por raro
      Desde chico me gustan los mapas y la geografía, y todavía me encantan, pero en la vida real nunca he conocido a alguien a quien le gusten tanto como a mí. En internet sí hay lugares para hablar de eso y compartir textos y fotos interesantes
    • Me parece una idea ingenua. Si la gente “disfruta” redes sociales infestadas de IA, o al menos no se harta lo suficiente como para irse, se va a quedar ahí y se va a alejar todavía más de la realidad
      La mitad de los jóvenes de la UE habla regularmente con chatbots. La gente aislada va a terminar yéndose hacia esos espacios
    • Algunas empresas tecnológicas lograron volver adicta a una cantidad enorme de personas a contenido tóxico de redes sociales malo para la salud mental, y gracias a eso unos pocos se hicieron inmensamente ricos
      No creo que esas mismas empresas y ejecutivos, ahora que tienen herramientas de contenido todavía más poderosas, simplemente vayan a recoger sus cosas e irse a casa. Los LLM se usarán para construir cajas de Skinner que harán que Facebook y Twitter parezcan comunidades sanas en comparación
    • También tengo muchos amigos que conocí en línea, y varios amigos que ya conocía se mudaron lejos entre sí
      No quiero estar limitado a solo poder hacer amigos con la gente que vive cerca
    • Si ya no se puede distinguir de lo real, ¿por qué la gente se iría?
  • La empresa donde trabajo tiene una naturaleza profundamente comunitaria, y estoy 100% seguro de que, haga lo que haga Big Tech, nuestras funciones de comunidad existen solo para beneficio del usuario. Así de simple, sin zonas grises
    Desde la degradación por IA hemos perdido bastante tráfico por culpa de los bots. Lo peor es que también perdimos usuarios que antes volvían para contribuir a otros
    Tenemos varias maneras de exponer datos de la comunidad a los miembros, así que no perdemos solo por ese lado, pero hay casi 30 años de retroalimentación positiva sobre lo bueno que era para la gente la comunidad alrededor de la plataforma, y ahora todo eso está en riesgo
    Al final mi trabajo es un trabajo. También hay funciones premium y varios componentes más. Pero la parte famosa de esta plataforma es el valor que se puede obtener gratis, y también sabemos que mucha gente la usa gratis durante años y luego se suscribe cuando lo necesita o puede permitírselo, y la mayoría se queda mucho tiempo
    Me deprime ver que la gente esté perdiendo ese tipo de conexión

    • Dejé varias comunidades en línea porque el contenido basura y los usuarios que lo producen se volvieron insoportables
      Yo también uso IA. Me parece útil. Pero la gente que ya se fue a fondo con esto trata todo el texto que aparece en pantalla no como palabras de una persona, sino como si fuera un chatbot
      “Reescríbeme este código con la nueva API” “¿Perdón?” “Lo necesito ya, ¿puedes hacerlo? ¡ChatGPT no compila!” “Muéstrame primero el código” y entonces me mandan una montaña de basura
      Si digo “¿Puedo preguntar por qué decidieron hacerlo así? Me preocupan x, y, z, así que sería mejor reescribir esto que está aquí”, responden: “Eso lo hizo la IA y yo estoy aprendiendo. No hace falta reescribirlo, solo usa esta parte”
      Si digo “Paso”, alguien más lo termina haciendo y ese usuario se va
  • Tristemente, como siempre, el requisito parece ser que todos se porten bien y reduzcan el ruido. Pero eso no funciona ni a nivel individual ni a nivel global
    Uno puede mantenerse al margen, pero ¿qué haces cuando un amigo o conocido se obsesiona con la máquina tragamonedas de IA y comparte con entusiasmo su “obra”? Me pasó, y desde el inicio fui frío y hasta grosero al respecto, pero no sirvió de nada. Siguió compartiendo múltiples resultados
    A escala global, las comunidades se están muriendo. Creo que la comunicación mundial ya llegó a un punto donde genera más carga que beneficio
    A fines de los 90 y principios de los 2000, e incluso quizá hasta comienzos de los 2010, estar más conectados podía traducirse en mejores clientes o contrataciones. Hoy, desde antes de ChatGPT 3 en 2022, todas esas áreas ya estaban saturadas y sometidas a competencia por precio, y los LLM, sorprendentemente, no agregaron mucho nuevo: solo amplificaron esa tendencia

  • Uso Usenet desde 1991. Hacia 1995, cuando internet empezó a volverse popular entre el público general, la situación comenzó a empeorar. A fines de los 90 el spam ya había saturado Usenet hasta volverlo casi inútil para conversaciones normales
    Después me pasé a foros web, pero aun así nunca pensé que fueran tan buenos como un lector de noticias de Usenet. Mi favorito era slrn
    Luego apareció Reddit, y muchos foros en línea empezaron a morir porque la gente se mudó a Reddit
    Incluso esta mañana reporté a moderación 4 publicaciones de Reddit como contenido basura de IA. El motivo de reporte aparece como “disruptive use of bots”, pero la categoría debería cambiarse
    En 2 casos los moderadores coincidieron conmigo y las borraron unas 5 horas después. En los otros 2 todavía no ha pasado nada. Es una pelea imposible de ganar
    Algunos posts empiezan con algo como “Estuve pensando esto… [párrafos largos y desordenados] ¿qué opinan?”. Lees un minuto, hojeas el resto otro minuto, te das cuenta de que acabas de desperdiciar 2 minutos de tu vida y luego pierdes otros 30 segundos reportándolo a moderación
    Esto ha explotado en los últimos 6 meses
    También hay muchos bots de repost para juntar karma. Algunos subreddits tienen reglas de no volver a publicar lo mismo dentro de 30 días o 6 meses. Pero aun así es ridículo ver que una publicación consigue 500 votos positivos y al día siguiente un bot sube exactamente lo mismo y consigue 300. Da la impresión de que la granja de bots también mete los votos

  • A estas alturas no creo que cosas como verificación de identidad o prueba de humanidad vayan a funcionar
    Creo que lo que hace falta es una cooperación cliente-servidor parecida a lo que se hizo con CORS
    Es decir, que la API marque que es solo para humanos, y que el entorno de ejecución respete esa marca y bloquee esas llamadas a la API
    No sería perfecto. Como la aplicación es del lado del cliente, en teoría siempre se podría crear un entorno de ejecución propio sin esas restricciones. Aun así, me parece que es el único camino posible hacia adelante

 
GN⁺ 2 시간 전
Opiniones de Lobste.rs
  • Ya salió en otros envíos, pero uno de los mayores desgastes mentales es el README escrito por IA
    Aunque el proyecto en sí sea bueno, un README escrito por IA es una señal muy fuerte para cerrar la pestaña, y leerlo en sí se vuelve doloroso

    • Después de años viendo Lobsters y HN, también leía github.com/trending con el café de la mañana, pero lo dejé hace como 6 meses por esto
    • Estoy de acuerdo, pero promocionar bien un proyecto siempre ha sido una parte difícil para los desarrolladores
      Incluso antes de los LLM, tomar capturas o GIFs y hacer un buen README requería bastante esfuerzo
  • Hay aficionados al slop de IA “amables” y “educados”
    Dicen que ellos sí tienen criterio y maña, que jamás publican irresponsablemente slop malo, y que solo suben slop de la más alta calidad, pulido y curado por humanos
    También afirman que, como lo revisaron con cuidado antes de publicarlo, en realidad no es slop. Sostienen que hay una diferencia importante entre el slop premium que ellos promueven y el slop mediocre, y que, si nos ponemos estrictos, también hay obras humanas de baja calidad que son slop
    Dicen que la gente debe usar el slop de forma cuidadosa, eficiente y correcta, y que como es un futuro inevitable, importante para todos, hay que seguir aprendiendo y discutiéndolo
    Enturbian el agua. Calman, regatean las reglas, crean excepciones y dicen que para distinguir entre usos buenos y malos del slop hace falta “matiz”. También dicen que enfocarse en los casos malos es aburrido y grosero
    Piden discutir cortésmente el buen slop y no ser demasiado duros con el malo. Dicen que el slop malo en realidad no es un gran problema, que probablemente se resolverá pronto y que el daño está exagerado. Así es como ocupan el espacio
    Si los administradores no echan rápido a estos aficionados al slop, la gente un poco menos educada empieza a publicar slop de forma un poco menos educada
    Cada vez más participantes del espacio se vuelven favorables al slop y silencian a quienes se oponen. En un instante, la comunidad se convierte en un bar de slop. Quién lo hubiera imaginado

    • Para confirmar, ¿ves que el hecho mismo de que el autor haya publicado esto en su blog ya enturbia el agua?
      Como mencionaste a los “administradores”, me pregunto si quieres decir que los admins de Lobsters deberían bloquear al autor
      Estoy 99% seguro de que esta reacción es un rechazo al autor y al texto, pero no me queda claro si es una respuesta directa a este texto o una postura general
      Lo único que lo conecta con un envío concreto de Lobsters es que fue publicado en este hilo de comentarios, así que siento que podrías pegar esta frase tal cual en los comentarios de cualquier post sobre vibecoding y funcionaría sin cambios
    • Ley de Godwin
  • En resumen, el argumento es la IA es buena, el slop de IA es malo
    Es una forma muy sarcástica de escribir al estilo HN

    • No me opongo a los LLM. Que las computadoras hayan llegado a entender lenguaje natural es asombroso, y no creo que puedas volver a meter la pasta al tubo una vez que ya salió
      Pero hay que hacerse cargo de las externalidades. Si te gusta la criptomoneda, no puedes fingir que no pasa nada con el hecho de que algunos de sus usuarios más entusiastas sean grupos de ransomware patrocinados por el Estado norcoreano
      Del mismo modo, si te gustan los LLM, deberías mirar críticamente por qué se usan con más facilidad para dañar el ecosistema online que para enriquecerlo
      Este texto parece peligrosamente cercano a “mi uso es bueno y el tuyo es malo”. Mucha gente adopta esa postura, pero la definición de “bueno” cambia mucho
      Cosas como “escucho música generada por IA, pero no pasa nada porque las disqueras de todos modos explotaban a los artistas”, “llegué tarde por una cita con el dentista y mandé un documento de diseño escrito por LLM sin leerlo”, “el 90% del post del blog lo escribió un LLM, pero mi prompt era interesante y original”
      Una característica de una postura con principios es que no te sirve para juzgar a otros, sino que te incomoda a ti mismo. Entonces, ¿dónde está la línea que el autor decidió no cruzar, aunque quisiera?
    • Peor aún, es el tipo de postura de “quiero comerme el pastel y seguir teniéndolo”
      Siendo justo, la mayoría de los defensores de los LLM que conozco son así
      Lo curioso es que la mayoría está varios escalones arriba de mí en lo profesional. No lo digo para atacarlos, solo como una medida de “al menos podrían pensar más allá de la distancia a la que escupen”
      Y aun así, no parece que vivieran en el mismo mundo en el que yo he vivido
      No hay soluciones técnicas para problemas sociales. Lo que frena el mal comportamiento es el castigo y la fricción. El castigo es posible hasta cierto punto, pero aplicarlo a través de fronteras es difícil, y la fricción desapareció por culpa de los LLM
      El buen uso de los LLM es fundamentalmente igual al mal uso, solo que con más pasos. Por eso, mientras se pueda ganar más de 0 dinero de esa forma, inevitablemente habrá más mal comportamiento que buen comportamiento
      En contextos locales quizá pueda cambiarse con mucho esfuerzo, pero a escala global estamos fregados
    • Este comentario tiene sorprendentemente poca visión o retroalimentación, considerando aquello de lo que se queja
      Es raro que un comentario de tan bajo esfuerzo reciba votos positivos
    • Esta respuesta no me convence por el sarcasmo
      El texto en sí está escrito con cuidado, y se puede debatir o criticar su postura de manera válida, pero meterlo en una cajita así termina cerrándolo todo
      Y al tratar con gente que publica posts de blog escritos por IA en comunidades humanas, creo que cierto nivel de sarcasmo también es apropiado
    • En general sí. Pero también está diciendo: por favor no arruinen las comunidades que aprecio
      No sé si “una forma muy sarcástica de escribir al estilo HN” pretende ser un halago o no :D
  • El slop mató el relanzamiento de https://digg.com en cuestión de meses
    Los bots enseguida aprovecharon el buen PageRank SEO del dominio antiguo para inundarlo de spam, y esa pelea no se podía ganar

    • ¿Eh? ¿Digg ni siquiera ha vuelto a abrir todavía, no?
  • “Están compartiendo resultados de IA con demasiada facilidad, ¡y eso es terrible y malo! Los resultados de IA que yo compartiría solo deben compartirse cuando yo los comparta. Entonces todo será excelente.”
    Da risa que un texto con ese tono acuse a otros de ser infantiles
    No entiendo por qué esto fue publicado en Lobsters

  • Lo nuestro es productividad asistida por IA, curada y revisada con cuidado; lo de ustedes es slop de IA descuidado, generado al aventón y con valor negativo

  • He tenido buenas experiencias con la IA. Voy a responder directamente las preguntas del autor para aportar un ejemplo positivo aquí
    “¿Aun así quieres compartirlo ampliamente?” No ampliamente, pero a veces publico mis proyectos si vienen al caso. Por ejemplo, después de que alguien preguntó directamente cómo hacer sandboxing de IA, compartí aquí el proyecto virtdev
    “¿De verdad es útil?” Utilísimo
    “¿Lo usas tú mismo?” Literalmente todos los días
    “¿La documentación es realmente buena?” Depende de lo que entiendas por “buena”. La documentación de proyectos que no me importan lo suficiente como para documentarlos yo mismo la escribe la IA. Me parece mejor que no tener nada. De hecho, si no fuera por Claude, esas cosas ni siquiera existirían
    “¿Se puede usar?” Claro
    “¿Has vuelto a revisar el código una y otra vez y lo has puesto a prueba lo suficiente?” Sí. Yo mismo uso mi software y arreglo regularmente los problemas que encuentro. También abro Claude y le pido que haga code review de toda la base de código
    “¿No fue una de esas noches con Claude y a la mañana siguiente sentiste que a ninguno de los dos le había parecido buena idea?” No
    “Si es software, ¿estás listo para hacerte responsable como alguien a quien puedan abrirle issues y mandarle PRs?” Sí
    “Si es un texto, ¿es algo que tú mismo querrías leer?” Depende. Mis textos los escribo yo. Aquí no uso Claude para nada más complejo que corrección de estilo
    Irónicamente, aquí el resultado quizá habría sido mejor si hubiera usado Claude. Lo que optimicé hacia donde yo quería salió mezclado
    El texto que escribí sobre garbage collection me da risa cada vez que lo leo, pero la gente de HN dijo que yo tenía un problema. Tampoco estaban equivocados. Mi único consuelo es que parece que a Bob Nystrom le gustó
    “¿De verdad aporta al entendimiento acumulado de la comunidad, o solo es un LLM autocompletando texto que a mí me da flojera escribir y a ti te da flojera leer?” No lo sé. Yo lo hago para mí. Si le sirve a la comunidad o no, eso le toca decidirlo a la comunidad