- Un repaso al fenómeno en el que el contenido generado por IA pasó a ocupar una parte importante de la interacción en internet
- A partir de una discusión en HackerNews sobre si un proyecto de código abierto había sido generado por IA, el autor observó patrones que hacían que incluso los comentarios parecieran escritos por una IA
- En la época de IRC y los foros phpBB, el centro eran los intercambios entre personas reales, pero hoy en día imágenes, comentarios y código creados por IA se mezclan de forma cotidiana
- También vio casos en LinkedIn y otros sitios donde fotos de empresas manipuladas con IA se publicaban como si fueran posteos reales de empleados
- Plantea la preocupación de que el avance tecnológico esté derivando no hacia el intercambio de conocimiento humano, sino hacia conversaciones entre bots y el reempaquetado comercial de contenido
La discusión en HackerNews y la toma de conciencia del problema
- El autor encontró en HackerNews un proyecto de código abierto publicado por un usuario
- En los comentarios, varios usuarios anónimos sospechaban que ese código podría haber sido generado por IA
- Señalaban que la línea de tiempo de los commits y el estilo de los comentarios parecían propios de contenido generado por IA
- El autor no se opone al uso de IA en sí, pero enfatiza que en el código abierto debería indicarse si se usó IA
- Porque la mayoría de los participantes en internet son anónimos y es difícil verificar su experiencia o autenticidad
- Los LLM pueden ser útiles para tareas simples, pero en problemas complejos o casos límite pueden implicar riesgos
Huellas de IA visibles en los patrones de los comentarios
- El autor también encontró en los comentarios del creador del proyecto un estilo característico de la IA
- Ej.: uso excesivo de em-dash (—), expresiones poco naturales como “you are absolutely right”
- Repetición de estructuras de oración típicas de IA como “let me know if you want to [do that thing] or [explore this other thing]”
- Como esas expresiones difieren de los hábitos lingüísticos reales de las personas, empezó a dudar de si su interlocutor era realmente humano
La toma de conciencia de la ‘teoría del internet muerto’
- A partir de esta experiencia, el autor recordó la Dead Internet Theory
- Esta teoría sostiene que, desde alrededor de 2016, gran parte de internet está llena de interacciones entre bots y contenido generado por máquinas
- El objetivo del contenido se concentra en beneficios comerciales, como vender productos o manipular el SEO
Contraste entre el internet de antes y el de ahora
- A comienzos de los 2000, en la época de IRC y los foros phpBB, el eje estaba en el aprendizaje y el intercambio entre personas reales
- El autor describe esa etapa como una “Internet University” y recuerda que allí aprendió sobre redes, sistemas operativos, videojuegos y desarrollo web
- En ese entonces había certeza de que la otra persona era humana
- Hoy, en cambio, vivimos en una realidad donde las imágenes y los comentarios generados por IA están mezclados, y distinguir lo real de lo falso se ha vuelto difícil
Preocupación por la expansión del contenido generado por IA
- En LinkedIn, vio fotos de oficinas manipuladas con IA publicadas por empleados reales de empresas
- Rasgos como formas extrañas de las manos o texto sin sentido delataban que eran generadas por IA
- Incluso se plantea que las personas que aparecen en las fotos podrían no existir
- En Facebook, Xitter y TikTok también se está expandiendo contenido falso generado por IA
- Ej.: imágenes de una figura gigantesca construyendo pirámides, o videos con determinados mensajes políticos
- El autor describe que esta realidad le produjo tristeza e impotencia
- A medida que la IA se vuelve fácilmente accesible para el público, el ‘AI-slop’ (basura de contenido hecho con IA) se desborda
- Hemos entrado en una era en la que la gente ya no escribe textos o código por sí misma, sino que se lo delega a agentes de IA
Escepticismo sobre el futuro de la tecnología y del conocimiento humano
- El autor sigue amando la tecnología y la ingeniería de software, pero
señala que el internet actual se está convirtiendo en un espacio donde bots hablan con bots
- El conocimiento humano se reempaqueta como contenido comercial del tipo “10 pasos para resolver tus problemas cotidianos”, y con ello
se está perdiendo el sentido original de compartir conocimiento
1 comentarios
Opiniones de Hacker News
Hace poco mis padres cayeron en un video falso de YouTube hecho con IA. Era un video de un “policía racista” portándose mal, y al principio hasta a mí me pareció real, así que me confundí. Busqué y no había fuente, solo resubidas. En la descripción del canal decía “algunos videos son recreaciones con IA de hechos reales”, pero no me pareció nada creíble. Me da mucha tristeza que este tipo de contenido fomente la división por los ingresos publicitarios de YouTube
Estoy totalmente de acuerdo con eso de que “no es una red social”. Antes “redes sociales” significaba un espacio para interactuar con amigos reales, pero ahora el término incluye hasta foros como Reddit. Como resultado, los espacios de interacción social genuina casi desaparecieron
Es un malentendido decir que nadie usa el ‘em dash (—)’. Yo lo he usado mucho desde hace tiempo. Expresiones como “you’re absolutely right” también las usamos seguido entre amigos como broma sarcástica. Entre quienes crecimos en el Reino Unido, suena natural
Hay una forma sencilla de comprobar si una imagen fue generada con IA.
Al final, el problema actual se debe a la estructura de incentivos de las plataformas.
No creo que al publicar código open source exista la obligación de declarar si se usó IA. Exigir eso solo desanima a la gente a crear. La gente quiere compartir el código que escribió, no demostrar que “no usó IA”
Me pregunto si existe alguna plataforma de redes sociales que haya prohibido la IA. Quizá se podría frenar analizando metadatos de imágenes o el comportamiento de los usuarios
Espero que algún día, cuando todo el contenido en línea esté hecho por IA, los humanos vuelvan a buscar la realidad
Ahora ya vivimos más allá de la prueba de Turing. Si no podemos distinguir entre humanos e IA, quizá no sea porque la IA se volvió más inteligente, sino porque nuestras conversaciones en línea son superficiales
Yo lo llamo el “efecto alfombra”. Cuando ves un video perfectamente alineado o una estructura conversacional demasiado ordenada, se siente artificial. Como en las alfombras marroquíes, hay que dejar cierta imperfección a propósito para que se sienta humano. Pero creo que hasta esa “señal” pronto va a desaparecer