1 puntos por GN⁺ 2026-01-19 | 1 comentarios | Compartir por WhatsApp
  • Un repaso al fenómeno en el que el contenido generado por IA pasó a ocupar una parte importante de la interacción en internet
  • A partir de una discusión en HackerNews sobre si un proyecto de código abierto había sido generado por IA, el autor observó patrones que hacían que incluso los comentarios parecieran escritos por una IA
  • En la época de IRC y los foros phpBB, el centro eran los intercambios entre personas reales, pero hoy en día imágenes, comentarios y código creados por IA se mezclan de forma cotidiana
  • También vio casos en LinkedIn y otros sitios donde fotos de empresas manipuladas con IA se publicaban como si fueran posteos reales de empleados
  • Plantea la preocupación de que el avance tecnológico esté derivando no hacia el intercambio de conocimiento humano, sino hacia conversaciones entre bots y el reempaquetado comercial de contenido

La discusión en HackerNews y la toma de conciencia del problema

  • El autor encontró en HackerNews un proyecto de código abierto publicado por un usuario
    • En los comentarios, varios usuarios anónimos sospechaban que ese código podría haber sido generado por IA
    • Señalaban que la línea de tiempo de los commits y el estilo de los comentarios parecían propios de contenido generado por IA
  • El autor no se opone al uso de IA en sí, pero enfatiza que en el código abierto debería indicarse si se usó IA
    • Porque la mayoría de los participantes en internet son anónimos y es difícil verificar su experiencia o autenticidad
    • Los LLM pueden ser útiles para tareas simples, pero en problemas complejos o casos límite pueden implicar riesgos

Huellas de IA visibles en los patrones de los comentarios

  • El autor también encontró en los comentarios del creador del proyecto un estilo característico de la IA
    • Ej.: uso excesivo de em-dash (—), expresiones poco naturales como “you are absolutely right”
    • Repetición de estructuras de oración típicas de IA como “let me know if you want to [do that thing] or [explore this other thing]”
  • Como esas expresiones difieren de los hábitos lingüísticos reales de las personas, empezó a dudar de si su interlocutor era realmente humano

La toma de conciencia de la ‘teoría del internet muerto’

  • A partir de esta experiencia, el autor recordó la Dead Internet Theory
    • Esta teoría sostiene que, desde alrededor de 2016, gran parte de internet está llena de interacciones entre bots y contenido generado por máquinas
    • El objetivo del contenido se concentra en beneficios comerciales, como vender productos o manipular el SEO

Contraste entre el internet de antes y el de ahora

  • A comienzos de los 2000, en la época de IRC y los foros phpBB, el eje estaba en el aprendizaje y el intercambio entre personas reales
    • El autor describe esa etapa como una “Internet University” y recuerda que allí aprendió sobre redes, sistemas operativos, videojuegos y desarrollo web
    • En ese entonces había certeza de que la otra persona era humana
  • Hoy, en cambio, vivimos en una realidad donde las imágenes y los comentarios generados por IA están mezclados, y distinguir lo real de lo falso se ha vuelto difícil

Preocupación por la expansión del contenido generado por IA

  • En LinkedIn, vio fotos de oficinas manipuladas con IA publicadas por empleados reales de empresas
    • Rasgos como formas extrañas de las manos o texto sin sentido delataban que eran generadas por IA
    • Incluso se plantea que las personas que aparecen en las fotos podrían no existir
  • En Facebook, Xitter y TikTok también se está expandiendo contenido falso generado por IA
    • Ej.: imágenes de una figura gigantesca construyendo pirámides, o videos con determinados mensajes políticos
  • El autor describe que esta realidad le produjo tristeza e impotencia
    • A medida que la IA se vuelve fácilmente accesible para el público, el ‘AI-slop’ (basura de contenido hecho con IA) se desborda
    • Hemos entrado en una era en la que la gente ya no escribe textos o código por sí misma, sino que se lo delega a agentes de IA

Escepticismo sobre el futuro de la tecnología y del conocimiento humano

  • El autor sigue amando la tecnología y la ingeniería de software, pero
    señala que el internet actual se está convirtiendo en un espacio donde bots hablan con bots
  • El conocimiento humano se reempaqueta como contenido comercial del tipo “10 pasos para resolver tus problemas cotidianos”, y con ello
    se está perdiendo el sentido original de compartir conocimiento

1 comentarios

 
GN⁺ 2026-01-19
Opiniones de Hacker News
  • Hace poco mis padres cayeron en un video falso de YouTube hecho con IA. Era un video de un “policía racista” portándose mal, y al principio hasta a mí me pareció real, así que me confundí. Busqué y no había fuente, solo resubidas. En la descripción del canal decía “algunos videos son recreaciones con IA de hechos reales”, pero no me pareció nada creíble. Me da mucha tristeza que este tipo de contenido fomente la división por los ingresos publicitarios de YouTube

    • En el contenido racista, la demanda supera la oferta. Como con la realidad sola no alcanza para mantener el enojo, estos videos se siguen produciendo
    • Los videos de IA se notan con solo ver el historial de publicaciones de la cuenta. Suben demasiado seguido, de forma repetitiva, sin consistencia en tema ni fondo. Aunque la tecnología mejore, no creo que ese patrón desaparezca
    • Últimamente paso demasiado tiempo en el subreddit RealOrAI. Cada vez que me equivoco me da ansiedad, así que miro más para intentar distinguir mejor. Pero quizá ya tengamos que aceptar esta realidad en la que no se puede diferenciar lo real de lo falso
    • En realidad esta preocupación no es nueva. Antes también era común provocar división con fotos manipuladas o videos fuera de contexto. La IA solo hizo eso más fácil
    • Ojalá Google marcara automáticamente los videos que incluyen contenido generado con IA
  • Estoy totalmente de acuerdo con eso de que “no es una red social”. Antes “redes sociales” significaba un espacio para interactuar con amigos reales, pero ahora el término incluye hasta foros como Reddit. Como resultado, los espacios de interacción social genuina casi desaparecieron

    • Ahora quien cumple ese rol es Discord. Como son comunidades por invitación, no hay feed público y personas reales hacen la moderación directamente. Todos mis amigos de IRC de antes también se pasaron a Discord. Supongo que cuando algún día salga a bolsa, usaremos algo como Matrix como reemplazo
    • Originalmente “social media” era una red para compartir contenido directamente con amigos. Pero Facebook la volvió algo centrado en el “reshare”, y ahora terminó siendo más una plataforma de consumo de contenido aleatorio que un lugar para enterarte de tus amigos. HN, como no tiene función de amigos, se parece más a un foro
    • A TikTok o Instagram también les dicen “sociales”, pero la mayoría no publica nada. Son solo plataformas de consumo de medios
    • La verdad yo tampoco uso Discord, así que no sé bien. Solo me parece como una versión corporativa de IRC, así que no entiendo por qué es tan popular
    • Meta dijo que menos del 10% de los usuarios interactúa con gente que realmente conoce. Las redes sociales actuales son solo “entretenimiento para scrollear”
  • Es un malentendido decir que nadie usa el ‘em dash (—)’. Yo lo he usado mucho desde hace tiempo. Expresiones como “you’re absolutely right” también las usamos seguido entre amigos como broma sarcástica. Entre quienes crecimos en el Reino Unido, suena natural

    • Últimamente me molesta que por usar buena tipografía ya crean que un texto lo escribió un LLM. Yo he usado en dash y em dash desde hace años. Con la Compose key además es fácil escribirlos
    • El problema no es el em dash en sí. Como el inglés no es mi lengua materna, practiqué escribiendo en blogs, y probé varias formas porque usar o no espacios cambia la impresión que da. Al final, la mayoría de la gente no es consistente. Si alguien usa una gramática demasiado perfecta, más bien parece más probable que sea IA
    • Tal vez por la cortesía británica, uso naturalmente expresiones como “you’re right, but…”
    • En el boletín de nuestra librería también usamos em dash. Se ve más limpio visualmente que el punto y coma y sirve para separar oraciones
    • En iOS se puede escribir fácil dejando presionada la tecla “-”, así que la uso seguido
  • Hay una forma sencilla de comprobar si una imagen fue generada con IA.

    • OpenAI usa metadatos C2PA,
    • Gemini usa la marca de agua SynthID.
    • SynthID se aplica no solo a imágenes sino también a texto, y el código también es público
    • Pero si agregas o eliminas ruido con un modelo de imagen a imagen, también se puede borrar SynthID
    • De hecho, subí incluso imágenes del blog de OpenAI al sitio de verificación y no tenían metadatos. Ese tipo de cosas reduce la confianza
    • Aun así, el objetivo de C2PA es “probar que algo es real”. No puede verificar todo el contenido, pero las imágenes autenticadas incluso pueden usarse como prueba legal
  • Al final, el problema actual se debe a la estructura de incentivos de las plataformas.

    • En YouTube la motivación son las vistas, en LinkedIn el autopromocionarse, y en HN la promoción de startups.
    • ¿Se podrá crear una comunidad donde la IA no sirva de nada, donde solo existan interacciones humanas genuinas?
    • Tal vez la única respuesta sean grupos pequeños de amigos
    • Antes podías hablar con gente inteligente en foros phpBB gratis o en IRC. Pero recién ahora me doy cuenta de que el costo operativo y la carga de moderación eran grandes
    • Este tipo de comunidades debería estar limitado por el número de Dunbar (Dunbar’s number). Si crecen más que eso, no se sostienen sin reglas ni administradores
    • Hoy hasta los videos inexactos terminan generando vistas e ingresos publicitarios. La plataforma no se hace responsable
    • Tal vez sería posible si se prohibiera por completo la publicidad y solo existiera un feed centrado en amigos, sin feed global, pero la UX sería peor
    • Al final, la raíz del problema es el modelo de internet basado en publicidad. Lo de Twitter se explica más por ese límite estructural que por Elon Musk
  • No creo que al publicar código open source exista la obligación de declarar si se usó IA. Exigir eso solo desanima a la gente a crear. La gente quiere compartir el código que escribió, no demostrar que “no usó IA”

    • Pero en algunos casos el autor sigue insistiendo en que “no usó IA” y aun así el código muestra rastros de generación por IA, y eso a veces da la sensación de que te están gaslighteando
  • Me pregunto si existe alguna plataforma de redes sociales que haya prohibido la IA. Quizá se podría frenar analizando metadatos de imágenes o el comportamiento de los usuarios

    • Si apareciera una plataforma así, sería el paraíso del adversarial training
    • Bluesky no lo prohíbe oficialmente, pero la comunidad es muy hostil hacia la IA, así que casi no hay contenido de ese tipo
    • Dicen que el nuevo Vine que está reviviendo va a prohibir explícitamente el contenido de IA
    • Lugares como Mastodon.art prohíben claramente la IA
    • Al final, también pueden existir comunidades que frenen la IA solo mediante presión social
  • Espero que algún día, cuando todo el contenido en línea esté hecho por IA, los humanos vuelvan a buscar la realidad

    • Ya se ve un poco de ese cambio. Antes era “si no hay foto, no lo creo”, pero ahora como las fotos también pueden manipularse, solo tomo fotos como recuerdo real
    • Pero también es muy posible que mucha gente termine satisfecha con la interacción con IA
    • Ya ahora no pueden soltar el teléfono, y si la IA crea contenido optimizado, se van a enganchar todavía más
    • Aun así, esa idea en sí misma es bastante cálida
  • Ahora ya vivimos más allá de la prueba de Turing. Si no podemos distinguir entre humanos e IA, quizá no sea porque la IA se volvió más inteligente, sino porque nuestras conversaciones en línea son superficiales

    • Pero la verdadera prueba de Turing no consiste simplemente en engañar, sino en que un interrogador conversacional (interrogator) no pueda distinguir. Los LLM actuales todavía no llegan a ese nivel
    • El texto tiene poca densidad de información, y además existe esa confianza de que “lo escribió una persona”, así que es fácil caer. Por eso la IA basada en texto es especialmente peligrosa. A mí últimamente hasta me pasa en llamadas telefónicas que dudo si del otro lado hay una persona o un robot
    • Al final hace falta una mirada equilibrada, del tipo “por un lado…” “por el otro…”
  • Yo lo llamo el “efecto alfombra”. Cuando ves un video perfectamente alineado o una estructura conversacional demasiado ordenada, se siente artificial. Como en las alfombras marroquíes, hay que dejar cierta imperfección a propósito para que se sienta humano. Pero creo que hasta esa “señal” pronto va a desaparecer