- Un texto sobre el colapso de la confianza en internet, centrado en el caso de haber encontrado un artículo falso generado por IA sobre el relanzamiento para Sega Genesis en Japón de ‘Phantasy Star Fukkokuban’, un juego que en realidad sí existe
- Un sitio que aparecía entre los primeros resultados de búsqueda publicó un texto con contenidos completamente falsos, como mejoras gráficas y efectos climáticos, y luego se reveló que era una ficción creada por un modelo de lenguaje grande (LLM)
- El autor también comprobó directamente el fenómeno de alucinación (hallucination) por falta de datos de entrenamiento al pedirle a ChatGPT que describiera el mismo juego, obteniendo información sobre plataforma y contenido incorrectos
- Este tipo de contenido generado automáticamente llega en masa a sitios publicitarios con fines de SEO, reforzando una estructura que difunde información falsa pero verosímil sin verificación
- Como resultado, la base de conocimiento compartida de internet se está deteriorando, y se concluye que la información confiable solo puede depender de sitios con reputación previa a la era de los LLM
Caso de Phantasy Star Fukkokuban
- ‘Phantasy Star Fukkokuban’ para Sega Genesis, lanzado en Japón en 1994, es una reedición que incluye tal cual el juego original de Master System
- En algunas consolas Genesis no se pueden ejecutar juegos de Master System, por lo que ese cartucho tampoco funciona
- El autor intentó confirmar la fecha de lanzamiento de este juego y encontró entre los primeros resultados de búsqueda un sitio con información falsa
- El sitio problemático, ‘Press Start Gaming’, mencionaba mejoras gráficas, efectos climáticos y ciclos de día y noche, pero nada de eso existe en el juego real
- Aunque la primera frase del artículo era “Game data not found”, después seguía una descripción verosímil generada por IA
El problema de las alucinaciones en los modelos de lenguaje grandes
- Los LLM funcionan con base en la predicción del siguiente token, y sobre temas raros que no están en los datos de entrenamiento producen ficciones plausibles
- Al combinar la serie ‘Phantasy Star’ con el significado de la palabra ‘Fukkokuban’ (edición reeditada), el modelo imaginó una versión remake que no existe
- Cuando el autor le pidió a ChatGPT que describiera el mismo juego, recibió una respuesta que lo confundía con una compilación para Sega Saturn
- Al parecer, en realidad se mezcló con otro juego llamado ‘Phantasy Star Collection’
- De forma similar, también existe en la web japonesa una descripción ficticia generada por IA sobre otro juego raro tratado por el autor, ‘Mahjong Daireikai’
El derrumbe de la confianza en internet
- Se presume que el sitio ‘Press Start Gaming’ es una plataforma de contenido automatizado orientada a ingresos publicitarios
- En la parte inferior del sitio aparece la leyenda “©2025 Cloud Gears Media”, pero no está clara su relación con una empresa real
- Este tipo de sitios prioriza la visibilidad en búsquedas (SEO) por encima de la transmisión de hechos
- Con la introducción de los LLM, el costo de producir información falsa cayó drásticamente, y el contenido sin verificación se está difundiendo a gran escala
- Antes, incluso los redactores mal pagados hacían al menos una verificación mínima; ahora la IA genera ficción completa
- El autor señala que “ahora es difícil confiar en sitios nuevos” y que ha terminado dependiendo solo de medios que construyeron su reputación antes de la IA
Daño al ecosistema informativo en la era de la IA
- El autor evalúa que el “conocimiento compartido (common)” de internet ya está dañado hasta un punto difícil de revertir
- Incluso las fuentes confiables corren el riesgo de contaminarse con contenido de IA
- Como ejemplo, menciona el caso de Ars Technica, que publicó un artículo con una cita generada por IA y luego tuvo que corregirlo y retirarlo
- Si los LLM llegan a integrar más datos, quizá algún día su precisión mejore, pero el daño actual ya está en marcha
- El autor dice que “este texto es solo un rant”, pero subraya la sensación real y concreta de pérdida de confianza en internet
Conclusión
- El ecosistema de contenido centrado en IA y SEO prioriza la eficiencia de producción por encima de la veracidad de la información
- Como resultado, los textos generados automáticamente sin verificación de hechos aparecen en los primeros resultados de búsqueda y dañan la base del aprendizaje y la exploración de los usuarios
- El autor cierra el texto con la declaración “ya no se puede confiar en internet”, sugiriendo la urgencia de recuperar la confianza en el conocimiento digital
1 comentarios
Comentarios en Hacker News
Estoy construyendo una red mesh en mi pueblo junto con amigos
El internet abierto ya venía en declive desde hace mucho, pero los LLM están acelerando su final
Ya acepté que el internet de los 90 y principios de los 2000 está muerto
Creo que la alternativa en adelante son las redes locales confiables
Da tristeza tener que replegarse a espacios exclusivos por culpa de gente obsesionada solo con ganar dinero
La clave no es la red, sino la calidad del contenido
Basta con crear un foro donde solo invites a personas de confianza
Suerte con el intento
Ahora mismo estoy puliendo un reproductor MP3 basado en red; todavía está en una etapa temprana, pero soy optimista
Enlace del proyecto
Creo que una razón por la que hoy hay mucha más desinformación en línea que antes podrían ser los mercados de predicción (prediction markets)
Es una estructura que distorsiona la percepción de la gente para poder apostar dinero
Desde el caso del superconductor LK99 en 2023, este fenómeno ha aumentado de forma drástica
Los mercados de predicción permiten comerciar información por dinero, pero no son lo bastante grandes como para impulsar desinformación deliberada
Más bien creo que la causa principal son los políticos, influencers y la desinformación participativa motivada por ingresos publicitarios
El problema es el colapso de la confianza en internet
Antes era cosa de caer ocasionalmente en información errónea, pero ahora está lleno de contenido reproducido por bots
La proporción entre personas y bots está casi en cero
Al final, terminamos incendiando la web
A estas alturas, da la impresión de que ni siquiera quienes movían los hilos saben ya qué está pasando
Por eso los modelos actuales podrían acabar siendo la versión menos sesgada de todas
Pensé mucho en cómo proteger HN, pero al final parece que no hay otra salida más que un sistema basado en invitaciones
Últimamente agota emocionalmente porque ya ni siquiera sabes si los comentarios los escribió una persona
El ambiente es de fe casi religiosa en la IA, así que se mezclan cuentas bot y comentarios filtrados por IA
El Fediverse, como Mastodon, todavía se mantiene sano, pero algún día también se contaminará
La relación señal/ruido (SNR) de internet está en su punto más bajo de la historia
Creo que la única solución son las firmas digitales verificadas como humanas
Deberíamos poder demostrar que somos humanos mediante sistemas como eIDAS sin perder el anonimato
Enlace a la discusión relacionada
Habría que mantener el anonimato, pero con una estructura que impida los ataques Sybil
Me impacté al buscar videos sobre el Intel i7-4790T
La mayoría de los videos recientes eran puro contenido basura, con gente leyendo guiones generados por LLM
El producto ni siquiera se vendió al por menor, pero canales de YouTube suben decenas al día para monetizar con enlaces de afiliado de Amazon
Video de ejemplo 1 / Video de ejemplo 2
Ahora que el costo de producir contenido falso es casi cero, necesitamos mecanismos de confianza escalables
Personalmente, la estructura de Web of Trust me parece atractiva
Algunas personas quedarán excluidas, pero no hay mucho que hacer al respecto
Estoy construyendo un archivador auxiliar basado en el protocolo Gemini
Solo planeo registrar sitios web permitidos por robots.txt
Se podrían formar redes de confianza no solo entre personas, sino también entre sitios
Podría empezar a nivel de comunidades locales o grupos de hobby, y luego expandirse poco a poco
Hace poco estuve buscando información sobre el nuevo Hollow Knight, y me encontré con varios sitios falsos de guías hechos con LLM
Como solo lleva seis meses desde su lanzamiento, todavía no hay mucha información real, así que parece hecho para ganar dinero con anuncios
Me pregunto si de verdad sale rentable fabricar contenido falso incluso sobre temas de nicho como este
Es como ver la “teoría de la asimetría de las tonterías” funcionando en la práctica
Mientras peor sea el SEO de un sitio web, más confiable parece
Creo que el futuro de internet irá hacia las comunidades por invitación
Me pregunto si aparecerá la próxima generación de foros o si volveremos a la era de phpBB
Solo podrá sobrevivir el contenido que no se convierta en objetivo de juegos o spam
Tiene un ambiente similar al de HN, pero funciona con una estructura solo por invitación