- Se confirmó que las citas en cuestión fueron atribuidas incorrectamente a una fuente aunque en realidad fueron generadas por IA y no correspondían a declaraciones reales del supuesto autor.
- El medio calificó este caso como una falla grave de los estándares editoriales y aclaró que toda cita directa debe reflejar lo que una persona realmente dijo.
- Tras una revisión interna, señaló que no se encontraron otros casos similares adicionales y que, por ahora, el incidente se considera un caso aislado.
- Ars Technica reafirmó su política de que el contenido generado por IA no está permitido salvo en demostraciones claramente etiquetadas y pidió disculpas tanto a los lectores como a la persona citada erróneamente.
Retiro del artículo y resumen del incidente
- Ars Technica informó el viernes por la tarde que había publicado un artículo que contenía citas falsas generadas por una herramienta de IA y retiró ese artículo.
- Las citas tenían la forma de declaraciones atribuidas incorrectamente a una fuente, aunque en realidad habían sido generadas por IA y no fueron dichas por una persona real.
- El medio definió esto como una “violación grave de sus estándares”.
- El equipo editorial indicó que “las citas directas deben reflejar necesariamente lo que la fuente realmente dijo”.
Revisión interna y políticas
- Ars Technica ha tratado durante mucho tiempo los riesgos de depender en exceso de las herramientas de IA, y esa preocupación también se refleja en sus políticas internas.
- Explicó que la publicación de las citas en este caso ocurrió de una manera que no se ajustaba a dicha política.
- Tras revisar trabajos recientes, afirmó que no se encontraron problemas adicionales y que, por ahora, parece tratarse de un incidente único.
Reglas sobre material generado por IA
- Ars Technica prohíbe en principio la publicación de material generado por IA.
- Sin embargo, solo se permite como excepción cuando está claramente etiquetado y tiene fines de demostración.
- En este caso, esa norma no se cumplió.
Disculpas y medidas posteriores
- El medio pidió disculpas a los lectores por esta falla y también se disculpó directamente con Scott Shambaugh, afectado por la cita falsa.
- El equipo editorial prometió reforzar sus estándares editoriales a partir de este caso y evitar que algo similar vuelva a ocurrir.
Conclusión
- Ars Technica reafirmó con este incidente la importancia de verificar el contenido generado por IA y garantizar la transparencia.
- También está reforzando sus procesos internos para recuperar la confiabilidad editorial y mantener estándares éticos de cobertura.
2 comentarios
Un agente de IA publicó un texto difamándome
Un agente de IA escribió un texto difamándome; luego pasaron más cosas
Comentarios de Hacker News
Como ex periodista de tecnología, al experimentar con reporteo usando herramientas no verificadas, es indispensable hacerlo en un entorno controlado y revisar los resultados minuciosamente.
Un editor senior debe participar sí o sí, y lo mejor sería empezar con artículos menos polémicos.
Además, si el periodista se esforzó de más pese a estar enfermo y no poder escribir por la cultura de la empresa o la política de licencias por enfermedad, Ars necesita hacer una reflexión interna
Benj Edwards reconoció su responsabilidad a través de una disculpa publicada en Bluesky.
Explicó algunas circunstancias, pero dijo que era completamente su responsabilidad. Queda por ver si esto fue un hecho aislado
Como también se dijo en este comentario relacionado, incluso para un medio escéptico frente a la IA, hace falta experimentar directamente los límites de estas herramientas
Recopilación de hilos recientes de HN relacionados
Me pareció extraño que algunos suscriptores elogiaran en exceso a Ars por detectar el error y retirar el artículo con honestidad.
En realidad, esto es ética periodística básica, y en este caso salió a la luz porque la persona afectada lo señaló directamente en los comentarios
Está bien que Ars y el periodista hayan reconocido su responsabilidad, pero me decepcionó la redacción de la nota de retractación.
En vez de decir “no cumplía con nuestros estándares”, debieron especificar que publicaron citas falsas generadas por IA.
Así, quienes leyeron el artículo antes podrían corregir la información equivocada
Revisé qué partes habían sido fabricadas. Las citas de GitHub del inicio eran reales, pero las citas de la última sección eran todas falsas.
Parecía que las habían sacado del blog de Shambaugh, pero en realidad eran frases que no existían.
El texto original puede verse en este enlace de archivo
Me pareció raro que no hubiera un enlace al artículo retirado.
La discusión relacionada sigue en el foro de Ars.
El artículo original puede verse en la Web Archive
Tengo curiosidad por saber qué medidas para evitar una repetición van a tomar en adelante.
También queda la duda de por qué no revelaron que usaron un LLM, y si hay otros artículos con casos parecidos.
En este caso se descubrió porque las citas eran falsas, pero si no hubiera sido así, tal vez nadie se habría enterado
Como Ars lleva mucho tiempo advirtiendo sobre los riesgos de depender de la IA, este incidente resulta especialmente impactante.
La fabricación de citas iba contra sus políticas internas, y recuperar la confianza no será fácil.
Por suerte, la persona citada había bloqueado el acceso de los LLM, así que quedó al descubierto la alucinación (hallucination) de la IA