- Despidieron al periodista Benj Edwards tras la controversia por un artículo que incluía citas falsas generadas con herramientas de IA
- El artículo en cuestión trataba un incidente en el que una IA publicó un texto criticando al ingeniero humano Scott Shambaugh; más tarde se descubrió que contenía citas falsas y fue retirado
- Edwards explicó que, mientras usaba una herramienta de IA basada en Claude Code, ocurrió un error y, al intentar identificar el problema con ChatGPT, terminó incluyendo citas incorrectas
- Ars Technica calificó el caso como una “grave violación de sus estándares”, completó una revisión interna y planea publicar en el futuro una guía sobre el uso de IA
- Este caso muestra que, en un momento en que chocan el uso de IA en el periodismo y los estándares éticos, incluso los expertos en IA pueden quedar expuestos a errores humanos y limitaciones técnicas
Resumen del caso del despido en Ars Technica
- Ars Technica terminó la relación laboral con el reportero Benj Edwards tras la controversia por un artículo que incluía citas falsas generadas por IA
- El medio pertenece a Condé Nast
- El artículo problemático fue una cobertura publicada el 13 de febrero sobre un incidente relacionado con IA: un agente de IA publicó un texto criticando al ingeniero humano Scott Shambaugh
- Después de que Shambaugh señalara que el artículo incluía citas que él nunca dijo, el editor en jefe Ken Fisher publicó una disculpa y retiró el artículo
Disculpa del editor y medidas internas
- En su disculpa, Fisher reconoció que el artículo contenía “citas falsas generadas por herramientas de IA” y lo describió como una “grave violación de sus estándares”
- Agregó que el incidente parecía ser “un caso aislado”, y luego Ars Technica anunció que ya había concluido su revisión interna
- El director creativo Aurich Lawson cerró el hilo de comentarios de los lectores y señaló que “ya se habían completado las medidas internas apropiadas”
- También mencionó que planean publicar más adelante una guía para lectores sobre cómo usarán y no usarán la IA
Explicación de Benj Edwards
- En una publicación en Bluesky, Edwards dijo que “incluyó citas falsas por error mientras usaba herramientas de IA” y asumió toda la responsabilidad
- Explicó que estaba de baja médica en ese momento y que el error ocurrió mientras usaba una herramienta experimental de IA basada en Claude Code para organizar citas
- Luego, al usar ChatGPT para identificar la causa del problema, terminó incluyendo en el artículo frases parafraseadas en lugar de declaraciones reales
- Subrayó que “el artículo fue escrito por un humano y no existe ningún artículo generado por IA”, y aclaró que el coautor Kyle Orland no tuvo relación con el error
Reacción de los lectores y cambios posteriores
- Los lectores de Ars Technica expresaron fuerte decepción y enojo en el hilo de comentarios del artículo
- Para el 28 de febrero, el perfil de Edwards en Ars Technica había sido modificado al pasado, confirmando que ya no formaba parte del medio
- Futurism consultó a Ars Technica, Condé Nast y Edwards sobre su situación laboral, pero el medio y su empresa matriz no respondieron, y Edwards dijo que “no puede hacer comentarios”
La controversia por el uso de IA en los medios y su contexto
- Este caso se menciona como otro ejemplo más, tras controversias relacionadas con IA en CNET, Sports Illustrated y otros medios
- El artículo señala que actualmente los medios promueven el uso de IA mientras aún carecen de estándares éticos claros
- En torno a la adopción de IA confluyen factores como disputas de copyright, la expansión del contenido generado por IA y la caída de tráfico por AI Overviews de Google
- En este contexto, el caso de Ars Technica expone la intersección entre la tecnología de IA y el error humano
- Edwards comentó: “Siento la ironía de ser un periodista de IA que cayó en una alucinación de IA”, y añadió que, aunque valora la precisión, esta vez fue “un fracaso doloroso”
1 comentarios
Opiniones de Hacker News
Los periodistas y blogueros a menudo analizan los errores y disculpas de otras personas, discutiendo si son sinceros o no
Se comparte una experiencia personal con el periodista Benji
Nuestra organización usa un bloqueo automatizado para verificar citas legales generadas por IA
Más que el despido individual del periodista, el problema mayor es el colapso de la estructura editorial
Respeto y apoyo a Ars Technica, pero en este caso la responsabilidad es del equipo editorial
Se organiza el contexto de discusiones previas y se comparte una línea de tiempo sobre la controversia relacionada con artículos de IA
Los grandes medios ya están obligando al uso de LLM
El titular del artículo menciona el despido del periodista, pero en realidad faltan hechos confirmados
Aunque las críticas contra Ars son intensas, el periodista ya pagó las consecuencias
La mejora de precisión de Google AI Overview resulta sorprendente