2 puntos por GN⁺ 2026-03-04 | 1 comentarios | Compartir por WhatsApp
  • Despidieron al periodista Benj Edwards tras la controversia por un artículo que incluía citas falsas generadas con herramientas de IA
  • El artículo en cuestión trataba un incidente en el que una IA publicó un texto criticando al ingeniero humano Scott Shambaugh; más tarde se descubrió que contenía citas falsas y fue retirado
  • Edwards explicó que, mientras usaba una herramienta de IA basada en Claude Code, ocurrió un error y, al intentar identificar el problema con ChatGPT, terminó incluyendo citas incorrectas
  • Ars Technica calificó el caso como una “grave violación de sus estándares”, completó una revisión interna y planea publicar en el futuro una guía sobre el uso de IA
  • Este caso muestra que, en un momento en que chocan el uso de IA en el periodismo y los estándares éticos, incluso los expertos en IA pueden quedar expuestos a errores humanos y limitaciones técnicas

Resumen del caso del despido en Ars Technica

  • Ars Technica terminó la relación laboral con el reportero Benj Edwards tras la controversia por un artículo que incluía citas falsas generadas por IA
    • El medio pertenece a Condé Nast
  • El artículo problemático fue una cobertura publicada el 13 de febrero sobre un incidente relacionado con IA: un agente de IA publicó un texto criticando al ingeniero humano Scott Shambaugh
  • Después de que Shambaugh señalara que el artículo incluía citas que él nunca dijo, el editor en jefe Ken Fisher publicó una disculpa y retiró el artículo

Disculpa del editor y medidas internas

  • En su disculpa, Fisher reconoció que el artículo contenía “citas falsas generadas por herramientas de IA” y lo describió como una “grave violación de sus estándares
  • Agregó que el incidente parecía ser “un caso aislado”, y luego Ars Technica anunció que ya había concluido su revisión interna
  • El director creativo Aurich Lawson cerró el hilo de comentarios de los lectores y señaló que “ya se habían completado las medidas internas apropiadas
    • También mencionó que planean publicar más adelante una guía para lectores sobre cómo usarán y no usarán la IA

Explicación de Benj Edwards

  • En una publicación en Bluesky, Edwards dijo que “incluyó citas falsas por error mientras usaba herramientas de IA” y asumió toda la responsabilidad
    • Explicó que estaba de baja médica en ese momento y que el error ocurrió mientras usaba una herramienta experimental de IA basada en Claude Code para organizar citas
    • Luego, al usar ChatGPT para identificar la causa del problema, terminó incluyendo en el artículo frases parafraseadas en lugar de declaraciones reales
  • Subrayó que “el artículo fue escrito por un humano y no existe ningún artículo generado por IA”, y aclaró que el coautor Kyle Orland no tuvo relación con el error

Reacción de los lectores y cambios posteriores

  • Los lectores de Ars Technica expresaron fuerte decepción y enojo en el hilo de comentarios del artículo
  • Para el 28 de febrero, el perfil de Edwards en Ars Technica había sido modificado al pasado, confirmando que ya no formaba parte del medio
  • Futurism consultó a Ars Technica, Condé Nast y Edwards sobre su situación laboral, pero el medio y su empresa matriz no respondieron, y Edwards dijo que “no puede hacer comentarios”

La controversia por el uso de IA en los medios y su contexto

  • Este caso se menciona como otro ejemplo más, tras controversias relacionadas con IA en CNET, Sports Illustrated y otros medios
  • El artículo señala que actualmente los medios promueven el uso de IA mientras aún carecen de estándares éticos claros
  • En torno a la adopción de IA confluyen factores como disputas de copyright, la expansión del contenido generado por IA y la caída de tráfico por AI Overviews de Google
  • En este contexto, el caso de Ars Technica expone la intersección entre la tecnología de IA y el error humano
  • Edwards comentó: “Siento la ironía de ser un periodista de IA que cayó en una alucinación de IA”, y añadió que, aunque valora la precisión, esta vez fue “un fracaso doloroso”

1 comentarios

 
GN⁺ 2026-03-04
Opiniones de Hacker News
  • Los periodistas y blogueros a menudo analizan los errores y disculpas de otras personas, discutiendo si son sinceros o no

    • En este caso, Aurich Lawson de Ars Technica eliminó un artículo que incluía citas falsas generadas por un LLM y publicó una no-disculpa ambigua
    • Al final, despidieron al periodista, pero Ars ni siquiera publicó un artículo al respecto
    • En una época en la que la franqueza se percibe como debilidad, esperaba que Ars fuera un ejemplo de transparencia y responsabilidad, y decepciona
    • Que Ars reconociera el error y despidiera al periodista sí fue asumir responsabilidad
      • El propio periodista también dio una explicación detallada en Bluesky
      • La queja es solo que esa explicación no resultó suficientemente satisfactoria
    • Si el periodista cubría temas relacionados con IA, debió haber verificado obligatoriamente las citas generadas por el LLM
      • Si el equipo editorial tampoco lo revisó, eso deja ver los estándares editoriales de Ars
      • Hace falta comprobar si otros artículos también desaparecieron de forma similar
    • Me pregunto si es normal que un medio haga público que despidió a alguien
      • Ars sí informó en esos días, al cabo de unos pocos días, sobre el problema con la fuente de las citas
    • El equipo editorial de Ars ya tenía desde antes estándares bajos
      • La mitad de los titulares son clickbait que induce a error y busca clics
      • Hay demasiados encabezados poco confiables
    • Decir que Aurich Lawson borró el artículo es una forma de ‘culpar al mensajero’
      • Él es solo la cara visible de la comunidad, y probablemente ni siquiera tenía esa autoridad
  • Se comparte una experiencia personal con el periodista Benji

    • Al principio hizo una buena entrevista, pero después, cuando el proyecto empezó a recibir atención y volvieron a contactarlo, rechazó cubrirlo alegando lineamientos de no cobertura
    • La relación con los periodistas no fue transparente y se sintió la opacidad de la prensa
    • Al comunicarse con periodistas, conviene dejar siempre un registro por escrito
    • En Alemania se ve muy mal la actitud de intentar usar a periodistas para promocionar proyectos personales
      • La respuesta de Benji incluso parece una decisión normal y ética
    • Como periodista, si ya se recibe una propuesta sobre un tema que otro medio ya cubrió, casi siempre se rechaza
      • Porque se busca una exclusiva, y casi todos los PR pitches se rechazan
    • A veces los periodistas simplemente están ocupados o les cuesta expresar un rechazo, y por eso no responden
    • Los periodistas tienden a evitar cubrir el mismo tema dos veces
    • Ars tiende a resumir y reescribir artículos externos, o a investigar por cuenta propia solo cuando se trata de exclusivas
  • Nuestra organización usa un bloqueo automatizado para verificar citas legales generadas por IA

    • Si una cita no coincide con la base de datos oficial, se marca como alucinación (hallucination) y una persona la vuelve a verificar
    • La IA es solo una ayuda para borradores; la decisión final debe pasar por verificación humana
    • Como en el enfoque de Anders Hejlsberg, es más seguro hacer que la IA construya herramientas en vez de ponerla a hacer directamente el trabajo
      • Así se reduce el alcance de la verificación y solo hay que comprobar la precisión de la herramienta
  • Más que el despido individual del periodista, el problema mayor es el colapso de la estructura editorial

    • En los últimos 10 años, los medios redujeron al personal de verificación, y como resultado desapareció el sistema de fact-checking
    • Al introducir además herramientas de IA y aumentar la producción sin verificar, se produjo una falla sistémica
    • Es un problema estructural similar al modelo del queso suizo de los accidentes industriales
    • Hace falta debatir que en adelante los medios divulguen con transparencia si usan IA o no
  • Respeto y apoyo a Ars Technica, pero en este caso la responsabilidad es del equipo editorial

    • Si un artículo se publicó bajo la marca, debió existir necesariamente un proceso de verificación de hechos
    • Aun así, Ars tiene muchos periodistas excelentes, así que no corresponde juzgar al conjunto por un solo error
    • Eric Berger está sesgado a favor de Musk, y Dan Goodin tiene poca comprensión técnica
      • En cambio, Ashley Belanger es la más confiable por su reporteo directo y escritura profunda
      • Beth Mole también combina profesionalismo con sentido del humor
    • Se extraña a Maggie Koerth y Jon Stokes de antes
    • No hay que sobreestimar los procesos internos de verificación de los grandes medios
  • Se organiza el contexto de discusiones previas y se comparte una línea de tiempo sobre la controversia relacionada con artículos de IA

  • Los grandes medios ya están obligando al uso de LLM

    • Existen lineamientos internos sobre cómo pulir la salida de IA para que no se note y cómo verificar citas
    • Debido a la presión por resultados, incluso despiden a periodistas que no usan IA
    • No es un problema exclusivo de Ars, sino un fenómeno general creado por una estructura centrada en clics
    • También hubo réplicas preguntando si hay pruebas de eso
      • Afirmar que es un secreto a voces sin evidencia concreta puede parecer una forma de eludir la responsabilidad de gestión
    • También surgieron opiniones pidiendo escuchar más sobre si esas directrices realmente existen y sobre métodos para disfrazar la salida de IA
  • El titular del artículo menciona el despido del periodista, pero en realidad faltan hechos confirmados

    • Como base se menciona que la biografía del periodista cambió de ‘is’ a ‘was’ y que las personas relacionadas no lo negaron
    • Al ver la publicación de Benj en Bluesky, no parece una renuncia voluntaria
  • Aunque las críticas contra Ars son intensas, el periodista ya pagó las consecuencias

    • Confío en que Ars será más cuidadoso de ahora en adelante
  • La mejora de precisión de Google AI Overview resulta sorprendente

    • Ahora a veces ni siquiera se revisan los enlaces
    • Pero eso no pasa de resumir resultados de búsqueda y constituye una estructura que canibaliza el contenido de los sitios fuente
    • En la práctica también da información incorrecta con frecuencia
    • A menudo el contenido del enlace no coincide con el resumen
    • Un usuario dijo que la IA inventó un proyecto de investigación que no existía
    • Hay que revisar los enlaces con frecuencia y reconocer los límites de confiabilidad de la IA