2 puntos por GN⁺ 2026-02-17 | 2 comentarios | Compartir por WhatsApp
  • Se confirmó que las citas en cuestión fueron atribuidas incorrectamente a una fuente aunque en realidad fueron generadas por IA y no correspondían a declaraciones reales del supuesto autor.
  • El medio calificó este caso como una falla grave de los estándares editoriales y aclaró que toda cita directa debe reflejar lo que una persona realmente dijo.
  • Tras una revisión interna, señaló que no se encontraron otros casos similares adicionales y que, por ahora, el incidente se considera un caso aislado.
  • Ars Technica reafirmó su política de que el contenido generado por IA no está permitido salvo en demostraciones claramente etiquetadas y pidió disculpas tanto a los lectores como a la persona citada erróneamente.

Retiro del artículo y resumen del incidente

  • Ars Technica informó el viernes por la tarde que había publicado un artículo que contenía citas falsas generadas por una herramienta de IA y retiró ese artículo.
    • Las citas tenían la forma de declaraciones atribuidas incorrectamente a una fuente, aunque en realidad habían sido generadas por IA y no fueron dichas por una persona real.
    • El medio definió esto como una “violación grave de sus estándares”.
  • El equipo editorial indicó que “las citas directas deben reflejar necesariamente lo que la fuente realmente dijo”.

Revisión interna y políticas

  • Ars Technica ha tratado durante mucho tiempo los riesgos de depender en exceso de las herramientas de IA, y esa preocupación también se refleja en sus políticas internas.
  • Explicó que la publicación de las citas en este caso ocurrió de una manera que no se ajustaba a dicha política.
  • Tras revisar trabajos recientes, afirmó que no se encontraron problemas adicionales y que, por ahora, parece tratarse de un incidente único.

Reglas sobre material generado por IA

  • Ars Technica prohíbe en principio la publicación de material generado por IA.
    • Sin embargo, solo se permite como excepción cuando está claramente etiquetado y tiene fines de demostración.
    • En este caso, esa norma no se cumplió.

Disculpas y medidas posteriores

  • El medio pidió disculpas a los lectores por esta falla y también se disculpó directamente con Scott Shambaugh, afectado por la cita falsa.
  • El equipo editorial prometió reforzar sus estándares editoriales a partir de este caso y evitar que algo similar vuelva a ocurrir.

Conclusión

  • Ars Technica reafirmó con este incidente la importancia de verificar el contenido generado por IA y garantizar la transparencia.
  • También está reforzando sus procesos internos para recuperar la confiabilidad editorial y mantener estándares éticos de cobertura.

2 comentarios

 
GN⁺ 2026-02-17
Comentarios de Hacker News
  • Como ex periodista de tecnología, al experimentar con reporteo usando herramientas no verificadas, es indispensable hacerlo en un entorno controlado y revisar los resultados minuciosamente.
    Un editor senior debe participar sí o sí, y lo mejor sería empezar con artículos menos polémicos.
    Además, si el periodista se esforzó de más pese a estar enfermo y no poder escribir por la cultura de la empresa o la política de licencias por enfermedad, Ars necesita hacer una reflexión interna

    • Al principio pensé que el artículo no insinuaba eso, pero después vi las redes sociales del autor y lo entendí. Estoy de acuerdo
    • En algunos medios en decadencia que conozco, los editores fueron los primeros en ser despedidos. Después de eso, la calidad cayó bruscamente y el círculo vicioso se aceleró. Ahora, en muchos casos, ni siquiera hay editores senior
    • Recuerdo que antes los periodistas junior se encargaban de verificar datos como citas, fechas y nombres
    • Si alguien trabaja desde casa con fiebre alta, este tipo de error perfectamente puede pasar. Más bien, el problema es que la organización haya aceptado tal cual el borrador de una persona enferma
    • En el fondo, creo que el problema es una cultura donde la gente espera que el periodismo sea gratis. Les molestan las suscripciones o la publicidad, y usan enlaces de archivo para esquivarlas, lo que termina imponiendo una carga excesiva sobre los periodistas. La cultura de Ars también es parte del problema, pero hay un trasfondo social más amplio
  • Benj Edwards reconoció su responsabilidad a través de una disculpa publicada en Bluesky.
    Explicó algunas circunstancias, pero dijo que era completamente su responsabilidad. Queda por ver si esto fue un hecho aislado

    • El núcleo del problema es que estaba trabajando desde la cama con fiebre. Da curiosidad cómo es la cultura laboral de Ars Technica
    • La disculpa dio la impresión de empezar buscando empatía para suavizar el error. No me pareció una disculpa del todo sincera
    • Soy crítico de Ars, pero no creo que esté mal que un periodista experimente con herramientas de IA. Solo que debió haber sido muchísimo más cuidadoso.
      Como también se dijo en este comentario relacionado, incluso para un medio escéptico frente a la IA, hace falta experimentar directamente los límites de estas herramientas
    • Parece probable que lectores curiosos se pongan a revisar artículos anteriores para ver si hubo casos parecidos
    • Este incidente no es solo problema de un periodista en particular, sino parte del debate social sobre los errores recurrentes que trae el uso de herramientas de IA
  • Recopilación de hilos recientes de HN relacionados

  • Me pareció extraño que algunos suscriptores elogiaran en exceso a Ars por detectar el error y retirar el artículo con honestidad.
    En realidad, esto es ética periodística básica, y en este caso salió a la luz porque la persona afectada lo señaló directamente en los comentarios

    • Aun así, veo como algo positivo que lo hayan corregido y prometido evitar que vuelva a pasar. Muchas organizaciones ni siquiera hacen eso
    • Creo que decir claramente “esto no volverá a pasar” los deja mejor parados que otros medios. Hay lugares donde la IA genera artículos completos
  • Está bien que Ars y el periodista hayan reconocido su responsabilidad, pero me decepcionó la redacción de la nota de retractación.
    En vez de decir “no cumplía con nuestros estándares”, debieron especificar que publicaron citas falsas generadas por IA.
    Así, quienes leyeron el artículo antes podrían corregir la información equivocada

  • Revisé qué partes habían sido fabricadas. Las citas de GitHub del inicio eran reales, pero las citas de la última sección eran todas falsas.
    Parecía que las habían sacado del blog de Shambaugh, pero en realidad eran frases que no existían.
    El texto original puede verse en este enlace de archivo

  • Me pareció raro que no hubiera un enlace al artículo retirado.
    La discusión relacionada sigue en el foro de Ars.
    El artículo original puede verse en la Web Archive

    • Se siente como un blanqueamiento intencional (whitewash) que no haya enlace
    • Pero volver a enlazar un artículo retirado también podría vaciar de sentido la retractación
    • El artículo figura como escrito por Benj Edwards y Kyle Orland
  • Tengo curiosidad por saber qué medidas para evitar una repetición van a tomar en adelante.
    También queda la duda de por qué no revelaron que usaron un LLM, y si hay otros artículos con casos parecidos.
    En este caso se descubrió porque las citas eran falsas, pero si no hubiera sido así, tal vez nadie se habría enterado

    • Al final, la respuesta parece quedarse en algo como “fue un error y tendremos más cuidado en adelante”
    • La postura oficial es que “el artículo no fue escrito con IA, solo se usó IA para resumir citas”. Aun así, esa decisión fue sumamente imprudente
  • Como Ars lleva mucho tiempo advirtiendo sobre los riesgos de depender de la IA, este incidente resulta especialmente impactante.
    La fabricación de citas iba contra sus políticas internas, y recuperar la confianza no será fácil.
    Por suerte, la persona citada había bloqueado el acceso de los LLM, así que quedó al descubierto la alucinación (hallucination) de la IA