1 puntos por GN⁺ 2025-08-30 | 1 comentarios | Compartir por WhatsApp
  • Anthropic actualizó los Términos de uso para consumidores y la Política de privacidad
  • Ahora los usuarios pueden elegir directamente si permiten que sus datos se utilicen para mejorar los modelos
  • Se aplica a los planes Claude Free, Pro y Max, y excluye a los usuarios existentes de servicios comerciales y API
  • Si permiten el uso de sus datos, pueden contribuir a reforzar la seguridad del modelo y a mejorar funciones futuras como la programación
  • El consentimiento para el uso de datos, el período de conservación y otros cambios se pueden administrar en cualquier momento desde la configuración

Contenido principal de la actualización

  • Anthropic actualizó los Términos de uso para consumidores y la Política de privacidad para mejorar el rendimiento de la IA Claude y reforzar la protección de los usuarios
  • Los usuarios pueden elegir si desean aportar sus datos para mejorar los modelos de Claude y fortalecer las medidas de seguridad
  • En la configuración, pueden ajustar en cualquier momento si comparten datos o no

Alcance y excepciones

  • Esta actualización solo se aplica a los planes Claude Free, Pro y Max, así como a los usuarios de Claude Code bajo esos planes
  • Los servicios bajo términos comerciales, es decir, Claude for Work, Claude Gov, Claude for Education y el uso de la API (incluido a través de terceros, por ejemplo: Amazon Bedrock, Google Cloud Vertex AI), no están incluidos

Impacto del consentimiento para el uso de datos

  • Si se acepta compartir datos, mejorará la seguridad del modelo y aumentará la precisión de los sistemas de prevención de daños y uso indebido
  • También puede contribuir a mejorar diversas capacidades de futuros modelos de Claude, como programación, análisis y razonamiento
  • Esta configuración siempre queda bajo control directo del usuario; al registrarse, o en el caso de usuarios existentes, se puede elegir la opción mediante una ventana emergente

Notificación y entrada en vigor

  • Se informará a los usuarios dentro de la app sobre la actualización y la posibilidad de cambiar la configuración
  • Los usuarios existentes podrán decidir si aceptan los términos y si comparten sus datos hasta el 28 de septiembre de 2025
  • Si aceptan, la nueva política se aplicará de inmediato, y solo a conversaciones nuevas o reanudadas y a sesiones de programación
  • Después del 28 de septiembre de 2025, será necesario elegir la configuración manualmente para seguir usando Claude
  • Se pueden cambiar las opciones en Privacy Settings

Extensión del período de conservación de datos

  • Si se acepta compartir datos para entrenamiento del modelo, el período de conservación de datos se amplía a 5 años
  • Esta extensión solo se aplica a conversaciones nuevas o reanudadas y a sesiones de programación, y los datos se utilizarán para mejorar el modelo y reforzar la seguridad
  • Si se elimina una conversación, esos datos no se usarán para futuros entrenamientos del modelo
  • Si no se acepta compartir datos, se mantendrá la política existente de conservación por 30 días

Tratamiento de los datos de retroalimentación

  • Los comentarios de los usuarios también estarán sujetos a la política de conservación por 5 años

Protección de la privacidad y tratamiento de datos

  • Anthropic filtra y seudonimiza datos sensibles mediante herramientas y procesos automatizados para proteger la privacidad del usuario
  • Los datos de los usuarios no se venden a terceros

Información adicional

  • Los cambios detallados en los Términos de uso para consumidores y la Política de privacidad se pueden consultar en la sección de FAQ

1 comentarios

 
GN⁺ 2025-08-30
Opiniones de Hacker News
  • Me pregunto si los usuarios podrían contaminar futuros datasets de entrenamiento dejando siempre feedback de insatisfacción incluso cuando en realidad recibieron ayuda, o guiando maliciosamente la conversación hacia direcciones destructivas y luego dejando feedback muy positivo

  • No me gusta que lo presenten como si el valor predeterminado fuera opt-in cuando en la práctica es opt-out, empujándolo con un prompt que parece una simple actualización de términos; además, conservar los datos por 5 años me parece excesivo, sospecho que puede haber más cosas problemáticas en los nuevos términos y, al final, esto fue lo que me llevó a cancelar la suscripción

    • Noté que en todas las demás configuraciones de Anthropic, cuando el interruptor está activado aparece azul y cuando está desactivado aparece negro, pero en este cuadro de aviso del cambio el deslizador es gris en ambos estados; se puede comprobar yendo a preferencias y comparando directamente, y me decepciona un poco, además de dejarme un sabor amargo, que alguien lo haya hecho así a propósito
    • Quiero objetar la expresión “opt-in by default”; en realidad lo correcto es decir “opt-out”, porque la configuración predeterminada es opt-out
    • Menciona la parte de “conservar por 5 años”; una vez que se entrena al modelo con eso, se queda para siempre
    • Lo que de verdad me preocupa es la retención por 5 años; si durante los próximos 5 años siguen cambiando los términos y volviendo a presentar la opción de opt-out, bastaría con equivocarse y hacer clic una sola vez para que se lleven todos los datos; más adelante incluso podrían eliminar el opt-out; también podrían cambiar los términos dentro de 4 años y 364 días y ampliarlo a 10 años, y para entonces la privacidad ya estaría tan debilitada que quizá mucha gente ni siquiera notaría que esa opción dejó de existir
    • Cuando abrí la app me salió el popup con el aviso del cambio junto con la opción de opt-out; en términos de transparencia, eso sí parece aceptable
  • Claude me está ayudando con mi investigación matemática, y me preocupa que si durante la conversación le comparto ideas de investigación aún no publicadas, después Claude pueda sugerirle esa misma idea a otra persona y esa persona crea que es idea suya; sentí que la privacidad es indispensable en el desarrollo de conocimiento con IA no solo para cuentas comerciales, sino también para individuos

    • Le preguntan si eso no significa que Claude al final ayudó con el trabajo de otra persona; Claude no sabe nada fuera de sus propios chats aparte de los datos con los que fue entrenado, así que este fenómeno es un mecanismo clásico de la IA
    • Ve a la IA como un enorme motor de asociaciones; en investigación matemática, distinguir entre “una idea que nadie ha pensado” y “una idea que alguien ya pensó” siempre ha tomado mucho tiempo; antes había mucho proceso iterativo de encontrar palabras clave pasando por internet, MathSciNet, ArXiv, etc., pero con la IA ha invertido más de 6 meses en aprender a formular prompts que produzcan respuestas raras; la capacidad de generalización de la IA más bien genera confusión; por ejemplo, paradójicamente, cuando algo parece más novedoso suele ser en realidad una conexión entre partes que todos ya venían pensando; si se estructura bien el prompt, la IA también puede conectar ideas de esa manera
    • Si en el popup relacionado con los nuevos términos eliges opt-out, tus chats no se usan para entrenamiento
    • Si el trabajo es realmente novedoso, la probabilidad de que luego aparezca en estos modelos es muy baja; estos sistemas, por naturaleza, generan salidas generalizadas a partir de datos compartidos por mucha gente, así que para que un concepto aparezca en inferencia tiene que ser muy común en los datos de entrenamiento; en la práctica, eso protege tanto la innovación como la privacidad, y si se trata de un concepto ya bastante difundido entonces también merece formar parte del conocimiento público, salvo por el tema de la propiedad intelectual
    • Hay una línea borrosa sobre hasta dónde las empresas de IA van a aprovechar conocimiento humano que en realidad no poseen, o incluso cabe pensar que esa línea nunca se trazó
  • Era algo esperable; los principales jugadores ya llegaron al límite de entrenar con prácticamente todos los datos posibles de internet y hasta con contenido robado que incluso les ha traído demandas; como en los últimos años no ha habido grandes innovaciones en arquitectura de modelos, ahora están en guerra por conseguir más datos de entrenamiento y al final terminan extendiendo la mano hacia los datos de los usuarios, cada vez con métodos más dudosos

    • Cientos de brokers de datos también quieren los datos de los usuarios, pero las empresas de IA ya tienen un canal construido donde los usuarios entregan datos voluntariamente todos los días; solo necesitan cambios de términos con patrones oscuros y un poco de manejo menor de relaciones públicas; en una semana, toda esta polémica se va a olvidar
    • Es interesante ver que los modelos de IA recientes están sufriendo una caída de calidad al entrenarse con datos generados por ellos mismos; si hubieran separado con más cuidado el contenido humano del contenido IA o hecho acuerdos con editoriales, quizá la situación sería distinta; pero todos andan con prisa por raspar todos los datos posibles y al final todos salen perdiendo
    • La controversia no es si fue “robo” o no; ellos mismos admitieron ante el tribunal que sí hubo copia ilegal
    • Para las empresas de IA, los datos son una mina de oro mucho más poderosa que para la industria publicitaria; son esenciales para sobrevivir; el verdadero problema es la conducta poco ética que puede surgir en la intersección entre IA y publicidad; se supone que Google y Facebook ya deben estar conectando entre sí sus plataformas de datos, y tengo una mezcla de expectativa y preocupación por los casos de uso que aparecerán el día en que eso quede permitido abiertamente
    • Casos como este muestran justamente la necesidad de regulaciones y salvaguardas más fuertes
  • A mucha gente no le sorprende, pero a mí personalmente sí me impacta bastante; por ejemplo, así como Google no pone el contenido del Gmail de los usuarios en los resultados de búsqueda, me parece que esto es una decisión de negocio autodestructiva; siento que quizá se me está escapando algo

    • Gmail también analizó correos durante años para mostrar publicidad, hasta 2017 enlace
    • Gracias a este artículo enlace me enteré de que este cambio de política no aplica a cuentas Claude de trabajo ni de educación, y que se mantienen las protecciones de privacidad existentes; en la práctica, las cuentas gratuitas o no comerciales no le generan dinero a Anthropic y les importa menos ese grupo; con esta decisión buscan reducir la entrada de esos “usuarios gratis”, y sospecho que pronto anunciarán algo como “escuchamos sus comentarios y lanzamos un nuevo producto centrado en la privacidad; paguen solo 30 dólares al mes”
    • Estos datos son muy útiles para aprendizaje por refuerzo; además, todas las demás empresas también lo hacen, y encima existe la posibilidad de hacer opt-out
    • El encuadre de que la reacción sea sorpresa en sí mismo es raro; era algo que todos esperaban
    • Google sí explotó profundamente los correos para marketing y otros fines, incluso transferencias al gobierno, pero eso es distinto de poner el contenido del correo en resultados de búsqueda o de que Claude lo use para entrenamiento; y Google no recibió un gran castigo por hacerlo
  • En realidad, lo frustrante hasta ahora era que la IA no pareciera aprender nada en absoluto de sus interacciones con los usuarios, especialmente porque repetía los mismos errores; me sorprende que este cambio apenas ocurra ahora

    • El aprendizaje en tiempo real no ocurre, y mis datos tampoco se reflejan de inmediato; los datos de entrenamiento igual se usan para entrenar el modelo, que es un proceso de varios meses; los datos de una o dos personas no afectan mucho el flujo de uso de la mayoría, y lo que termina teniendo efecto no es una forma de trabajo específica mía, sino solo aquello que es común entre muchos usuarios
    • Tampoco se puede aprender tanto de la interacción misma; las métricas de evaluación también están centradas en criterios globales, no en usuarios individuales, así que el servicio solo se vuelve cada vez más genérico
    • Es una estrategia para obtener más datos por la misma cuota de suscripción; no parece probable que haya descuentos ni reembolsos
  • Si mucha gente está en contra, yo más bien lo veo positivamente; permitir que los LLM aprendan de conversaciones pasadas es muy importante para el progreso del modelo; sí reconozco que, a largo plazo, puede ser peligroso que el conocimiento colectivo se concentre en unas pocas empresas, así que al final me parece que la única solución será una modalidad de “autocustodia” donde cada organización o persona opere y entrene sus propios modelos, aunque para que eso sea realista los costos tendrían que bajar muchísimo

    • Creo que este enfoque estaría bien si hubiera reciprocidad, pero yo pago 20 dólares al mes y aun así tendría que regalarle a Anthropic los datos de entrenamiento, lo cual no tiene sentido
    • Siento que falta reconocer que no se trata de “mejorar los LLM entre todos”, sino de proporcionar datos de entrenamiento para un solo LLM, Claude
    • El riesgo aumenta si se entrenan con datos sensibles como código fuente de empresas, guiones o información de salud y finanzas
    • A mí me parece bien aunque los LLM no mejoren mucho más
    • De hecho, no está claro que aunque los LLM mejoren bastante eso vaya a traer un beneficio real para la mayoría de los usuarios; en conjunto, incluso podría salir peor
  • Que la política cambie apenas ahora me parece todavía peor; yo ya quería que usaran mis datos para entrenar, y hasta me da igual que sigan entrenando siempre; si alguien quiere obsesionarse al extremo con la privacidad de los datos, simplemente que no use sus propios datos; yo estoy completamente en la posición contraria, pero las empresas nunca consideran a quienes piensan así; ni siquiera Google ofrece una opción de “usen activamente todos mis datos para entrenamiento”; ya he introducido varias veces dónde vivo y aun así se les sigue escapando; todo está diseñado bajo la premisa de que “nadie quiere compartir sus datos”; incluso las entrevistas a DeepMind sobre medicina empiezan siempre desde el miedo, el desastre y la obsesión con compartir datos; yo nunca he sufrido un daño serio por eso y más bien solo he visto beneficios para el avance de la medicina; con el NHS siempre intento marcar la opción de “usen activamente mis datos”, pero el valor predeterminado siempre es “rechazar todo”, así que elegirlo es engorroso; ojalá hubiera una sola casilla maestra de “usen todos mis datos y no me vuelvan a preguntar”

    • Para poder empatizar más con esa postura, uno tendría que creer que las empresas todavía están al servicio de los usuarios, pero en la práctica mi información se usa más bien en contra de mis propios intereses, por ejemplo para dirigirme anuncios de productos engañosos; la mayoría de las empresas de IA también están bajo la influencia del capital de riesgo y se enfocan más en la ganancia que en construir productos para los usuarios; ahora estamos en la era tipo “MoviePass”, donde se recompensa generosamente a los usuarios para ganar cuota de mercado, y más adelante la calidad del servicio va a empeorar mientras aumentan las posibilidades de abuso MoviePass Wikipedia
    • Me cuesta entender que alguien sostenga una opinión así seriamente y sin pensamiento crítico
    • Si vivieras en un país con sistema de seguro médico privado, entenderías enseguida lo importante que es la privacidad de los datos médicos
    • Me pregunto si esto no será troleo, o si vive en un mundo ideal donde las empresas ponen al usuario por encima de todo
    • Hay valores que para mí claramente están por encima de “ojalá los LLM funcionen un poquito mejor” en mi vida
  • Yo creía que Anthropic, con una visión de largo plazo, apuntaba a una base de usuarios pequeña pero técnicamente fuerte; en principio voy a cancelar mi suscripción; los modelos open source todavía no están al nivel de Claude para mis necesidades, que se centran en preparar pruebas de seguridad basadas en estándares ISO/IEEE, pero encontraré una alternativa

    • Al final, lo único que el usuario puede hacer es darse de baja del servicio; no se puede esperar mucho de la ley o la regulación y, aunque lleguen, probablemente se resuelva pagando algún costo; desde el momento en que entregas datos a un servicio web o una app, hay que usarlos asumiendo que esos datos ya no son exclusivamente tuyos
  • Me pregunto por qué enlazan un artículo resumido por IA de perplexity.ai en vez del comunicado oficial real; en el comunicado real enlace, los puntos importantes son: el aviso del cambio y la opción de opt-out aparecen en un popup dentro de la app, se puede hacer opt-out en cualquier momento desde el menú de configuración, entra en vigor el 28 de septiembre, solo aplica al aceptar los nuevos términos y renovar la sesión, y no aplica a API/servicios externos, Claude Gov ni Claude for Education; el enlace original sería más útil

    • Si se puede hacer opt-out, no me preocupa tanto, aunque me pregunto si apps de terceros integradas con Claude API, como JetBrains AI o Zed, deciden en nombre del usuario si hacer opt-in o no; en casos basados en API, esta opción de entrenamiento nunca debería venir con opt-in por defecto y creo que toda la industria debería seguir ese criterio
    • En el popup de la app que yo recibí solo había botones e imágenes, sin texto; hasta inspeccioné el DOM pensando que quizá era un problema de modo oscuro, pero no encontré ningún texto; lo ignoré porque pensé que era solo un aviso de función nueva, y si no me hubiera topado por casualidad en Reddit con la política recién cambiada, no me habría enterado; probablemente muchos usuarios, además de yo, pasaron por alto esto
    • Reconozco que mi comentario anterior estaba fuera de contexto y lo edité; originalmente el enlace llevaba a un resumen de varios artículos hecho por perplexity.ai, pero justo un moderador lo reemplazó por el anuncio original; muchos comentarios salieron de hojear solo el resumen de IA y sacar conclusiones apresuradas; de hecho, fue mejor que lo cambiaran al original
    • Creo que es mucho mejor enlazar la fuente original que varios resúmenes de artículos