- Anthropic actualizó los Términos de uso para consumidores y la Política de privacidad
- Ahora los usuarios pueden elegir directamente si permiten que sus datos se utilicen para mejorar los modelos
- Se aplica a los planes Claude Free, Pro y Max, y excluye a los usuarios existentes de servicios comerciales y API
- Si permiten el uso de sus datos, pueden contribuir a reforzar la seguridad del modelo y a mejorar funciones futuras como la programación
- El consentimiento para el uso de datos, el período de conservación y otros cambios se pueden administrar en cualquier momento desde la configuración
Contenido principal de la actualización
- Anthropic actualizó los Términos de uso para consumidores y la Política de privacidad para mejorar el rendimiento de la IA Claude y reforzar la protección de los usuarios
- Los usuarios pueden elegir si desean aportar sus datos para mejorar los modelos de Claude y fortalecer las medidas de seguridad
- En la configuración, pueden ajustar en cualquier momento si comparten datos o no
Alcance y excepciones
- Esta actualización solo se aplica a los planes Claude Free, Pro y Max, así como a los usuarios de Claude Code bajo esos planes
- Los servicios bajo términos comerciales, es decir, Claude for Work, Claude Gov, Claude for Education y el uso de la API (incluido a través de terceros, por ejemplo: Amazon Bedrock, Google Cloud Vertex AI), no están incluidos
Impacto del consentimiento para el uso de datos
- Si se acepta compartir datos, mejorará la seguridad del modelo y aumentará la precisión de los sistemas de prevención de daños y uso indebido
- También puede contribuir a mejorar diversas capacidades de futuros modelos de Claude, como programación, análisis y razonamiento
- Esta configuración siempre queda bajo control directo del usuario; al registrarse, o en el caso de usuarios existentes, se puede elegir la opción mediante una ventana emergente
Notificación y entrada en vigor
- Se informará a los usuarios dentro de la app sobre la actualización y la posibilidad de cambiar la configuración
- Los usuarios existentes podrán decidir si aceptan los términos y si comparten sus datos hasta el 28 de septiembre de 2025
- Si aceptan, la nueva política se aplicará de inmediato, y solo a conversaciones nuevas o reanudadas y a sesiones de programación
- Después del 28 de septiembre de 2025, será necesario elegir la configuración manualmente para seguir usando Claude
- Se pueden cambiar las opciones en Privacy Settings
Extensión del período de conservación de datos
- Si se acepta compartir datos para entrenamiento del modelo, el período de conservación de datos se amplía a 5 años
- Esta extensión solo se aplica a conversaciones nuevas o reanudadas y a sesiones de programación, y los datos se utilizarán para mejorar el modelo y reforzar la seguridad
- Si se elimina una conversación, esos datos no se usarán para futuros entrenamientos del modelo
- Si no se acepta compartir datos, se mantendrá la política existente de conservación por 30 días
Tratamiento de los datos de retroalimentación
- Los comentarios de los usuarios también estarán sujetos a la política de conservación por 5 años
Protección de la privacidad y tratamiento de datos
- Anthropic filtra y seudonimiza datos sensibles mediante herramientas y procesos automatizados para proteger la privacidad del usuario
- Los datos de los usuarios no se venden a terceros
Información adicional
- Los cambios detallados en los Términos de uso para consumidores y la Política de privacidad se pueden consultar en la sección de FAQ
1 comentarios
Opiniones de Hacker News
Me pregunto si los usuarios podrían contaminar futuros datasets de entrenamiento dejando siempre feedback de insatisfacción incluso cuando en realidad recibieron ayuda, o guiando maliciosamente la conversación hacia direcciones destructivas y luego dejando feedback muy positivo
No me gusta que lo presenten como si el valor predeterminado fuera
opt-incuando en la práctica esopt-out, empujándolo con un prompt que parece una simple actualización de términos; además, conservar los datos por 5 años me parece excesivo, sospecho que puede haber más cosas problemáticas en los nuevos términos y, al final, esto fue lo que me llevó a cancelar la suscripciónopt-outopt-out, bastaría con equivocarse y hacer clic una sola vez para que se lleven todos los datos; más adelante incluso podrían eliminar elopt-out; también podrían cambiar los términos dentro de 4 años y 364 días y ampliarlo a 10 años, y para entonces la privacidad ya estaría tan debilitada que quizá mucha gente ni siquiera notaría que esa opción dejó de existiropt-out; en términos de transparencia, eso sí parece aceptableClaude me está ayudando con mi investigación matemática, y me preocupa que si durante la conversación le comparto ideas de investigación aún no publicadas, después Claude pueda sugerirle esa misma idea a otra persona y esa persona crea que es idea suya; sentí que la privacidad es indispensable en el desarrollo de conocimiento con IA no solo para cuentas comerciales, sino también para individuos
opt-out, tus chats no se usan para entrenamientoEra algo esperable; los principales jugadores ya llegaron al límite de entrenar con prácticamente todos los datos posibles de internet y hasta con contenido robado que incluso les ha traído demandas; como en los últimos años no ha habido grandes innovaciones en arquitectura de modelos, ahora están en guerra por conseguir más datos de entrenamiento y al final terminan extendiendo la mano hacia los datos de los usuarios, cada vez con métodos más dudosos
A mucha gente no le sorprende, pero a mí personalmente sí me impacta bastante; por ejemplo, así como Google no pone el contenido del Gmail de los usuarios en los resultados de búsqueda, me parece que esto es una decisión de negocio autodestructiva; siento que quizá se me está escapando algo
opt-outEn realidad, lo frustrante hasta ahora era que la IA no pareciera aprender nada en absoluto de sus interacciones con los usuarios, especialmente porque repetía los mismos errores; me sorprende que este cambio apenas ocurra ahora
Si mucha gente está en contra, yo más bien lo veo positivamente; permitir que los LLM aprendan de conversaciones pasadas es muy importante para el progreso del modelo; sí reconozco que, a largo plazo, puede ser peligroso que el conocimiento colectivo se concentre en unas pocas empresas, así que al final me parece que la única solución será una modalidad de “autocustodia” donde cada organización o persona opere y entrene sus propios modelos, aunque para que eso sea realista los costos tendrían que bajar muchísimo
Que la política cambie apenas ahora me parece todavía peor; yo ya quería que usaran mis datos para entrenar, y hasta me da igual que sigan entrenando siempre; si alguien quiere obsesionarse al extremo con la privacidad de los datos, simplemente que no use sus propios datos; yo estoy completamente en la posición contraria, pero las empresas nunca consideran a quienes piensan así; ni siquiera Google ofrece una opción de “usen activamente todos mis datos para entrenamiento”; ya he introducido varias veces dónde vivo y aun así se les sigue escapando; todo está diseñado bajo la premisa de que “nadie quiere compartir sus datos”; incluso las entrevistas a DeepMind sobre medicina empiezan siempre desde el miedo, el desastre y la obsesión con compartir datos; yo nunca he sufrido un daño serio por eso y más bien solo he visto beneficios para el avance de la medicina; con el NHS siempre intento marcar la opción de “usen activamente mis datos”, pero el valor predeterminado siempre es “rechazar todo”, así que elegirlo es engorroso; ojalá hubiera una sola casilla maestra de “usen todos mis datos y no me vuelvan a preguntar”
Yo creía que Anthropic, con una visión de largo plazo, apuntaba a una base de usuarios pequeña pero técnicamente fuerte; en principio voy a cancelar mi suscripción; los modelos open source todavía no están al nivel de Claude para mis necesidades, que se centran en preparar pruebas de seguridad basadas en estándares ISO/IEEE, pero encontraré una alternativa
Me pregunto por qué enlazan un artículo resumido por IA de perplexity.ai en vez del comunicado oficial real; en el comunicado real enlace, los puntos importantes son: el aviso del cambio y la opción de
opt-outaparecen en un popup dentro de la app, se puede haceropt-outen cualquier momento desde el menú de configuración, entra en vigor el 28 de septiembre, solo aplica al aceptar los nuevos términos y renovar la sesión, y no aplica a API/servicios externos, Claude Gov ni Claude for Education; el enlace original sería más útilopt-out, no me preocupa tanto, aunque me pregunto si apps de terceros integradas con Claude API, como JetBrains AI o Zed, deciden en nombre del usuario si haceropt-ino no; en casos basados en API, esta opción de entrenamiento nunca debería venir conopt-inpor defecto y creo que toda la industria debería seguir ese criterio