1 puntos por GN⁺ 2025-08-30 | 1 comentarios | Compartir por WhatsApp
  • Si usas el servicio Claude de Anthropic, a partir de ahora tus propios datos se utilizarán para el entrenamiento de IA
  • Está previsto que los datos de entrada de los usuarios se usen más adelante para entrenar modelos con el fin de mejorar los sistemas de IA
  • No incluye los datos pasados; esto aplica a los datos nuevos que se ingresen de ahora en adelante
  • Los datos eliminados o marcados como privados no se usarán para el entrenamiento
  • Los usuarios pueden elegir la opción para no participar (opt-out) desde la configuración

Cambio en la política de recopilación de datos y entrenamiento de IA de Claude

  • Los usuarios de cuentas de Claude operadas por Anthropic ahora deben tener en cuenta que todos los datos que ingresen en el servicio se usarán para el entrenamiento de IA
  • Esta política se aplica a los nuevos datos ingresados en adelante, y no afecta a los datos proporcionados anteriormente
  • Los datos eliminados por el usuario y los datos marcados como privados no se incluyen en el conjunto de datos de entrenamiento de IA debido a un procesamiento separado
  • Anthropic indica en la información del servicio que, si el usuario lo desea, puede rechazar el uso de sus datos para entrenamiento desde el menú de configuración (opt-out)
  • Se está aplicando una política equilibrada entre el desarrollo de los servicios de IA y la protección de los datos de los usuarios

1 comentarios

 
GN⁺ 2025-08-30
Opinión de Hacker News
  • Sinceramente, estas empresas ya se han robado terabytes de datos y ni siquiera publican sus datasets, así que asumo que cualquier cosa que yo meta en el servicio la van a recopilar y usar para entrenamiento sí o sí
    • ¿Leer cosas publicadas libremente en internet ahora resulta que es robo? Me parece una interpretación excesivamente dura de los derechos de propiedad
    • No hace falta asumir lo peor; no hay que pensar que todos van a actuar con mala fe, y también hay que tener cuidado de que esa forma de pensar no se vuelva la norma
    • Creo que la opinión de arriba es la interpretación más razonable
  • Yo ya daba por hecho que todos los datos ya se estaban usando para entrenar IA; me pregunto si yo era el único que pensaba así
    • En 2025, el problema más difícil de toda la informática va a ser convencer a la gente de que "no estamos entrenando IA con toda su información personal"; siendo honestos, hasta me pregunto si Anthropic decidió simplemente usarla porque igual la gente no cree que nadie vaya a dejar de entrenar con sus datos, y quizá ofrecer una opción que las personas puedan controlar por sí mismas incluso aumentaría la confianza
    • No entiendo muy bien esa forma de pensar; no sé por qué hay que asumirlo por defecto. Cuando empecé a usar Claude, me bastó invertir unos minutos para revisar la configuración de privacidad. Yo siempre lo reviso cada vez que uso un servicio por primera vez. Si uno parte de la suposición cínica de que todo se comparte, al final simplemente deja de revisar nada. Está ahí mismo en Configuración -> Privacidad
    • Es como la ingenuidad de la gente que cree que si borra documentos de los servidores de Google/META/Apple/Microsoft realmente desaparecen; seguramente Google todavía tiene copias de respaldo de toda la información que ha indexado durante los últimos 20 años. Es un nivel que hasta Internet Archive envidiaría
    • Yo asumía que las cuentas gratuitas ya se usaban para entrenamiento de IA, y pensaba que si había datos que de verdad no quería dejar, bastaba con borrarlos del servicio. Pero que eso incluya incluso las cuentas de pago y que conserven los datos durante 5 años no lo entiendo
    • Claro, todavía habrá gente que cree en el valor básico de los acuerdos sociales. Pero después de ver cómo esas promesas se tuercen o se ignoran cada vez que resultan incómodas, no sorprende que se vuelva común una visión cínica. El problema es cómo esa visión afecta las decisiones reales. Al final, lo que antes era público se vuelve cada vez más privado. Por eso estoy intentando usar versiones locales y crear cosas sobre las que yo tenga más control
  • Al final siento que más adelante va a salir a la luz que entrenaron con los datos de todos, sin importar quién hizo opt-out. Quiero seguir usando Claude, pero no quiero que todas las soluciones que yo he creado terminen circulando como si fueran conocimiento público
    • Hay una pregunta sobre si alguna empresa antes ignoró solicitudes de opt-out; suena a que algo te sigue rondando la cabeza
    • A mí no me molesta que una empresa o una IA mejore un poco con mis entradas; lo que no quiero es que eso quede vinculado directamente con mi nombre o mi información. Ojalá aplicara la regla de Chatham House (Chatham House Rule: se puede compartir el contenido de la conversación, pero se preserva el anonimato de quien habló)
    • Me da curiosidad por qué no quieres compartir tus insights. Creo que compartirlos directamente sería mejor que dejar que los datos se filtren a través del entrenamiento de IA, aunque tu forma de decirlo sí suena más fuerte
  • Al final parece que ya se les está acabando la data para entrenamiento. Me pregunto cuánto pueden seguir dependiendo de los datos y qué tipo de "conocimiento" pueden extraer. Yo casi nunca doy feedback y la mayoría de las veces (5 de cada 6) recibo resultados incorrectos. Aun así, no sé cómo podrían decidir que esos resultados tienen valor
    • Podrían usar un método como Google: si el usuario hace clic en cierto enlace y luego no hace más búsquedas, asumir que el resultado fue útil. Incluso mi silencio podrían interpretarlo como una señal débil de satisfacción (aunque claro, depende del patrón de uso del usuario)
    • Al final, usen lo que usen para entrenar, no sabemos si realmente tiene valor. Si recibo una respuesta equivocada y no expreso mi descontento, a la empresa probablemente no le va a importar mucho
  • Esto me recuerda que pasó justo después de la publicación del AI Safety Index. Ese informe elogiaba a Anthropic por no usar datos de usuarios para entrenamiento, así que yo también había empezado a confiar más y a usarlo más
    https://futureoflife.org/ai-safety-index-summer-2025/
  • La IA moderna se basa en datos. Creer en la promesa de que nuestras conversaciones no se van a usar para entrenamiento es como darle su comida favorita a un tragón y pedirle que prometa no comérsela. Bueno, aun así, mientras la conversación no se filtre completamente hacia afuera, me parece tolerable. Yo ya uso estos servicios aceptando esa condición
    • No deberíamos normalizar este tipo de cosas. Si queremos que se respeten las obligaciones contractuales y se protejan nuestra privacidad y nuestros derechos humanos, eso tiene que hacerse cumplir
  • En la app de iOS, apenas inicié sesión me apareció de inmediato el popup para configurar el opt-out. Fue un poco molesto, pero la forma de manejarlo estuvo bien
    • Yo sí quiero que un LLM como Claude se vuelva más inteligente a partir de mis conversaciones y mi feedback. Me frustra muchísimo que no tenga memoria de largo plazo por usuario ni historial de conversación integrado. Llevo 6 meses pidiéndole a Anthropic una función de opt-in. Claro que entiendo los problemas de privacidad, pero en mi área de especialidad (investigación cognitiva, genética, neurofilosofía) necesito que Claude se vuelva más inteligente y quiero compartir la información que tengo para conseguir un verdadero compañero de pensamiento
  • Es difícil de creer. En términos de privacidad, esto es un problema ético comparable a algunas de las decisiones infames de Meta. Fue un rollout realmente pésimo. Ese modal apareció tal cual dentro de una ventana de conversación existente. Yo nunca autoricé que usaran mis datos, mis ideas, mi salario ni mi historial familiar, y me preocupa que luego desde PR salgan con un "¿pero sí aceptaste en el modal, no?"
    https://imgur.com/afqMi0Z
  • No sé qué datos usaron para entrenar, pero ya cancelé Claude por segunda vez. Me fastidian los bugs de la UI web y ese parpadeo constante, y últimamente las respuestas de la IA se han vuelto demasiado negativas y arrogantes. Antes no pasaba, ni con versiones anteriores ni con otros LLM. Supongo que intentaron ajustarlo después de que antes lo criticaban por ser adulador y les salió mal. Ahora se pone a adivinar mis intenciones y me critica más allá del contexto técnico. Cuando uso Gemini, siempre asume que estoy molesto con la respuesta, pero al menos no es grosero. Así que me pasé otra vez a chatgpt y sigo comparándolos
    • Los power users necesitan diales ajustables como en una API (adulación/seguridad/desactivar modo de protección infantil, etc.). Incluso estaría bien tener un interruptor de desbloqueo, como un microondas
  • Hay una publicación parecida a esta aquí
    • Al menos esta publicación sí incluye el texto original del aviso que envió Anthropic, así que tiene valor. El resumen que ofrece Perplexity quizá sea más fácil de leer para gente no especializada