- Si usas el servicio Claude de Anthropic, a partir de ahora tus propios datos se utilizarán para el entrenamiento de IA
- Está previsto que los datos de entrada de los usuarios se usen más adelante para entrenar modelos con el fin de mejorar los sistemas de IA
- No incluye los datos pasados; esto aplica a los datos nuevos que se ingresen de ahora en adelante
- Los datos eliminados o marcados como privados no se usarán para el entrenamiento
- Los usuarios pueden elegir la opción para no participar (opt-out) desde la configuración
Cambio en la política de recopilación de datos y entrenamiento de IA de Claude
- Los usuarios de cuentas de Claude operadas por Anthropic ahora deben tener en cuenta que todos los datos que ingresen en el servicio se usarán para el entrenamiento de IA
- Esta política se aplica a los nuevos datos ingresados en adelante, y no afecta a los datos proporcionados anteriormente
- Los datos eliminados por el usuario y los datos marcados como privados no se incluyen en el conjunto de datos de entrenamiento de IA debido a un procesamiento separado
- Anthropic indica en la información del servicio que, si el usuario lo desea, puede rechazar el uso de sus datos para entrenamiento desde el menú de configuración (opt-out)
- Se está aplicando una política equilibrada entre el desarrollo de los servicios de IA y la protección de los datos de los usuarios
1 comentarios
Opinión de Hacker News
https://futureoflife.org/ai-safety-index-summer-2025/
https://imgur.com/afqMi0Z