- Los trabajadores kenianos de Sama que revisaban contenido de gafas inteligentes para entrenar IA están en una disputa en la que se prevé el despido de 1,108 personas tras la terminación del contrato por parte de Meta
- La terminación del contrato ocurrió menos de dos meses después de que los trabajadores dijeran haber visto en videos de las gafas de Meta escenas de usuarios usando el baño y teniendo relaciones sexuales
- Meta dijo que Sama no cumplió con sus estándares operativos, mientras que Sama respondió que sí cumplió con los estándares operativos, de seguridad y de calidad en el trabajo para clientes, incluido Meta, y que nunca recibió una notificación de incumplimiento
- Meta señaló que el contenido de gafas inteligentes que los usuarios comparten con Meta AI puede ser revisado ocasionalmente por trabajadores subcontratados, y que obtiene consentimiento explícito de los usuarios para la revisión humana destinada a mejorar el rendimiento del producto
- La ICO del Reino Unido y la Oficina del Comisionado de Protección de Datos de Kenia respondieron a las preocupaciones de privacidad, y junto con la controversia previa por el contrato de moderation de contenido de Facebook con Sama, esto expone los riesgos del trabajo de datos para IA
Puntos de disputa por el fin del contrato entre Meta y Sama
- Meta puso fin a un gran contrato con Sama, que utilizaba para entrenamiento de IA, y Sama estima que esta decisión provocará el despido de 1,108 personas
- La terminación ocurrió menos de dos meses después de que trabajadores de Sama en Kenia dijeran haber visto en videos de las gafas inteligentes de Meta escenas de usuarios usando el baño y teniendo relaciones sexuales
- Meta afirmó que terminó el contrato porque Sama no cumplía con sus estándares operativos
- Sama respondió que cumplió de forma continua con los estándares operativos, de seguridad y de calidad exigidos en el trabajo para clientes, incluido Meta, y que nunca fue notificada de un incumplimiento
- Organizaciones de trabajadores en Kenia creen que la decisión de Meta se tomó por las declaraciones públicas de los empleados, pero Meta no respondió directamente a esa sospecha
Revisión de videos de gafas inteligentes y problemas de privacidad
- En una investigación de fines de febrero de los medios suecos Svenska Dagbladet y Goteborgs-Posten, trabajadores anónimos revelaron que revisaban videos grabados con las gafas de Meta
- Uno de los trabajadores dijo: “Vemos de todo, desde la sala hasta gente desnuda”, y señaló que los videos también incluían escenas de personas usando el baño o teniendo relaciones sexuales
- Meta reconoció que el contenido de gafas inteligentes que los usuarios comparten con Meta AI puede ser revisado ocasionalmente por trabajadores subcontratados
- Meta considera que esta revisión busca mejorar la experiencia del cliente y que es una práctica común en otras compañías
- En una declaración enviada a la BBC, Meta dijo que las fotos y videos no son públicos para otros usuarios, y que obtiene consentimiento explícito de los usuarios para la revisión humana del contenido de IA con el fin de mejorar el rendimiento del producto
Reguladores y riesgos del uso del producto
- Poco después del reportaje sueco, la ICO, autoridad británica de protección de datos, consideró el informe como “preocupante” y envió una carta a Meta
- La Oficina del Comisionado de Protección de Datos de Kenia también inició una investigación sobre las preocupaciones de privacidad planteadas por las gafas inteligentes
- En septiembre, Meta presentó su línea de gafas con IA junto con Ray-Ban y Oakley
- Entre las funciones están la traducción de texto y respuestas a preguntas sobre lo que el usuario está viendo, lo que puede ser especialmente útil para personas ciegas o con baja visión
- A medida que creció la popularidad del dispositivo, también aumentaron las preocupaciones por el uso indebido, y en Kenia incluso se lo ha vinculado con grabaciones no consentidas de mujeres
- Las gafas de Meta están diseñadas para encender un indicador luminoso en el borde del marco cuando la cámara integrada está grabando
Trabajo de etiquetado de datos y controversias por contratos anteriores
- Los trabajadores de Sama, como annotators de datos, añadían etiquetas manuales al contenido para ayudar a Meta AI a interpretar imágenes, y también revisaban transcripts de interacciones con la IA
- Según un trabajador, las gafas de un hombre siguieron grabando en una habitación, y luego captaron a una mujer que parecía ser su esposa mientras se quitaba la ropa
- Sama es una empresa de outsourcing con sede en Estados Unidos; comenzó como una organización sin fines de lucro enfocada en expandir el empleo mediante trabajos tecnológicos y ahora opera como una B-corp “ethical”
- El anterior contrato de moderation de contenido de Facebook entre Meta y Sama también generó críticas y acciones legales de ex empleados, algunos de los cuales dijeron haber estado expuestos a contenido explícito y traumático
- Más tarde, Sama dijo que lamentaba haber aceptado ese trabajo
- Naftali Wambalo, de Africa Tech Workers Movement, también ha estado en contacto con los trabajadores del contrato de las gafas inteligentes y cree que Meta no quería que se hiciera público que contenido de las gafas inteligentes era revisado por trabajadores humanos
- Wambalo describió los estándares mencionados por Meta como algo más cercano a “estándares de confidencialidad”
- Meta ya había dicho antes que, en sus términos de servicio, los usuarios podían saber que existía la posibilidad de revisión humana
- Mercy Mutemi, de Oversight Lab, considera que la declaración de Meta debería servir como advertencia para el gobierno de Kenia y que la base presentada como vía de entrada al ecosistema de IA es muy frágil
1 comentarios
Comentarios de Hacker News
Meta canceló su contrato con la empresa subcontratada encargada de clasificar contenido de las gafas inteligentes, y eso ocurrió después de que empleados de esa empresa denunciaran internamente los graves problemas de privacidad del contenido que debían clasificar
OpenAI le encargó la clasificación de CSAM, y en 2022 Sama dio de baja a OpenAI como cliente: https://time.com/6247678/openai-chatgpt-kenya-workers/
Han pasado 4 años desde entonces y 3 desde que salió ese reportaje, y aun así la forma en que operan las empresas tecnológicas no ha mejorado en nada
No conversaría ni interactuaría con esa persona, y ni siquiera recomendaría estar en el mismo espacio
Meta dijo que Sama no cumplía sus estándares, y Sama negó esa crítica
Proteger a los criminales mientras se humilla a los denunciantes es propio de dictaduras y oligarquías
No importa en qué país esté la empresa subcontratada; si el crimen se volvió global, la protección a denunciantes también debería ser global
Al parecer un trabajador dijo: “vemos de todo, desde salas de estar hasta desnudos”
Meta dijo que esto era para mejorar la experiencia del cliente y que otras empresas también lo hacen con frecuencia, pero de verdad cuesta creer que eso diga
Probablemente sea una de las cosas más extrañas que he leído en internet en 20 años
Dan ganas de preguntarse si en Meta siquiera leen lo que dicen
Creo que decía que era para cosas como analizar problemas
Todavía recibo miradas raras cuando digo que no uso WhatsApp, pero todos los activos de Meta están contaminados, así que no uso ninguno
No sé qué es peor aquí: si que Meta grabe video desde las gafas inteligentes de sus clientes, o que despida a quienes hablaron de ello
Sí, hay que presionar para que estas empresas no actúen como basura, pero al final necesitan que la gente les entregue datos para poder hacer basura con esos datos
Hay excepciones, como Flock, que hace basura con datos de vigilancia “pública”
Ya sé que la cultura está tan arruinada que ponerse goggles corporativos de vigilancia en momentos íntimos empieza a verse normal, pero no entiendo cómo llegaron a confiar tanto
Más ampliamente, tampoco entiendo por qué alguien usaría una cámara conectada a internet que obviamente Meta va a monitorear
Creo que los complicados temas de privacidad y seguridad alrededor de las gafas inteligentes y otras tecnologías “personales” sí podrían manejarse bien si la empresa fuera cuidadosa, responsable y rápida para reaccionar
Por eso nunca tocaría un dispositivo personal de Meta
Todo su ADN está escrito para explotar a los usuarios por ganancias
A mi juicio, estos problemas solo los ven como cosas que hay que ocultar para que la gente no note hasta qué punto los explotan; ni siquiera son capaces de considerarlos seriamente, y no creo que eso vaya a cambiar
Me pregunto bajo qué condiciones el video grabado por las gafas se sube para clasificación
Supongo que si el usuario le pregunta algo a las gafas sobre lo que está viendo, entonces el video se sube para clasificación como parte del proceso para generar una respuesta
Parece que la gente oye “solo es IA” y por eso casi no se preocupa por la privacidad
Este titular me hizo recordar que “row” es una de esas palabras que pronuncié mal casi toda mi vida. Apenas este año aprendí la pronunciación correcta
En este contexto, row rima con cow, no con dough
Mi primer ejemplo de rima fue bow, y luego me di cuenta de que eso no ayudaba mucho
Eso de “dos países separados por un idioma común” les queda perfecto
https://www.merriam-webster.com/dictionary/row#dictionary-en...
Soy ex empleado de Meta. Se vale abuchearme
Internamente había 4 niveles de datos: el 1 era información pública tipo “el cielo es azul”, y el 4 era datos personales de usuarios o información sensible si se filtraba o compartía
Básicamente nos decían que todos los datos de usuario eran nivel 4, y que hacer algo sin la autorización adecuada implicaba despido inmediato
Durante el bootcamp siempre circulaban historias de al menos una persona al mes que accedía a datos de usuario y terminaba escoltada fuera del edificio en cuestión de horas
En el área de investigación visual donde yo trabajaba teníamos que pasar por un año de trámites legales para obtener permiso de grabar video en lugares públicos
Había que construir pipelines de anonimización, pistas de auditoría sólidas, borrar la mayor cantidad posible de datos y sistemas de eliminación automática si algo salía mal
También había reglas estrictas sobre dónde se guardaban los datos y quién podía acceder a ellos
El video “salvaje” donde pudiera aparecer aunque fuera un poco alguien que no hubiera firmado un contrato no podía compartirse para anotación, porque eso implicaba entregarlo a terceros
Todas las personas y lugares identificables en los datasets públicos tenían exenciones legales firmadas
Así que enterarme ahora de que simplemente vaciaron datos privados en manos de anotadores para usarlos como datos de entrenamiento significa que ni siquiera existían controles básicos
Solo demuestra que si Zuck o monetización quieren algo, las reglas dejan de aplicar
Espero que toda esa industria se derrumbe por sí sola
Los SWE solo deberían poder acceder a PII cuando haya consentimiento explícito del usuario o cliente, por ejemplo en un ticket de soporte
Más aún si se trata de alguien en bootcamp; cuesta creer que durante la capacitación pudieran acceder a datos de usuarios sin anonimizar
Incluso en mi empresa anterior, aun con consentimiento del cliente, acceder a datos de usuario requería pasar por muchísimos procedimientos
Era porque se notaba demasiado que dentro de la empresa la historia era completamente distinta
Uno de los nichos comerciales más grandes de las gafas inteligentes es grabar porno POV, así que no sorprende mucho que ese contenido terminara en una cola de moderación
El proyecto debió haberse planeado considerando ese caso de uso
Ya en la época del Oculus Go había muchos eufemismos internos para evitar decir “nuestro dispositivo tiene que lanzarse con navegador para que la gente pueda ver porno”
¿Como ya se transmitió al servidor, ahora van a mandar a alguien para impedir que tengan sexo?
https://archive.ph/ubWba
Si quieren leer más sobre cómo los aspectos más desagradables del entrenamiento de IA se descargan sobre trabajadores pobres del tercer mundo, recomiendo Empire of AI de Karen Hao
Estos trabajadores están en empleos precarios, ganan centavos por hora y quedan expuestos a material terrible