1 puntos por GN⁺ 1 시간 전 | 1 comentarios | Compartir por WhatsApp
  • Los trabajadores kenianos de Sama que revisaban contenido de gafas inteligentes para entrenar IA están en una disputa en la que se prevé el despido de 1,108 personas tras la terminación del contrato por parte de Meta
  • La terminación del contrato ocurrió menos de dos meses después de que los trabajadores dijeran haber visto en videos de las gafas de Meta escenas de usuarios usando el baño y teniendo relaciones sexuales
  • Meta dijo que Sama no cumplió con sus estándares operativos, mientras que Sama respondió que sí cumplió con los estándares operativos, de seguridad y de calidad en el trabajo para clientes, incluido Meta, y que nunca recibió una notificación de incumplimiento
  • Meta señaló que el contenido de gafas inteligentes que los usuarios comparten con Meta AI puede ser revisado ocasionalmente por trabajadores subcontratados, y que obtiene consentimiento explícito de los usuarios para la revisión humana destinada a mejorar el rendimiento del producto
  • La ICO del Reino Unido y la Oficina del Comisionado de Protección de Datos de Kenia respondieron a las preocupaciones de privacidad, y junto con la controversia previa por el contrato de moderation de contenido de Facebook con Sama, esto expone los riesgos del trabajo de datos para IA

Puntos de disputa por el fin del contrato entre Meta y Sama

  • Meta puso fin a un gran contrato con Sama, que utilizaba para entrenamiento de IA, y Sama estima que esta decisión provocará el despido de 1,108 personas
  • La terminación ocurrió menos de dos meses después de que trabajadores de Sama en Kenia dijeran haber visto en videos de las gafas inteligentes de Meta escenas de usuarios usando el baño y teniendo relaciones sexuales
  • Meta afirmó que terminó el contrato porque Sama no cumplía con sus estándares operativos
  • Sama respondió que cumplió de forma continua con los estándares operativos, de seguridad y de calidad exigidos en el trabajo para clientes, incluido Meta, y que nunca fue notificada de un incumplimiento
  • Organizaciones de trabajadores en Kenia creen que la decisión de Meta se tomó por las declaraciones públicas de los empleados, pero Meta no respondió directamente a esa sospecha

Revisión de videos de gafas inteligentes y problemas de privacidad

  • En una investigación de fines de febrero de los medios suecos Svenska Dagbladet y Goteborgs-Posten, trabajadores anónimos revelaron que revisaban videos grabados con las gafas de Meta
  • Uno de los trabajadores dijo: “Vemos de todo, desde la sala hasta gente desnuda”, y señaló que los videos también incluían escenas de personas usando el baño o teniendo relaciones sexuales
  • Meta reconoció que el contenido de gafas inteligentes que los usuarios comparten con Meta AI puede ser revisado ocasionalmente por trabajadores subcontratados
  • Meta considera que esta revisión busca mejorar la experiencia del cliente y que es una práctica común en otras compañías
  • En una declaración enviada a la BBC, Meta dijo que las fotos y videos no son públicos para otros usuarios, y que obtiene consentimiento explícito de los usuarios para la revisión humana del contenido de IA con el fin de mejorar el rendimiento del producto

Reguladores y riesgos del uso del producto

  • Poco después del reportaje sueco, la ICO, autoridad británica de protección de datos, consideró el informe como “preocupante” y envió una carta a Meta
  • La Oficina del Comisionado de Protección de Datos de Kenia también inició una investigación sobre las preocupaciones de privacidad planteadas por las gafas inteligentes
  • En septiembre, Meta presentó su línea de gafas con IA junto con Ray-Ban y Oakley
  • Entre las funciones están la traducción de texto y respuestas a preguntas sobre lo que el usuario está viendo, lo que puede ser especialmente útil para personas ciegas o con baja visión
  • A medida que creció la popularidad del dispositivo, también aumentaron las preocupaciones por el uso indebido, y en Kenia incluso se lo ha vinculado con grabaciones no consentidas de mujeres
  • Las gafas de Meta están diseñadas para encender un indicador luminoso en el borde del marco cuando la cámara integrada está grabando

Trabajo de etiquetado de datos y controversias por contratos anteriores

  • Los trabajadores de Sama, como annotators de datos, añadían etiquetas manuales al contenido para ayudar a Meta AI a interpretar imágenes, y también revisaban transcripts de interacciones con la IA
  • Según un trabajador, las gafas de un hombre siguieron grabando en una habitación, y luego captaron a una mujer que parecía ser su esposa mientras se quitaba la ropa
  • Sama es una empresa de outsourcing con sede en Estados Unidos; comenzó como una organización sin fines de lucro enfocada en expandir el empleo mediante trabajos tecnológicos y ahora opera como una B-corp “ethical”
  • El anterior contrato de moderation de contenido de Facebook entre Meta y Sama también generó críticas y acciones legales de ex empleados, algunos de los cuales dijeron haber estado expuestos a contenido explícito y traumático
  • Más tarde, Sama dijo que lamentaba haber aceptado ese trabajo
  • Naftali Wambalo, de Africa Tech Workers Movement, también ha estado en contacto con los trabajadores del contrato de las gafas inteligentes y cree que Meta no quería que se hiciera público que contenido de las gafas inteligentes era revisado por trabajadores humanos
  • Wambalo describió los estándares mencionados por Meta como algo más cercano a “estándares de confidencialidad”
  • Meta ya había dicho antes que, en sus términos de servicio, los usuarios podían saber que existía la posibilidad de revisión humana
  • Mercy Mutemi, de Oversight Lab, considera que la declaración de Meta debería servir como advertencia para el gobierno de Kenia y que la base presentada como vía de entrada al ecosistema de IA es muy frágil

1 comentarios

 
GN⁺ 1 시간 전
Comentarios de Hacker News
  • Meta canceló su contrato con la empresa subcontratada encargada de clasificar contenido de las gafas inteligentes, y eso ocurrió después de que empleados de esa empresa denunciaran internamente los graves problemas de privacidad del contenido que debían clasificar

    • Dato “curioso” adicional: no es la primera vez que Sama se mete en algo así
      OpenAI le encargó la clasificación de CSAM, y en 2022 Sama dio de baja a OpenAI como cliente: https://time.com/6247678/openai-chatgpt-kenya-workers/
      Han pasado 4 años desde entonces y 3 desde que salió ese reportaje, y aun así la forma en que operan las empresas tecnológicas no ha mejorado en nada
    • Suena acertado. Si conoces a alguien que use este tipo de gafas inteligentes, es importante no normalizarlo jamás
      No conversaría ni interactuaría con esa persona, y ni siquiera recomendaría estar en el mismo espacio
    • Mark Zuckerberg ignorando la privacidad de los usuarios: cuesta imaginar una combinación más emblemática
    • Dicen que era “contenido por cuya clasificación se les pagó”, pero el sindicato de trabajadores de Kenia cree que la decisión de Meta se debió a que los empleados hablaron públicamente del problema
      Meta dijo que Sama no cumplía sus estándares, y Sama negó esa crítica
    • La protección a denunciantes es clave en cualquier sociedad que funcione bien
      Proteger a los criminales mientras se humilla a los denunciantes es propio de dictaduras y oligarquías
      No importa en qué país esté la empresa subcontratada; si el crimen se volvió global, la protección a denunciantes también debería ser global
  • Al parecer un trabajador dijo: “vemos de todo, desde salas de estar hasta desnudos”
    Meta dijo que esto era para mejorar la experiencia del cliente y que otras empresas también lo hacen con frecuencia, pero de verdad cuesta creer que eso diga
    Probablemente sea una de las cosas más extrañas que he leído en internet en 20 años

    • Es pura fantasía. He trabajado en Big Tech y subir fotos privadas sin editar o imágenes del interior de la casa de alguien para que las vea la empresa o un contratista, bajo una razón vaga como “mejorar la experiencia del cliente”, no habría pasado ni la revisión más superficial de privacidad o protección de datos en ningún lugar donde trabajé
      Dan ganas de preguntarse si en Meta siquiera leen lo que dicen
    • Hace tiempo leí el manual de una pequeña aspiradora robot Ecovacs Deebot U2 pro, y decía algo como que al usarla le dabas permiso para tomar fotos y enviarlas a servidores remotos
      Creo que decía que era para cosas como analizar problemas
    • Lo que había que leer bien eran los términos de Facebook
      Todavía recibo miradas raras cuando digo que no uso WhatsApp, pero todos los activos de Meta están contaminados, así que no uso ninguno
    • No entiendo por qué esto sorprendería. Desde hace mucho la gente entrega su privacidad a cambio de una ganancia mínima en comodidad
    • Etiquetado, etiquetado y más etiquetado. “Mejora” significa entrenar LLM y modelos de difusión
  • No sé qué es peor aquí: si que Meta grabe video desde las gafas inteligentes de sus clientes, o que despida a quienes hablaron de ello

    • Lo segundo es peor. Al menos lo primero todavía podrían decir que fue un error o “solo un bug”
    • Quizá es peor que la gente use gafas de vigilancia mientras tiene sexo con su pareja
      Sí, hay que presionar para que estas empresas no actúen como basura, pero al final necesitan que la gente les entregue datos para poder hacer basura con esos datos
      Hay excepciones, como Flock, que hace basura con datos de vigilancia “pública”
      Ya sé que la cultura está tan arruinada que ponerse goggles corporativos de vigilancia en momentos íntimos empieza a verse normal, pero no entiendo cómo llegaron a confiar tanto
    • Todo lo relacionado con Meta, empezando por su nombre, fue maligno desde el principio
    • Solo por meter una observación más: no entiendo por qué alguien llevaría una cámara de internet puesta en el cuerpo estando desnudo o teniendo sexo
      Más ampliamente, tampoco entiendo por qué alguien usaría una cámara conectada a internet que obviamente Meta va a monitorear
  • Creo que los complicados temas de privacidad y seguridad alrededor de las gafas inteligentes y otras tecnologías “personales” sí podrían manejarse bien si la empresa fuera cuidadosa, responsable y rápida para reaccionar
    Por eso nunca tocaría un dispositivo personal de Meta
    Todo su ADN está escrito para explotar a los usuarios por ganancias
    A mi juicio, estos problemas solo los ven como cosas que hay que ocultar para que la gente no note hasta qué punto los explotan; ni siquiera son capaces de considerarlos seriamente, y no creo que eso vaya a cambiar

  • Me pregunto bajo qué condiciones el video grabado por las gafas se sube para clasificación
    Supongo que si el usuario le pregunta algo a las gafas sobre lo que está viendo, entonces el video se sube para clasificación como parte del proceso para generar una respuesta
    Parece que la gente oye “solo es IA” y por eso casi no se preocupa por la privacidad

    • Yo asumo por defecto que siempre es así
  • Este titular me hizo recordar que “row” es una de esas palabras que pronuncié mal casi toda mi vida. Apenas este año aprendí la pronunciación correcta
    En este contexto, row rima con cow, no con dough
    Mi primer ejemplo de rima fue bow, y luego me di cuenta de que eso no ayudaba mucho

    • Al menos en el Reino Unido es tema de broma. La mayoría de los estadounidenses no distingue la diferencia
      Eso de “dos países separados por un idioma común” les queda perfecto
    • Sorprendentemente, yo también la pronuncié mal toda la vida. Incluso siendo nativo, el inglés no deja de sorprenderme
      https://www.merriam-webster.com/dictionary/row#dictionary-en...
    • Se pronuncia como el row de rowdy
  • Soy ex empleado de Meta. Se vale abuchearme
    Internamente había 4 niveles de datos: el 1 era información pública tipo “el cielo es azul”, y el 4 era datos personales de usuarios o información sensible si se filtraba o compartía
    Básicamente nos decían que todos los datos de usuario eran nivel 4, y que hacer algo sin la autorización adecuada implicaba despido inmediato
    Durante el bootcamp siempre circulaban historias de al menos una persona al mes que accedía a datos de usuario y terminaba escoltada fuera del edificio en cuestión de horas
    En el área de investigación visual donde yo trabajaba teníamos que pasar por un año de trámites legales para obtener permiso de grabar video en lugares públicos
    Había que construir pipelines de anonimización, pistas de auditoría sólidas, borrar la mayor cantidad posible de datos y sistemas de eliminación automática si algo salía mal
    También había reglas estrictas sobre dónde se guardaban los datos y quién podía acceder a ellos
    El video “salvaje” donde pudiera aparecer aunque fuera un poco alguien que no hubiera firmado un contrato no podía compartirse para anotación, porque eso implicaba entregarlo a terceros
    Todas las personas y lugares identificables en los datasets públicos tenían exenciones legales firmadas
    Así que enterarme ahora de que simplemente vaciaron datos privados en manos de anotadores para usarlos como datos de entrenamiento significa que ni siquiera existían controles básicos
    Solo demuestra que si Zuck o monetización quieren algo, las reglas dejan de aplicar
    Espero que toda esa industria se derrumbe por sí sola

    • Por el tamaño y la naturaleza del negocio de Meta, yo habría esperado sistemas mejores
      Los SWE solo deberían poder acceder a PII cuando haya consentimiento explícito del usuario o cliente, por ejemplo en un ticket de soporte
      Más aún si se trata de alguien en bootcamp; cuesta creer que durante la capacitación pudieran acceder a datos de usuarios sin anonimizar
      Incluso en mi empresa anterior, aun con consentimiento del cliente, acceder a datos de usuario requería pasar por muchísimos procedimientos
    • Después de Cambridge Analytica siempre me pregunté por qué Meta aplicaba requisitos tan estrictos al uso de sus API incluso para trabajos personales
      Era porque se notaba demasiado que dentro de la empresa la historia era completamente distinta
  • Uno de los nichos comerciales más grandes de las gafas inteligentes es grabar porno POV, así que no sorprende mucho que ese contenido terminara en una cola de moderación
    El proyecto debió haberse planeado considerando ese caso de uso

    • También entiendo lo incómodo que sería para Meta reconocer que ese caso de uso existe
      Ya en la época del Oculus Go había muchos eufemismos internos para evitar decir “nuestro dispositivo tiene que lanzarse con navegador para que la gente pueda ver porno”
    • Para empezar, no entiendo por qué existe una cola de moderación. ¿No se supone que son grabaciones privadas de la gente?
    • ¿Cómo se supone que moderas lo que hace la gente?
      ¿Como ya se transmitió al servidor, ahora van a mandar a alguien para impedir que tengan sexo?
  • https://archive.ph/ubWba

  • Si quieren leer más sobre cómo los aspectos más desagradables del entrenamiento de IA se descargan sobre trabajadores pobres del tercer mundo, recomiendo Empire of AI de Karen Hao
    Estos trabajadores están en empleos precarios, ganan centavos por hora y quedan expuestos a material terrible

    • Me da curiosidad saber qué ejemplos trata ese libro