La transición de Meta hacia la IA está volviendo miserable la vida de sus 78,000 empleados
(nytimes.com)La transición de Meta hacia la IA está volviendo miserable la vida de sus 78,000 empleados
- Mientras Meta impulsa su transición a la era de la IA, está recopilando datos del uso de computadoras de sus empleados sin consentimiento, anunciando despidos masivos y provocando una explosión de descontento interno
- Los empleados reaccionaron con fuerza contra un programa que rastrea tecleos, movimientos del mouse, clics e incluso el contenido de la pantalla, calificándolo como una violación de la privacidad, pero no existe opción de exclusión voluntaria
- Al reflejar el uso de herramientas de IA en las evaluaciones de desempeño y rastrear el consumo de tokens en un panel, aumenta la presión competitiva entre empleados
- Está previsto que el 10% de la plantilla (unas 8,000 personas) sea despedido el 20 de mayo, y los empleados temen haber estado entrenando a la fuerza laboral que los reemplazará con IA
- El caso de Meta, donde avanzan al mismo tiempo la vigilancia de empleados, la adopción forzada de herramientas y los despidos masivos derivados de la transición a la IA, sirve como precedente de lo que podría venir para otras empresas tecnológicas
Rastreo total de los datos de uso de computadoras de los empleados
- El mes pasado, Meta notificó a sus empleados en Estados Unidos que haría un rastreo total de sus tecleos, movimientos del mouse, clics y contenido de pantalla
- El objetivo es asegurar datos de entrenamiento para enseñar a los modelos de IA "cómo las personas realmente usan las computadoras para realizar tareas cotidianas"
- Los empleados reaccionaron de inmediato y lo criticaron como una invasión de la privacidad, una medida antisocial y despiadada
- Un gerente de ingeniería preguntó: "Esto me incomoda muchísimo, ¿cómo puedo excluirme?", pero el CTO Andrew Bosworth respondió: "No hay opción de exclusión en las laptops de trabajo"
- Los empleados reaccionaron a esa respuesta con más de 100 emojis de enojo y sorpresa
- Después, también cuestionaron si Meta podría proteger de forma segura los datos recopilados, y Bosworth respondió que "los datos están controlados de manera muy estricta y no hay riesgo de filtración"
La estrategia de transición a la IA de Mark Zuckerberg
- Zuckerberg está apostando el futuro de Meta a la IA, integrándola en apps como Facebook e Instagram e invirtiendo cientos de miles de millones de dólares en modelos de IA y centros de datos
- La empresa empezó a reorganizarse alrededor de la IA tras el lanzamiento de ChatGPT de OpenAI en 2022
- El verano pasado, invirtió miles de millones de dólares para crear un laboratorio de "superintelligence" y reestructuró por completo su división de IA
- Zuckerberg ha enfatizado que la superinteligencia mejorará la vida de las personas
- En una sesión de preguntas y respuestas para toda la empresa realizada al día siguiente de la llamada con inversionistas, Zuckerberg explicó que la recopilación de datos de empleados "no es vigilancia ni seguimiento del desempeño", sino una forma de enseñar a la IA "cómo las personas inteligentes usan computadoras para realizar su trabajo"
- También añadió: "La IA es probablemente una de las áreas más competitivas de la historia"
AI Transformation Weeks y la presión por adoptar herramientas
- En marzo, Meta organizó "AI Transformation Weeks" para sus empleados
- Allí enseñó cómo usar herramientas de programación con IA y agentes de IA (asistentes digitales que realizan tareas por sí solos)
- A los diseñadores de producto se les indicó que intentaran programar usando IA, y a los desarrolladores de software que intentaran diseñar usando IA
- Se introdujo un panel interno para rastrear el consumo de tokens (unidad de uso de IA, equivalente a 4 caracteres de texto)
- Algunos empleados lo perciben como una herramienta de presión para fomentar la competencia entre colegas
- Llegaron a crearse tantos agentes de IA que apareció la situación de hacer agentes para encontrar agentes y agentes para evaluar agentes
- El uso de herramientas de IA se refleja en las evaluaciones de desempeño
Despidos masivos y ansiedad entre empleados
- Después de que el 17 de abril se reportara que Meta pronto despediría al 10% de toda su plantilla, los empleados comenzaron a preocuparse por si habían estado entrenando a sus reemplazos impulsados por IA
- Dos días después, Meta anunció oficialmente que despediría a unas 8,000 personas este mes
- La responsable de recursos humanos Janelle Gale dijo en un mensaje interno que el recorte era "para compensar otras inversiones" y mencionó que "sé que casi un mes de ambigüedad ha sido muy angustiante"
- Los despidos están programados para ejecutarse el 20 de mayo
- Algunos empleados ya no ven a Meta como un lugar para construir una carrera a largo plazo, y también hay quienes buscan otro empleo o incluso desean ser incluidos en los despidos para recibir indemnización
Reacciones de los empleados y ambiente interno
- Los empleados han respondido compartiendo guías sobre despidos y memes nihilistas
- Internamente se compartió el meme "It do not matter"
- Hasta el despido del 20 de mayo, se crearon al menos 3 sitios web de cuenta regresiva
- Uno de ellos tenía como encabezado "Big Beautiful Layoff", una parodia del nombre de un proyecto de ley de política interna del presidente Trump
- Una trabajadora de investigación de usuarios escribió en una publicación interna: "Esto destruye muchísimo la moral"
- Un empleado criticó directamente a Bosworth diciéndole: "Me preocupa tu frialdad ante las preocupaciones de tus propios empleados"
Lo que esto sugiere para toda la industria
- La situación de Meta es un caso adelantado de lo que otras tecnológicas podrían enfrentar al introducir IA en el trabajo
- Microsoft, Block y Coinbase también anunciaron recientemente despidos o programas de retiro voluntario por cambios laborales relacionados con la IA
- Como las herramientas de IA son útiles para generar código, su impacto es especialmente disruptivo para los ingenieros de software, la base de los negocios digitales
- El profesor Leo Boussioux, de la University of Washington, señaló que "la IA puede convertir a todos en mejores programadores, pero al mismo tiempo aumenta la intensidad del trabajo cotidiano", y evaluó que "todavía no existe un playbook para el uso de la IA en el trabajo"
- La CFO Susan Li dijo en una llamada con inversionistas que "con las capacidades de IA avanzando tan rápido, no sabemos cuál será el tamaño óptimo de la empresa", sugiriendo que podrían venir más cambios
1 comentarios
Comentarios en Hacker News
https://archive.is/JUPmz
El patrón es así: a Zuck se le ocurre una idea, los de alrededor le dicen “sí, esto va a cambiar el mundo”, y luego todo se convierte en un juego de apariencias para rendirle pleitesía
Si te preguntas “¿cómo pudieron tirar 80 mil millones de dólares en el metaverso?”, pues así es
No te unas a Meta. Da igual qué tan rápido responda la reclutadora o qué tan cool se vea el trabajo. En el team matching los managers mienten. Hay una razón por la que la permanencia promedio es de menos de 2 años
Es una cultura tóxica y basada en el miedo. Si entras, la gente a tu alrededor ya está pensando en usarte como chivo expiatorio. El trabajo real se mantiene cerrado para quienes tienen ventaja política, y los de afuera tienen que inventar proyectos vacíos que suenen bien. Aunque encuentres trabajo por tu cuenta, de inmediato empieza la politiquería para quitártelo
La dirección ve un mercado laboral débil e imagina que puede despedir a todos los ingenieros problemáticos que quiera
Sobre todo en los últimos años, muchos ejecutivos de tecnológicas vienen de universidades de élite donde la riqueza de los padres influye mucho en las posibilidades de entrar, así que no sorprende este clima de desprecio extremo por el trabajo
Ya se ha intentado muchas veces tratar a ingenieros formados durante años como si fueran mano de obra reemplazable, y el resultado siempre ha sido el mismo. Los LLM no van a cambiar eso
Parece que faltan normas sociales más amplias sobre cómo usar IA en el trabajo intelectual
Hace poco, alguien en el trabajo mandó por Teams una cantidad enorme de texto. Era una persona bien intencionada, pero normalmente cometía un error ortográfico en casi cada palabra y rara vez escribía mensajes de más de 20 palabras, así que era obvio que era copia y pega de ChatGPT
Para alguien que, como la gente de HN, piensa en términos de cambio de contexto o volumen de información, el problema de esa situación es evidente, pero me di cuenta de que para el público general no lo es en absoluto. Esa persona de verdad parecía pensar que ayudar era dedicar 15 segundos a escribir un prompt para luego hacerme pasar 30 minutos desentrañando mezcolanza de IA
Todavía no existe ningún entendimiento o acuerdo social sobre qué prácticas son aceptables en este tipo de situaciones
La gente menos capaz o menos útil puede producir más información en menos tiempo, y la gente más útil termina gastando su tiempo más valioso interpretándola. Por eso soy escéptico de que los LLM sean ganancia neta en la mayoría de las organizaciones
Da igual lo que uses detrás de escena, pero quiero que lo que me llegue sea el resultado de sintetizar tus propias ideas
Si no, como ya dijo mucha gente, mejor manda solo el prompt. De hecho, a veces es más interesante y mejor saber que un colega está teniendo dificultades para expresar algo
Antes de la IA, si alguien hacía un documento de diseño, un ticket de Jira o un pull request, al menos existía la suposición de que esa persona había invertido bastante tiempo y esfuerzo
Los LLM borran esa suposición. Ahora ya no sabes si un correo, un documento de diseño de 12 páginas, un pull request de 100 o 1000 líneas, o 10 tickets de Jira fueron hechos con tiempo real por alguien o si salieron de una suscripción de IA con apariencia convincente. De todos modos hay que leerlos y procesarlos, y ese costo es 100 veces mayor que el esfuerzo de quien los produjo
Para la gente que veía el trabajo como un juego de optimización entre el esfuerzo real y la apariencia de valor, los LLM son el atajo perfecto. Con unas cuantas líneas pueden producir documentos que hacen parecer que trabajaron muchísimo
Si alguien te manda mezcolanza de IA salida de un prompt de 15 segundos y tú te tardas 30 minutos revisándola, luego esa persona va a pegar tus comentarios en ChatGPT y te mandará una versión corregida. Para ese punto ya estarás haciendo su trabajo por ella
Para equipos o empresas que usaban la apariencia de actividad como indicador sustituto de contribución, esto va a ser una transición difícil. En todo el mundo, los trabajos de oficina basados en correo electrónico ahora tienen una herramienta para producir cosas que parecen trabajo hecho, y muchas veces incluso suenan plausibles. Una sola persona puede generar montones de documentos de diseño y tickets de Jira, y además pegar respuestas ingeniosas en el Slack de la empresa, mientras hace menos trabajo real que nunca y aun así parece la persona más activa y comprometida del equipo
Los equipos con buena cultura de revisión y managers que se fijan en los resultados más que en las métricas estarán bien. Si miras aunque sea un poco, el empleado de copiar y pegar IA se delata. Los managers flojos que hojeaban documentos o hacían gráficas del número de pull requests o de líneas cambiadas se van a llevar un golpe cuando descubran que la gente que mejor jugaba ese juego era la que más daño le hacía al equipo
Todos quieren mandar el producto de sus atajos, pero nadie quiere recibirlo
La mayoría sabe que lo está haciendo. Si sientes la necesidad de ocultar tu uso de LLM, eso significa que en el borrador final no pusiste suficiente de tu propia voz y trabajo, y eso es lo que hay que corregir
Entiendo que la intención es ayudar, pero es difícil no sentir que te están tratando como a un niño o un tonto. Antes había un consenso de que buscarle algo a alguien en Google podía ser grosero, y letmegooglethatforyou.com era un buen ejemplo; no entiendo por qué los resúmenes y la mezcolanza de IA no se perciben de la misma forma
Se menciona los despidos en Meta, pero es probable que los recortes de personal afecten más la moral de los empleados que la IA
Mi hipótesis actual sobre los despidos en tecnológicas es esta. En los últimos 10 años más o menos, prácticas que fomentaban la rotación, como el stack ranking, dejaron de estar de moda. Uno puede imaginar por qué. Tal vez por cambios generacionales los mandos medios ya no quisieron hacer el trabajo sucio. Como sea, ese cambio sí ocurrió
Pero las empresas siguen queriendo sacar a la gente de bajo rendimiento, y algunos incluso creen que eso es necesario. Así que ahora hacen reducciones de personal periódicas en toda la empresa y les ponen la justificación que convenga en ese momento: la macroeconomía, la IA o lo que sea
Esta hipótesis explica por qué una empresa puede contratar agresivamente durante o justo después de un despido, y por qué esos despidos se repiten cada año
A Mark no le gustan las filtraciones, pero es bastante gracioso que el NYT parezca tener línea directa con probablemente decenas de empleados de a pie
Al final, es difícil guardar un secreto compartido con 70 mil empleados
Es una persona muy reactiva, no del tipo que se pregunta “¿cómo tengo que cambiar yo?” o “¿qué hice yo para que esto pasara?”
Pensaba esto viendo varios escándalos a finales de los 2010. Para él todo era respuesta de relaciones públicas, no introspección. La mejor relación pública es no ser una mala persona. Me pregunto si alguna vez lo ha considerado
Parece que quienes están en empresas pequeñas o trabajan por su cuenta disfrutan más usar IA
Como independiente, el mes pasado me quemé casi 1000 dólares en tokens, y la verdad me divertí bastante haciéndolo
Si esperan que seas 10 veces más productivo pero no te suben el sueldo, al final solo estás llenando los bolsillos de los ejecutivos mientras reduces tu propia seguridad laboral
Que Meta haya pensado que esto era buena idea, y que si afirmaban que solo se usaría para entrenamiento anónimo de IA los empleados se sentirían tranquilos, todavía no me cabe en la cabeza
“Estos datos están controlados de manera muy estricta”, respondió Bosworth. “No habrá riesgo de filtración”
Ay. Famosas últimas palabras
Pasé gran parte de mi vida creyendo que la tecnología iba a mejorar la vida, pero ahora me doy cuenta de que esa idea era un error
La tecnología amplifica el poder. Hasta que no redefinamos y hagamos cumplir colectivamente un sistema de valores que beneficie a todos, el avance tecnológico simplemente funciona como un instrumento de sometimiento
Al final se termina en totalitarismo, o se resiste uno empujando hacia lo desconocido en busca de una salida. El totalitarismo puede significar detener el progreso en un statu quo, mantener un primitivismo anárquico o caer en un tedio tecnocrático
En la práctica, no queda más que avanzar hacia lo desconocido y esperar. Pero no voy a mentir diciendo que veo cuál es el camino para atravesar todo esto
Hace poco escribí sobre los luditas. Si miras sus demandas reales, no eran antitecnología, eran activistas laborales. Durante la Revolución Industrial, la vida de la mayoría de la gente empeoró mucho, y solo mejoró cuando por fin se aplicaron las leyes que exigían
https://www.disruptingjapan.com/the-real-luddites-would-have...
Primero, la gente discrepa a menudo, y de manera muy fundamental, sobre qué significa “beneficiar a todos”. Muchas de esas diferencias no tienen forma de resolverse sin fuerza física
Segundo, “hacer cumplir” significa darle a algunas personas poder sobre otras. Poder para hacer cosas que, si las hiciera cualquier otra persona, serían un crimen: encarcelar, multar, restringir. David Friedman define así al gobierno en un libro que vale la pena leer, The Machinery of Freedom. El problema es que al final el gobierno también tiene que estar manejado por seres humanos, y los seres humanos no son lo bastante confiables como para darles ese poder
Al final, la única defensa es no darles ese poder a otros. Ni al gobierno, ni a las grandes tecnológicas, ni a nadie. Pero para eso se necesita un nivel de previsión que la mayoría de la gente no tiene o no quiere usar, especialmente cuando hay algo tentador enfrente. Cuando Facebook apareció por primera vez, ¿cuántas personas previeron que décadas después se convertiría en un monstruo gigantesco imposible de controlar y decidieron no usarlo? En mi entorno, la respuesta es “no una cantidad significativa”. Entre la gente que conozco, la única persona que nunca usó Facebook soy yo. Y ni siquiera yo lo rechacé desde el inicio porque previera lo que vendría; simplemente seguí una aversión instintiva y luego pasé años viendo cómo el choque de trenes ocurría lentamente
Así que estamos atrapados. Por ejemplo, aunque el gobierno decidiera dividir a las grandes tecnológicas, imponer multas enormes a Zuckerberg, Bezos y otros, confiscarles bienes, obligarlos a hacer servicio comunitario e incluso mandar a algunos a prisión, al final seguiría siendo un grupo de humanos no confiables haciéndoles eso a otros humanos. El problema de fondo no se arregla. Solo pateas la lata un poco más adelante
Los LLM sí son claramente muy centralizadores. Es casi imposible que una persona o una empresa pequeña entrene su propio LLM. A lo mucho puedes descargar un modelo preentrenado, pero al menos así nadie puede cambiarlo en silencio o quitártelo tan fácilmente