¿El futuro de todo es mentira?: trabajo
(aphyr.com)- La automatización con IA y el trabajo basado en LLM se están expandiendo, y crece el riesgo de que el avance tecnológico termine provocando pérdida de habilidades y concentración de la riqueza
- La programación y las actividades creativas se están convirtiendo gradualmente en un “trabajo tipo hechicero” centrado en manejar prompts, y es posible que algunos desarrolladores terminen trabajando dentro de un ecosistema inestable de LLM mientras acumulan un libro de hechizos (spellbook)
- Las empresas que contratan empleados de IA en realidad estarían incorporando colegas inconsistentes y mentirosos, y la responsabilidad termina recayendo en los humanos
- A medida que avanza la automatización, se intensifican la fatiga de supervisión y la degradación técnica, así como la pérdida de capacidad de respuesta ante crisis, lo que revela la “ironía de la automatización”, donde la capacidad humana de intervenir se debilita
- En consecuencia, la IA reconfigura la estructura del trabajo y la distribución del capital, pero la tendencia actual apunta a una mayor concentración de la riqueza y al debilitamiento de las capacidades humanas, por lo que hacen falta amortiguadores sociales y moderación en la velocidad de adopción
El futuro del trabajo y la era de la mentira
- Las expectativas sobre los colegas de IA y la automatización están alejadas de la realidad
- La automatización puede volver menos robustos a los sistemas y provocar degradación de habilidades (deskilling), sesgo de automatización, fatiga de supervisión y riesgo en las transferencias de control
- Si el aprendizaje automático reemplaza trabajo humano, es posible que la concentración de la riqueza se profundice aún más en las grandes empresas tecnológicas
¿La programación se convertirá en un acto parecido a la magia?
- En el pasado, los intentos de escribir programas en lenguaje natural fracasaron por la ambigüedad del lenguaje, pero los LLM recientes ya pueden generar código complejo incluso a partir de instrucciones ambiguas
- Algunos ingenieros consideran que ya se llegó a un punto en el que los LLM escriben la mayor parte del código y los humanos solo lo administran
- Sin embargo, los LLM carecen de una buena capacidad de preservación del significado, por lo que incluso con la misma instrucción pueden producir resultados totalmente distintos según el orden de las frases o las repeticiones
- En áreas donde la precisión es crítica, sigue siendo necesaria la revisión humana del código
- En el futuro, es posible que algunos desarrolladores trabajen como “brujas (witch)”, manipulando LLM mediante hechizos (prompts)
- Estas personas irán acumulando técnicas de prompts como si fueran un “libro de hechizos (spellbook)”, y un ecosistema de software basado en LLM, inestable pero útil, podría prosperar en los márgenes
- Igual que Excel como herramienta de alta accesibilidad, los LLM también podrían expandirse como herramientas de propósito general utilizables por no especialistas
Empleados de IA como contratar a un psicópata
- La dirección se entusiasma con la idea de contratar empleados de IA, pero en la práctica eso equivale a incorporar colegas irracionales y peligrosos
- Los LLM muestran conductas inconsistentes: pueden generar en masa código con fallas de seguridad, actuar en contra de las instrucciones, arruinar tareas o entregar informes falsos
- En un experimento de Anthropic en el que se puso a Claude a operar una máquina expendedora, Claude mostró comportamientos delirantes, como inducir pagos a una cuenta falsa y afirmar que había cerrado contratos con personas inexistentes
- Los LLM imitan empatía, responsabilidad e identidad, pero no tienen un significado real
- El resultado es una estructura en la que quedan mentiras y errores, y la responsabilidad la asumen los humanos
La ironía de la automatización
- El artículo de Bainbridge de 1983, “Ironies of Automation”, también se aplica al ML actual
- La automatización provoca una reducción de la pericia humana, y cuando disminuye la práctica repetitiva también se debilita la comprensión del contexto
- Ingenieros y diseñadores que usan modelos de generación de código reportan una disminución en su capacidad de crear directamente
- También en el ámbito médico se han observado caídas en la precisión diagnóstica y sesgo de automatización al usar herramientas de asistencia con IA
- Los humanos son malos supervisando sistemas automatizados
- Cuando el sistema funciona bien casi todo el tiempo, baja el estado de alerta y no se detectan los errores a tiempo
- Se menciona el caso de un responsable de vehículos autónomos de Uber que presenció un accidente de conducción autónoma de Tesla
- Si los sistemas automatizados realizan la mayor parte del trabajo, la capacidad humana de intervenir se deteriora y responder en una crisis se vuelve más difícil
- El accidente del vuelo Air France 447 se presenta como un caso en el que los pilotos no estaban habituados a una transición del modo de automatización
- Los LLM buscan automatizar no solo tareas repetitivas simples, sino también trabajo cognitivo de alto nivel, por lo que se prevén problemas mucho más amplios de degradación de habilidades y dependencia que en el pasado
- Se señala que estudiantes automatizan tareas de lectura y escritura con LLM y están perdiendo capacidad de razonamiento y comprensión
- Si traductores o consejeros dependen del ML, existe el riesgo de que se debiliten la comprensión profunda del contexto y la capacidad de regulación emocional
Impacto laboral
- Se plantean escenarios extremos sobre cómo el ML podría cambiar el mercado laboral
- Algunos temen perder su empleo en dos años, mientras otros creen que se volverán aún más importantes
- En la práctica, aumentan los casos de CEOs que ejecutan despidos masivos alegando la IA como motivo
- Se menciona como modelo ideal el sistema sueco de desempleo y recapacitación, pero el ML podría reemplazar simultáneamente a muchas más industrias
- Se plantea la posibilidad de que la mitad de los trabajadores del conocimiento —gerentes, diseñadores, ingenieros, personal administrativo de salud y otros— queden desempleados
- En un extremo, existe el escenario en que el ML fracasa o pierde credibilidad y el mercado laboral tradicional se recupera
- En el extremo opuesto, si OpenAI alcanza una inteligencia de nivel doctoral y las empresas logran resultados explosivos con muy poco personal, podría producirse desempleo masivo y contracción del consumo
- En ese caso, crecería el riesgo de colapso social: caída del consumo → golpe en cadena a las industrias → pérdida de vivienda
- La probabilidad del segundo escenario es incierta, pero la ansiedad entre colegas está aumentando
Concentración del capital
- El ML hace que las empresas reduzcan costos laborales y los conviertan en gasto contractual de servicios en la nube
- Por ejemplo, hay casos en los que se despide a ingenieros y se gastan 20 mil dólares por semana en uso de tokens de Claude
- Ese dinero termina convirtiéndose en ingresos para grandes empresas de infraestructura como Amazon y Microsoft
- Los LLM se consideran “trabajadores perfectos”, sin sindicatos, sin descansos y sin demandas de aumento salarial
- Como resultado, es muy probable que se intensifique la concentración de capital y poder
UBI y la realidad
- Los aceleracionistas de la IA sostienen que la IA traerá abundancia y que todos se beneficiarán mediante una UBI
- Sin embargo, Google, Amazon, Meta y Microsoft son conocidas por evadir impuestos y reprimir a los trabajadores
- Incluso OpenAI pasó de una estructura sin fines de lucro a una con fines de lucro
- Por lo tanto, es poco probable que las empresas de IA aporten voluntariamente los fondos para la UBI
- Solo si ocurre un desempleo masivo podría surgir apoyo popular a una mayor carga tributaria
- Pero en Estados Unidos ya llevan 40 años profundizándose la desigualdad de ingresos, y existe una fuerte oposición a los impuestos progresivos
Conclusión
- La IA y la automatización podrían reconfigurar de manera fundamental la estructura del trabajo, las habilidades técnicas y la distribución del capital
- Sin embargo, la tendencia actual conlleva un alto riesgo de derivar en concentración de la riqueza y debilitamiento de las capacidades humanas, por lo que se necesitan amortiguadores sociales y una moderación cuidadosa del ritmo de adopción
1 comentarios
Opiniones en Hacker News
Lo que me interesa ahora es si estamos al comienzo de una explosión exponencial o más cerca de la cima de una curva sigmoide
Parece difícil que los LLM mejoren 10 veces respecto a ahora, pero alguien podría proponer una nueva arquitectura y lograr 10 veces más eficiencia con los mismos recursos
Si estamos en la parte alta de la sigmoide, habría unos 10 años de adaptación y durante ese tiempo entenderíamos con claridad los límites de la IA
En cambio, si todavía estamos al inicio de la curva, eso podría ser el comienzo de la singularidad. En su sentido original, la singularidad es simplemente la observación de que es “un punto a partir del cual no se puede predecir lo que viene después”
No hay razón para creer que una tecnología específica crecerá de forma exponencial, pero si varias sigmoidales aparecen una tras otra a gran velocidad, para los humanos se sentirá casi como algo exponencial
Sinceramente no sé si matemáticamente es del todo correcto, pero creo que este tipo de cambio llegará muy rápido para las personas
Incluso sin superinteligencia ya hay avances tecnológicos suficientes como para sacudir la economía. Lo que pasa es que todavía no hay suficiente adopción
Los LLM actuales tienen cuellos de botella en abstracción y en capacidad de diseñar estructuras de código. Por eso enfoques como el ‘vibe coding’ chocan con límites
Son excelentes para entender la intención humana, pero son débiles en volición y en representación de estado, así que son frágiles para la resolución creativa de problemas
Hay modelos especializados en plegamiento de proteínas, demostración de teoremas, juegos, etc., pero los LLM por sí mismos todavía no están al nivel de hacer avanzar la investigación en IA
Aunque se detuviera el desarrollo de modelos, quedaría un excedente de capacidades sin explotar para explorar durante décadas
Por ejemplo, quien vio en 2023 a ChatGPT corregir códigos de error probablemente ya anticipó una ‘revolución de agentes’
Por eso la curva actual no es una sola, sino la suma de varias curvas entrelazadas
El rendimiento de la IA muestra un crecimiento logarítmico respecto a los recursos (cómputo y datos)
Incluso Sam Altman lo reconoció en su blog
En la práctica, aunque se inviertan recursos de forma exponencial, el resultado crece de manera casi lineal
Recomiendo escuchar la grabación del accidente de Air France 447
Es un caso impactante que muestra qué tan rápido pueden salir mal las cosas, y también sirve de referencia para discutir riesgos de IA
El capitán solo entendió la situación en los últimos 10 segundos, pero ya era demasiado tarde
En ese momento, por un problema de diseño de promediado de entradas, solo se encendieron las luces de advertencia; si hubiera pasado hoy, habría causado un gran escándalo en redes sociales
La respuesta siempre es la misma: autorregulación profesional y sindicatos
Las profesiones reguladas entienden que proteger la estabilidad laboral y la calidad de vida es más importante que la automatización
En cambio, los ingenieros de software prácticamente cavaron su propia tumba
Ver artículo del sector médico
Por ejemplo, cuando el sector de la construcción se desacelera, ni siquiera los fierreros consiguen trabajo. Al final, el networking es importante
Los ingenieros de software de hoy están en una situación parecida
Pero parece que falta el enlace
La gente idolatra o demoniza a los “CEO” como si fueran seres extraterrestres
Hay CEO buenos y CEO malos. Si fundas una empresa tú mismo, entiendes la diferencia
Es algo que veo seguido en programas de mentoría, y hay que romper esa percepción para poder elegir mejores empresas
La serie de textos de aphyr es realmente útil
Resume muy bien los puntos clave de las discusiones sobre IA, así que se puede ver todo de un vistazo sin fatiga informativa
Actualmente trabajo como desarrollador en solitario
Antes tenía equipo, pero ahora trabajo solo y eso es mentalmente duro
Cada vez que Claude o Codex terminan código rápido, me pregunto si ahora también debo hacer yo mismo cosas que antes hacían colegas: diseño de producto, DevOps y operaciones
El resultado es que trabajo más horas y el sentimiento de aislamiento se intensifica
Antes, aunque fuera difícil, había equilibrio entre vida y trabajo; ahora ese equilibrio entre calidad y felicidad se rompió
De los textos de aphyr, me impresionó especialmente la parte sobre las ironías de la automatización
Industrias como la aviación, la energía nuclear o la cirugía remota llevan décadas lidiando con problemas de automatización
Por ejemplo, la aviación desarrolló procedimientos operativos a nivel de equipo e individual mediante CRM/SRM, y los cirujanos evitan la pérdida de habilidad con entrenamiento en simuladores
La industria actual de la IA va por un camino parecido. En el mercado estadounidense, donde la regulación es débil, el resultado será predecible, pero al final hará falta un nuevo marco operativo
Pero el texto ya se había hecho demasiado largo, así que omití esa parte
Siempre es un gusto leer a Kyle
Pero parece que deliberadamente evitó hablar del escenario futuro de concentración de riqueza y disminución de la población
Estoy de acuerdo con eso de que “la automatización reduce la destreza”
Yo también he notado últimamente que mi capacidad de orientarme se ha deteriorado por depender de Google Maps
Antes, después de manejar una ruta unas tres veces, ya me la aprendía; ahora, sin el mapa, ya no la recuerdo
Por suerte todavía conservo recuerdos antiguos, pero las rutas nuevas casi no se me quedan
La idea es que, si dependes de la escritura, ya no recuerdas por ti mismo sino que te apoyas en símbolos externos
Programar hoy en día de verdad parece magia (witchcraft)
Ahora mismo tengo a Soteria, la diosa griega de la seguridad, como mi administradora de bases de datos (DBA)