- La producción masiva de código complejo generado por IA se está expandiendo, y en toda la industria se está extendiendo el fenómeno de crear código que los humanos no leen
- La dirección usa la reducción de personal por IA para justificar recortes, y los desarrolladores enfrentan presión para cumplir cuotas de código generado por IA
- Este “vibe coding” provoca un estado de “dark flow” similar al mecanismo adictivo del juego, generando una ilusión de productividad
- De hecho, hay estudios que muestran que, al usar herramientas de programación con IA, se siente una mejora de productividad del 20%, pero en realidad se trabaja un 19% más lento
- La IA es útil, pero no reemplaza el pensamiento, la creatividad ni la capacidad de ingeniería de software de las personas, y renunciar a eso puede implicar un riesgo de retroceso
La expansión del vibe coding y la toma de conciencia del problema
- El vibe coding consiste en la producción masiva de código complejo generado por IA, lo que dificulta que los humanos lo lean o le den mantenimiento
- Algunas empresas justifican despidos alegando que la IA puede reemplazar el trabajo humano
- Los desarrolladores reciben presión porque, si no cumplen con una cuota de código generado por IA, pueden verse perjudicados en su evaluación de desempeño
- Tanto estudiantes como trabajadores empiezan a dudar en invertir en su propio desarrollo por la ansiedad de que “la IA pronto reemplazará mi trabajo”
- La IA sí es útil, pero hay que tener cuidado con el vibe coding y, si se usa mal, puede traer consecuencias negativas
La diferencia entre “flow” y “dark flow”
- El psicólogo Mihaly Csikszentmihalyi definió el “flow” como un estado de inmersión en el que reto y habilidad están en equilibrio
- En cambio, también puede surgir una sensación de inmersión en actividades no relacionadas con la habilidad, como el juego, y eso corresponde a un “flow falso”
- Como en el caso de Loss Disguised as a Win (LDW) de las tragamonedas, en realidad hay una pérdida, pero se induce la ilusión de haber ganado
- Según investigaciones, el LDW provoca respuestas fisiológicas similares a las de una victoria real, reforzando una inmersión adictiva
- A este fenómeno se le llama “dark flow” o “junk flow”, y se refiere a una inmersión adictiva sin crecimiento
Similitudes entre el vibe coding y el juego
- El desarrollador Armin Ronacher comentó que, tras usar herramientas de programación con IA, produjo mucho código, pero en realidad casi no pudo usarlo
- Esto se parece a la estructura de ilusión de una “victoria falsa” en el juego
- El vibe coding viola las condiciones del flow en los siguientes puntos
- Falta de retroalimentación clara sobre los resultados, y en su lugar ofrece una falsa sensación de logro
- Desequilibrio entre el nivel de reto y el nivel de habilidad
- Hace que el usuario crea que controla el resultado mediante una ilusión de control
- En muchos casos, la calidad del código generado por IA solo revela sus problemas semanas después, cuando finalmente aparecen bugs y una complejidad imposible de mantener
- Tanto los LLM como las tragamonedas están diseñados para maximizar la respuesta psicológica del usuario, incentivando el uso continuo
La ilusión de productividad y el “narrador no confiable”
- Según la investigación de METR, los desarrolladores que usaron herramientas de IA sentían que eran 20% más rápidos, pero en realidad eran 19% más lentos
- Esto implica una brecha del 40% entre la eficiencia percibida y la eficiencia real
- Los textos escritos con IA también pueden parecer similares a simple vista, pero tener menor calidad
- La entrada de blog de un investigador de IA, después de ser escrita con IA, adoptó un estilo menos fácil de leer que antes
- A las personas les resulta difícil evaluar su propia productividad de forma objetiva, y tienden a sobreestimarla después de usar IA
Predicciones equivocadas y riesgo profesional
- Las predicciones de que la IA reemplazará por completo la programación han fallado repetidamente
- Geoffrey Hinton predijo que para 2021 la IA reemplazaría a los radiólogos, pero eso no ocurrió
- Sundar Pichai y Jeff Dean, de Google, dijeron que para 2023 todos los científicos de datos usarían herramientas automáticas de diseño de redes neuronales, pero no sucedió
- Dario Amodei, de Anthropic, predijo que para finales de 2025 la IA escribiría el 90% de todo el código, pero no hay base para ello
- Por eso, dejar de desarrollar las propias habilidades basándose en estas perspectivas exageradas es riesgoso
- La velocidad del avance de la IA ha sido sobreestimada de forma constante frente a la realidad
La importancia persistente del pensamiento y la creatividad humanos
- Los agentes de programación con IA generan código gramaticalmente correcto, pero
- no logran hacer abstracciones útiles, modularización ni mejoras en la estructura del código
- es decir, la codificación se ha automatizado, pero la ingeniería de software no
- El texto que genera la IA también puede sonar gramaticalmente natural, pero no logra refinar el pensamiento ni captar lo esencial
- Jeremy Howard advirtió: “Si delegas por completo tu pensamiento a la IA, pierdes la capacidad de aprender y crecer”
- La IA es útil como herramienta, pero no reemplaza las capacidades centrales del ser humano
6 comentarios
Cuando se evalúa la capacidad laboral de una persona, existe un factor llamado 'actitud'. Más allá de las directrices de trabajo y las órdenes del jefe, importa la actitud con la que uno mismo enfrenta su trabajo. Esa actitud se manifiesta en el interés constante, la perspectiva y el sentido de responsabilidad frente al trabajo. Entre todo eso, la responsabilidad es lo más importante. La inteligencia artificial puede imitar otras cosas, pero no tiene sentido de responsabilidad. La inteligencia artificial puede evaluar un resultado, pero no puede evaluar la responsabilidad asumida durante el proceso.
La inteligencia artificial sabe bien el 'cómo', pero no entiende por qué hay que hacer las cosas. El impulso por comprender el propósito fundamental del trabajo, atreverse a probar nuevos caminos incluso a través del ensayo y error, y decidir la dirección hacia ese propósito es algo que solo los humanos pueden hacer. La responsabilidad no consiste solo en buscar resultados, sino en mantener el propósito de vista durante el proceso y seguir cuestionando e investigando.
La capacidad de encontrar creativamente otras formas más allá de los manuales y las instrucciones también surge de una actitud responsable.
Coincido mucho.
Comentarios en Hacker News
En este momento, siento que lo primero es mucho más peligroso. Hay bugs absurdos, arquitecturas sin salida, problemas de seguridad, menor sentido de pertenencia sobre el código y pérdida de oportunidades de aprendizaje
En cambio, si usas menos IA, baja la productividad, pero una comprensión profunda del codebase y la práctica pueden ser un activo más valioso a largo plazo
Personalmente, creo que lo más valioso son las ideas creativas que surgen al pelear directamente con el código
Me parece una lástima perder esas oportunidades por delegar demasiado pronto en la IA
Al hacer menos trabajo repetitivo, la cabeza se cansa menos y puedes concentrarte en problemas difíciles, lo que lleva a mejores ideas
La clave es mantener buen criterio y buenos estándares
Cuando preparé con detalle el diseño y la documentación desde antes, la tasa de éxito fue mayor
Más que la generación de código, la parte realmente difícil es la etapa de planificación y diseño
En cambio, usar LLM para documentación o para escribir boilerplate sí ahorra mucho tiempo
Algunos intentan terminar una app de una sola vez, otros la usan solo como autocompletado simple
Como siguen apareciendo nuevas formas de usarla, lo mejor es probar distintos enfoques con la mente abierta
Con cualquier tecnología nueva, lo correcto es siempre validar en unidades pequeñas y escalar gradualmente
La cantidad correcta de IA es “la cantidad que ya validaste”
Llevar este debate como si fuera la apuesta de Pascal es triste, y casi siempre es el discurso de gente que quiere vender algo
Aunque la IA escriba bien el código, los modos de falla invisibles son lo más peligroso, como errores sutiles en cálculos de impuestos
Números incorrectos pueden terminar reflejándose silenciosamente en un sistema contable real
Por eso uso la IA solo como una herramienta de autocompletado avanzada: la arquitectura y la lógica de dominio las diseño yo, y solo la uso para código repetitivo o scaffolding de pruebas
Al final, el problema no es el “código escrito por IA”, sino el código que yo mismo no entiendo
Los LLM son buenos escribiendo funciones, pero no decidiendo qué funciones hacen falta
La arquitectura de un proyecto real se construye chocando con los cuellos de botella del mundo real
La IA ayudó con la velocidad de implementación, pero el juicio estructural sigue siendo completamente responsabilidad humana
Sobre todo, los bugs de dominio son algo que un LLM nunca va a detectar
En última instancia, la arquitectura y el conocimiento del dominio siguen siendo responsabilidad de las personas
Si solo le pides “escribe código”, entonces claro que no podrá, porque ese no era el objetivo
Durante el último año aprendí al mismo tiempo diseño de software y vibe coding
Estudiando libros sobre DDD, Clean Architecture, Agile y otros temas, me convertí en un ingeniero mucho mejor
Aunque use IA, la responsabilidad del código sigue siendo mía
Se puede crecer en ambas áreas al mismo tiempo
Requiere tiempo y práctica, pero vale mucho la pena aprenderla y no reemplaza otras habilidades
Porque lo que los LLM hacen mal es el juicio de alto nivel y el diseño estructural
Un sistema bien diseñado maximiza la eficiencia de la IA
Además, aprender nuevos paradigmas ayuda a evaluar y mejorar mejor el código que genera un LLM
Técnicas como BDD, PBT y verificación de modelos son herramientas que hacen más segura la programación con IA
En apariencia parecía una victoria, pero en realidad era una victoria disfrazada de derrota
Alguien comentó que esa descripción se parecía al subidón y la caída de una droga
Para aprovechar bien un LLM hacen falta los músculos de esos tres roles
Si puedes visualizar claramente el UI/UX que quieres, incluso con los modelos actuales puedes obtener resultados bastante buenos
En cambio, prompts del tipo “hazme algo más o menos” son peligrosos
La IA hay que usarla como un traje mecánico avanzado: una persona tiene que seguir dentro del loop para que realmente sea rápida
El avance tecnológico va tan rápido que lo que el año pasado era difícil hoy ya es trivial
Incluso herramientas internas de IA están siendo reemplazadas por modelos open source
Siento que estamos en una especie de “Don't Look Up de la IA”: todo el mundo tiene que reubicarse para la era de la IA antes de que sea demasiado tarde
Un amigo estuvo tres meses creando un producto con Cursor, pero terminó con muchas funciones y ninguna utilidad real
Al final, el problema fue la ausencia de alguien que entendiera el código
Cuesta entender que no hagan ni una verificación mental básica (sanity check)
No puede realizar abstracciones útiles, modularización ni mejoras en la estructura del código.
>> Coincido.