20 puntos por GN⁺ 2026-02-16 | 6 comentarios | Compartir por WhatsApp
  • La producción masiva de código complejo generado por IA se está expandiendo, y en toda la industria se está extendiendo el fenómeno de crear código que los humanos no leen
  • La dirección usa la reducción de personal por IA para justificar recortes, y los desarrolladores enfrentan presión para cumplir cuotas de código generado por IA
  • Este “vibe coding” provoca un estado de “dark flow” similar al mecanismo adictivo del juego, generando una ilusión de productividad
  • De hecho, hay estudios que muestran que, al usar herramientas de programación con IA, se siente una mejora de productividad del 20%, pero en realidad se trabaja un 19% más lento
  • La IA es útil, pero no reemplaza el pensamiento, la creatividad ni la capacidad de ingeniería de software de las personas, y renunciar a eso puede implicar un riesgo de retroceso

La expansión del vibe coding y la toma de conciencia del problema

  • El vibe coding consiste en la producción masiva de código complejo generado por IA, lo que dificulta que los humanos lo lean o le den mantenimiento
    • Algunas empresas justifican despidos alegando que la IA puede reemplazar el trabajo humano
    • Los desarrolladores reciben presión porque, si no cumplen con una cuota de código generado por IA, pueden verse perjudicados en su evaluación de desempeño
    • Tanto estudiantes como trabajadores empiezan a dudar en invertir en su propio desarrollo por la ansiedad de que “la IA pronto reemplazará mi trabajo”
  • La IA sí es útil, pero hay que tener cuidado con el vibe coding y, si se usa mal, puede traer consecuencias negativas

La diferencia entre “flow” y “dark flow”

  • El psicólogo Mihaly Csikszentmihalyi definió el “flow” como un estado de inmersión en el que reto y habilidad están en equilibrio
  • En cambio, también puede surgir una sensación de inmersión en actividades no relacionadas con la habilidad, como el juego, y eso corresponde a un “flow falso”
    • Como en el caso de Loss Disguised as a Win (LDW) de las tragamonedas, en realidad hay una pérdida, pero se induce la ilusión de haber ganado
    • Según investigaciones, el LDW provoca respuestas fisiológicas similares a las de una victoria real, reforzando una inmersión adictiva
  • A este fenómeno se le llama “dark flow” o “junk flow”, y se refiere a una inmersión adictiva sin crecimiento

Similitudes entre el vibe coding y el juego

  • El desarrollador Armin Ronacher comentó que, tras usar herramientas de programación con IA, produjo mucho código, pero en realidad casi no pudo usarlo
    • Esto se parece a la estructura de ilusión de una “victoria falsa” en el juego
  • El vibe coding viola las condiciones del flow en los siguientes puntos
    • Falta de retroalimentación clara sobre los resultados, y en su lugar ofrece una falsa sensación de logro
    • Desequilibrio entre el nivel de reto y el nivel de habilidad
    • Hace que el usuario crea que controla el resultado mediante una ilusión de control
  • En muchos casos, la calidad del código generado por IA solo revela sus problemas semanas después, cuando finalmente aparecen bugs y una complejidad imposible de mantener
  • Tanto los LLM como las tragamonedas están diseñados para maximizar la respuesta psicológica del usuario, incentivando el uso continuo

La ilusión de productividad y el “narrador no confiable”

  • Según la investigación de METR, los desarrolladores que usaron herramientas de IA sentían que eran 20% más rápidos, pero en realidad eran 19% más lentos
    • Esto implica una brecha del 40% entre la eficiencia percibida y la eficiencia real
  • Los textos escritos con IA también pueden parecer similares a simple vista, pero tener menor calidad
    • La entrada de blog de un investigador de IA, después de ser escrita con IA, adoptó un estilo menos fácil de leer que antes
  • A las personas les resulta difícil evaluar su propia productividad de forma objetiva, y tienden a sobreestimarla después de usar IA

Predicciones equivocadas y riesgo profesional

  • Las predicciones de que la IA reemplazará por completo la programación han fallado repetidamente
    • Geoffrey Hinton predijo que para 2021 la IA reemplazaría a los radiólogos, pero eso no ocurrió
    • Sundar Pichai y Jeff Dean, de Google, dijeron que para 2023 todos los científicos de datos usarían herramientas automáticas de diseño de redes neuronales, pero no sucedió
    • Dario Amodei, de Anthropic, predijo que para finales de 2025 la IA escribiría el 90% de todo el código, pero no hay base para ello
  • Por eso, dejar de desarrollar las propias habilidades basándose en estas perspectivas exageradas es riesgoso
    • La velocidad del avance de la IA ha sido sobreestimada de forma constante frente a la realidad

La importancia persistente del pensamiento y la creatividad humanos

  • Los agentes de programación con IA generan código gramaticalmente correcto, pero
    • no logran hacer abstracciones útiles, modularización ni mejoras en la estructura del código
    • es decir, la codificación se ha automatizado, pero la ingeniería de software no
  • El texto que genera la IA también puede sonar gramaticalmente natural, pero no logra refinar el pensamiento ni captar lo esencial
  • Jeremy Howard advirtió: “Si delegas por completo tu pensamiento a la IA, pierdes la capacidad de aprender y crecer
    • La IA es útil como herramienta, pero no reemplaza las capacidades centrales del ser humano

6 comentarios

 
kiga183 14 일 전

Cuando se evalúa la capacidad laboral de una persona, existe un factor llamado 'actitud'. Más allá de las directrices de trabajo y las órdenes del jefe, importa la actitud con la que uno mismo enfrenta su trabajo. Esa actitud se manifiesta en el interés constante, la perspectiva y el sentido de responsabilidad frente al trabajo. Entre todo eso, la responsabilidad es lo más importante. La inteligencia artificial puede imitar otras cosas, pero no tiene sentido de responsabilidad. La inteligencia artificial puede evaluar un resultado, pero no puede evaluar la responsabilidad asumida durante el proceso.

 
kiga183 14 일 전

La inteligencia artificial sabe bien el 'cómo', pero no entiende por qué hay que hacer las cosas. El impulso por comprender el propósito fundamental del trabajo, atreverse a probar nuevos caminos incluso a través del ensayo y error, y decidir la dirección hacia ese propósito es algo que solo los humanos pueden hacer. La responsabilidad no consiste solo en buscar resultados, sino en mantener el propósito de vista durante el proceso y seguir cuestionando e investigando.

 
kiga183 14 일 전

La capacidad de encontrar creativamente otras formas más allá de los manuales y las instrucciones también surge de una actitud responsable.

 
dieafterwork 2026-02-17

Coincido mucho.

 
GN⁺ 2026-02-16
Comentarios en Hacker News
  • Estoy pensando cuál riesgo es mayor: usar demasiado la IA o usar muy poca
    En este momento, siento que lo primero es mucho más peligroso. Hay bugs absurdos, arquitecturas sin salida, problemas de seguridad, menor sentido de pertenencia sobre el código y pérdida de oportunidades de aprendizaje
    En cambio, si usas menos IA, baja la productividad, pero una comprensión profunda del codebase y la práctica pueden ser un activo más valioso a largo plazo
    Personalmente, creo que lo más valioso son las ideas creativas que surgen al pelear directamente con el código
    Me parece una lástima perder esas oportunidades por delegar demasiado pronto en la IA
    • Incluso con programación asistida por IA, si no bajas tus estándares, en realidad puedes meterte más a fondo
      Al hacer menos trabajo repetitivo, la cabeza se cansa menos y puedes concentrarte en problemas difíciles, lo que lleva a mejores ideas
      La clave es mantener buen criterio y buenos estándares
    • Intenté hacer codificación agéntica y me llevó a una arquitectura sin salida
      Cuando preparé con detalle el diseño y la documentación desde antes, la tasa de éxito fue mayor
      Más que la generación de código, la parte realmente difícil es la etapa de planificación y diseño
      En cambio, usar LLM para documentación o para escribir boilerplate sí ahorra mucho tiempo
    • La forma de usar IA para programar varía muchísimo según la persona
      Algunos intentan terminar una app de una sola vez, otros la usan solo como autocompletado simple
      Como siguen apareciendo nuevas formas de usarla, lo mejor es probar distintos enfoques con la mente abierta
    • Creo que el marco de “usar demasiada IA vs muy poca” es un enfoque equivocado
      Con cualquier tecnología nueva, lo correcto es siempre validar en unidades pequeñas y escalar gradualmente
      La cantidad correcta de IA es “la cantidad que ya validaste”
      Llevar este debate como si fuera la apuesta de Pascal es triste, y casi siempre es el discurso de gente que quiere vender algo
  • Desde la perspectiva de alguien que construye herramientas de automatización contable, el vibe coding es un desastre
    Aunque la IA escriba bien el código, los modos de falla invisibles son lo más peligroso, como errores sutiles en cálculos de impuestos
    Números incorrectos pueden terminar reflejándose silenciosamente en un sistema contable real
    Por eso uso la IA solo como una herramienta de autocompletado avanzada: la arquitectura y la lógica de dominio las diseño yo, y solo la uso para código repetitivo o scaffolding de pruebas
    Al final, el problema no es el “código escrito por IA”, sino el código que yo mismo no entiendo
    • Que no se vean los modos de falla también pasa con código escrito por personas
      • De hecho, este riesgo podría servir para dejar en evidencia la falta de gestión de riesgos
    • En el fondo, este problema es de falta de pruebas
      • Sea código humano o código generado por IA, sin pruebas las fallas no se ven
    • También salió la pregunta de si los errores en cálculos de impuestos no los detectaría un sistema de partida doble
    • Otra persona dijo: “yo manejo tareas complejas con IA sin problema”, y sostuvo que al final todo se reduce a una diferencia en la habilidad para escribir prompts
    • Alguien más respondió que ese tipo de problemas hay que resolverlos desde la arquitectura, y que lo clave es la auditabilidad y una estructura de rollback
  • Me identifiqué mucho con la frase “la programación se automatizó, pero la ingeniería de software no”
    Los LLM son buenos escribiendo funciones, pero no decidiendo qué funciones hacen falta
    La arquitectura de un proyecto real se construye chocando con los cuellos de botella del mundo real
    La IA ayudó con la velocidad de implementación, pero el juicio estructural sigue siendo completamente responsabilidad humana
    Sobre todo, los bugs de dominio son algo que un LLM nunca va a detectar
    En última instancia, la arquitectura y el conocimiento del dominio siguen siendo responsabilidad de las personas
    • Alguien replicó: “¿y ya le preguntaste al LLM que diseñe la arquitectura?”
      Si solo le pides “escribe código”, entonces claro que no podrá, porque ese no era el objetivo
    • Otra persona mencionó una ventaja bien concreta: gracias a la IA se le redujo el dolor de muñeca
  • No creo que haga falta dejar de invertir en el propio crecimiento por las predicciones de los investigadores de IA
    Durante el último año aprendí al mismo tiempo diseño de software y vibe coding
    Estudiando libros sobre DDD, Clean Architecture, Agile y otros temas, me convertí en un ingeniero mucho mejor
    Aunque use IA, la responsabilidad del código sigue siendo mía
    Se puede crecer en ambas áreas al mismo tiempo
    • Saber usar bien la asistencia de IA para programar también es una habilidad especializada
      Requiere tiempo y práctica, pero vale mucho la pena aprenderla y no reemplaza otras habilidades
    • Yo también fui leyendo libros sobre filosofía de diseño de software y diseño centrado en datos
      Porque lo que los LLM hacen mal es el juicio de alto nivel y el diseño estructural
      Un sistema bien diseñado maximiza la eficiencia de la IA
      Además, aprender nuevos paradigmas ayuda a evaluar y mejorar mejor el código que genera un LLM
      Técnicas como BDD, PBT y verificación de modelos son herramientas que hacen más segura la programación con IA
    • Por otro lado, alguien con 20 años de experiencia aconsejó desechar sin miedo la idea de que DDD es inútil
    • Otra persona preguntó cuál de los tres libros de DDD había sido el más útil
  • Hice dos proyectos complejos con Claude Code; al principio la velocidad era increíble, pero al final un error fatal en una suposición borró toda la ganancia
    En apariencia parecía una victoria, pero en realidad era una victoria disfrazada de derrota
    Alguien comentó que esa descripción se parecía al subidón y la caída de una droga
  • Ser un buen programador no significa ser un buen arquitecto, diseñador o PM
    Para aprovechar bien un LLM hacen falta los músculos de esos tres roles
    • Otra persona respondió que un buen ingeniero ya debería ser también un buen PM y arquitecto
    • Alguien más criticó la cultura de diseño uniforme, diciendo que el “buen diseño” de los diseñadores de UI muchas veces no coincide con los usuarios reales
    • Otro señaló que al final uno termina haciendo trabajo de arquitecto, diseñador y manager, pero siguen tratándolo como simple desarrollador
  • La clave del éxito es la capacidad de definir con precisión qué significa tener éxito
    Si puedes visualizar claramente el UI/UX que quieres, incluso con los modelos actuales puedes obtener resultados bastante buenos
    En cambio, prompts del tipo “hazme algo más o menos” son peligrosos
    La IA hay que usarla como un traje mecánico avanzado: una persona tiene que seguir dentro del loop para que realmente sea rápida
  • En 2017, GPT generaba texto falso convincente, pero en 2023 la situación cambió por completo
    El avance tecnológico va tan rápido que lo que el año pasado era difícil hoy ya es trivial
    Incluso herramientas internas de IA están siendo reemplazadas por modelos open source
    Siento que estamos en una especie de “Don't Look Up de la IA”: todo el mundo tiene que reubicarse para la era de la IA antes de que sea demasiado tarde
  • Cada persona aborda la programación con IA de forma distinta, pero como dijo Armin, el vibe coding sin dirección es peligroso
    Un amigo estuvo tres meses creando un producto con Cursor, pero terminó con muchas funciones y ninguna utilidad real
    Al final, el problema fue la ausencia de alguien que entendiera el código
    • Yo solo uso IA para trabajo repetitivo y para brainstormear bugs
    • La IA es consistente para manejar casos borde, así que yo me concentro en el diseño y la arquitectura
  • Me sorprende que existan desarrolladores que generan código y ni siquiera lo revisan
    Cuesta entender que no hagan ni una verificación mental básica (sanity check)
    • Alguien dijo que, como el código de IA casi siempre está bien, al final aparece fatiga de revisión
      • El problema suele esconderse más en los patrones arquitectónicos que en el código mismo
    • Otra persona recomendó validar lo antes posible, citando una investigación de IBM según la cual corregir en la etapa de diseño es 15 veces más barato
    • Alguien aseguró directamente que esas personas no son desarrolladores de verdad
    • Otro comentó que quizá pasa porque las capas inferiores se volvieron demasiado confiables,
      • como cuando no revisamos directamente los binarios compilados y por eso algunos creen que con la IA debería ser igual
 
shakespeares 2026-02-19

No puede realizar abstracciones útiles, modularización ni mejoras en la estructura del código.
>> Coincido.