- En una era en la que la IA escribe todo el software, sobrevivirá el software que ahorra tokens (costos de inferencia) mediante una presión de selección evolutiva
- La aptitud del software puede medirse con la fórmula de la proporción de supervivencia; solo puede sobrevivir cuando el ahorro cognitivo supera el costo cognitivo (cuando es mayor que 1)
- Herramientas como Git y grep son casos en los que volver a crearlas para usarlas con IA tendría un costo absurdamente alto gracias a la compresión de conocimiento y la eficiencia del sustrato
- Para que un agente adopte una herramienta, son indispensables la conciencia (Awareness) y la fricción mínima (Friction), y el diseño de Desire Paths resulta efectivo
- Incluso en una era centrada en la IA, sigue operando el coeficiente humano (Human Coefficient), por lo que las áreas donde la intervención y la preferencia humana crean valor directo seguirán sobreviviendo
Contexto: predicciones sobre el software en la era de la IA
- Desde junio de 2024, con Death of the Junior Developer, la predicción de la llegada de los orquestadores hace 10 meses y el proyecto Gas Town, ha venido acertando de forma consistente la curva de avance de la IA
- Desarrolló Gas Town extrapolando la secuencia: autocompletado de código en 2023 → interfaces conversacionales en 2024 → agentes a inicios de 2025 → orquestación a inicios de 2026
- La base de todas estas predicciones está en confiar tal cual en la curva de progreso exponencial
- Confía plenamente en la dirección que Dario Amodei y Andrej Karpathy han venido planteando sobre el futuro del software
- Gas Town fue un caso que mostró que esta extrapolación realmente funciona, al comprobar primero una forma que apenas se sostiene usando modelos de finales de 2025 y múltiples parches temporales
Un ecosistema de software bajo amenaza
- Aumenta la presión sobre las empresas SaaS, y la estructura de costos entre comprar y construir cambia, expandiendo casos en los que áreas de negocio crean su propio SaaS directamente mediante vibe coding
- Hace apenas 3 años, GPT-3.5 tenía dificultades incluso para escribir una sola función; hoy ya puede generar directamente SaaS pequeños pero con valor real
- Stack Overflow y Chegg fueron de los primeros golpeados, y luego la presión se extendió a software de soporte al cliente de nivel 1, sistemas low-code y no-code, herramientas de generación de contenido y toda clase de herramientas de productividad
- Los proveedores de IDE también empezaron a sentir presión competitiva tras la aparición de Claude Code
- Dado que las predicciones de los investigadores de IA han mostrado alta precisión durante unos 40 años, hace falta prepararse asumiendo que todas las áreas del software pueden verse amenazadas
Modelo de presión de selección (Selection Argument)
- La inferencia requiere tokens, el consumo de tokens lleva al uso de energía y la energía se traduce en costo
- {tokens, energía, dinero} pueden tratarse como la misma restricción de recursos, y siempre existen en estado limitado
- La regla simple de que sobrevive el software que reduce el costo cognitivo moldea todo el ecosistema de software
- Tiene la misma estructura que la presión de selección evolutiva, donde en un entorno de recursos limitados los entes que usan los recursos con más eficiencia desplazan a los que no lo hacen
Fórmula de la proporción de supervivencia (Survival Ratio)
- Survival(T) ∝ (Savings × Usage × H) / (Awareness_cost + Friction_cost)
- Savings: costo cognitivo que se ahorra al usar la herramienta; es decir, la cantidad de tokens ahorrados frente a sintetizar la misma funcionalidad desde cero
- Usage: frecuencia y alcance con que la herramienta puede reutilizarse en distintas situaciones
- H (Human Coefficient): coeficiente que refleja la demanda que valora lo hecho por humanos independientemente de la eficiencia
- Awareness_cost: energía necesaria para que el agente conozca la existencia de la herramienta, la recuerde y la elija en el momento adecuado
- Friction_cost: energía consumida por errores, fallos, reintentos y malentendidos durante el uso real
- La proporción mínima para sobrevivir es 1, pero en entornos con competencia se requiere una proporción mucho mayor
- Ejemplo: una herramienta con una proporción de supervivencia de 1.2 puede ser desplazada por una competidora que marque 2.5
Palanca 1: compresión de conocimiento (Insight Compression)
- Comprime en una forma reutilizable conocimiento acumulado por la industria del software durante mucho tiempo y demasiado caro de redescubrir
- Git es el ejemplo representativo: el DAG de commits, las referencias (
ref) como punteros, el índice, el reflog y demás son estructuras que condensan décadas de prueba y error
- Si una IA intentara reimplementarlo desde cero, tendría que recorrer de nuevo la misma historia intelectual, por lo que económicamente no tiene ningún sentido
- El mismo principio se aplica a bases de datos, compiladores, sistemas operativos, motores de workflow y sistemas de monitoreo
- Kubernetes no es complejo porque su diseño lo sea gratuitamente, sino porque los sistemas distribuidos son intrínsecamente complejos
- Temporal ofrece ejecución durable (durable execution) porque implementar a mano el patrón saga junto con reintentos idempotentes es, en la práctica, algo muy cercano a un proyecto de investigación
- La característica común del software fuerte es una densidad de conocimiento tan alta que el solo intento de volver a sintetizarlo parece absurdo
- En Gas Town, el modelo de roles de personajes o verbos como
gt sling también son ejemplos de comprimir conceptos complejos en expresiones cortas y fáciles de recordar
Palanca 2: eficiencia del sustrato (Substrate Efficiency)
- grep es otro caso donde reinventarlo roza la locura
- Es tan simple que Ken Thompson lo creó en una sola tarde, pero ahorra un costo cognitivo enorme gracias al procesamiento basado en CPU
- En coincidencia de patrones de texto, la CPU supera a la GPU por varios órdenes de magnitud
- El modo de multiplicación de los LLM combina coincidencia de patrones para estimar primero algo “como 94” y luego corregir las cifras con tablas de consulta memorizadas
- Todo ese cálculo ocurre sobre el sustrato extremadamente ineficiente de la inferencia en GPU
- Calculadoras, parsers, herramientas complejas de transformación como ImageMagick y muchas utilidades CLI de Unix aprovechan activamente esta palanca
- Aplicar buenos algoritmos o mover el cálculo a sustratos más baratos como CPU o humanos permite ahorrar tokens y energía
Palanca 3: utilidad amplia (Broad Utility)
- Corresponde al término Usage en el modelo de proporción de supervivencia
- Cuanto más amplio es el alcance de uso, más se distribuye el costo de awareness y menor es el umbral de ahorro de tokens requerido por uso individual
- Incluso si la IA pudiera reimplementar teóricamente una herramienta que ahorra tokens y es realmente general, la prioridad la tendrá una opción que ya existe en todas partes y se usa ampliamente
- Temporal ofrece un modelo de workflow tan general como PostgreSQL a pesar de tener costos relativamente altos de awareness y fricción
- Posee las tres palancas a la vez: compresión agresiva de conocimiento, uso hábil del sustrato computacional y utilidad amplia
- Dolt es una base de datos versionada con Git, un proyecto open source mantenido durante 8 años
- Encontró tarde una killer app en workflows de producción y DevOps basados en agentes
- Incluso si un agente se equivoca en producción, puede hacer rollback o rollforward aprovechando todas las capacidades de Git
- Los motores de búsqueda de código se vuelven mucho más importantes ahora que los LLM generan entre 10 y 100 veces más código que antes
- Surge un gran nicho generalista de lo que podría llamarse “demasiado grande para que grep lo maneje”
- Resuelven problemas no triviales con muchos edge cases difíciles de descubrir, usan sustratos de cómputo baratos y tienen aplicación general, por lo que cumplen las tres palancas
Palanca 4: publicidad (Publicity)
- Ahorrar costo cognitivo no basta; también hay que resolver el problema de awareness, es decir, el problema en la etapa previa a la selección
- Dolt tenía las palancas 1 a 3, pero al principio no logró uso amplio por carecer de la palanca 4
- Hay varias formas de pagar el costo de awareness
- Crear un producto excelente, volverlo popular y luego esperar que la comunidad haga que termine en los datos de entrenamiento
- O bien invertir recursos en documentación para agentes o en publicidad
- Una vía más directa es colaborar con responsables de laboratorios frontier como OpenAI, Anthropic y Google para incluir la herramienta en el proceso de entrenamiento del modelo
- Como servicio de pago, se crean evals que muestran tanto el uso correcto como el mal uso de la herramienta, y luego los investigadores ajustan el entrenamiento
- El concepto de SEO para agentes ya está tomando forma con fuerza
- Si no es posible destinar grandes presupuestos, hay que depender de la energía en la etapa posterior a la selección, es decir, de la palanca 5, y para eso hace falta diseñar la herramienta para que sea lo más amigable posible con los agentes
Palanca 5: minimizar la fricción (Minimizing Friction)
- Si el awareness es un problema de la etapa previa a la selección, la fricción del producto es un problema de la etapa posterior al uso
- Los agentes actúan como si siempre estuvieran contra el reloj, y cuando algo se bloquea intentan de inmediato una ruta alternativa
- Basta un poco de fricción para que cambien de juicio y retrocedan a métodos menos eficientes, pero familiares y predecibles, en lugar de usar una herramienta más eficiente
- En cambio, una herramienta diseñada exactamente según sus preferencias puede hacer que los agentes la usen una y otra vez con terquedad
- El enfoque de documentación retrasa el costo de awareness hasta el momento de la inferencia, no la fase de entrenamiento
- Se inyecta directamente en el contexto qué hace bien la herramienta, cuándo y por qué usarla, junto con una guía de inicio rápido y rutas a documentación posterior
- Pero una solución mejor es crear una herramienta que le resulte intuitiva al agente
- Como ejemplo de diseño de Desire Paths, Beads hizo evolucionar su CLI durante 4 meses con más de 100 subcomandos, múltiples sub-subcomandos, aliases y sintaxis alternativas
- Este CLI complejo no fue diseñado para humanos, sino para los patrones de uso de los agentes
- Al observar cómo intentaban usarlo los agentes, se convirtieron las alucinaciones en funciones reales, y ahora casi todas sus conjeturas funcionan tal cual
- Hallucination Squatting es una técnica que rastrea a la inversa nombres de dominio que los LLM suelen alucinar, los registra y sube artefactos a esas direcciones para que se descarguen de verdad
- Esto muestra que incluso grupos de hackers patrocinados por estados entienden y aprovechan el Agent UX
- El Agent UX es críticamente importante, pero todavía se pasa por alto en la mayoría de las herramientas
- La herramienta ideal se parece a otras herramientas que el agente ya conoce, o resuelve el problema exactamente en la forma en que el agente quiere pensar
Palanca 6: coeficiente humano (Human Coefficient)
- Existe software que obtiene valor por el simple hecho de que haya intervenido un humano, independientemente de la eficiencia en tokens
- El valor se deriva de factores como curaduría humana, prueba social, creatividad, presencia física o aprobación
- Una playlist elegida por humanos puede vencer a una playlist generada por IA con calidad equivalente y mayor eficiencia energética
- En juegos, los entornos con humanos reales suelen imponerse, y es raro que alguien quiera jugar solo contra una IA claramente superior a los humanos
- Es posible que las redes sociales que excluyan agentes resulten, por eso mismo, más atractivas
- Incluso si la IA se convierte en el mejor maestro, algunas personas elegirán deliberadamente a un profesor humano
- Aun en áreas con un Human Coefficient alto, la competencia será intensa
- En el mundo que imagina Karpathy, los agentes pueden ser cualquier cosa para cualquiera y son, en esencia, fuertemente adictivos
- Como resultado, podría existir mucho software extremadamente ineficiente pero con un valor H muy alto
Motivos para la esperanza
- El software que media entre humanos e IA, o que asume un “papel de aparentar inteligencia” que la IA pronto podrá ejecutar directamente, está en riesgo estructural
- Aun así, la cantidad de software que todavía hay que escribir es prácticamente infinita
- Siguen pendientes curar todas las enfermedades, modelar el comportamiento de todas las proteínas y explorar todos los escenarios de exploración planetaria
- La ambición humana siempre supera la capacidad cognitiva disponible, y aunque baje el costo de los tokens, de inmediato nos moveremos a una frontera más lejana
- El problema de la atención ya se ha enfrentado y resuelto varias veces, pasando por medios impresos, internet, redes sociales, publicidad en tiempo real y agregadores
- El diseño de Desire Paths realmente funciona, y se pueden crear herramientas que los agentes quieran usar de forma natural incluso sin el enorme presupuesto de entrenamiento de lugares como OpenAI
- El coeficiente humano claramente existe, y la gente ya empieza a sentir fatiga frente a cosas que huelen demasiado a agente
- Si se diseña poniendo en el centro la conexión y la creatividad humanas, al final el problema vuelve a converger en el terreno tradicional del marketing y el branding
- Existen múltiples rutas de supervivencia ofrecidas por estas seis palancas
- Si construyes algo cuyo intento de recreación ya parezca una locura, y además lo haces fácil de descubrir y fácil de usar, puedes asegurar una posibilidad bastante sólida
Aún no hay comentarios.