¿Cómo cambiará la IA al software en 2026?
(every.to)- Con una arquitectura agent-native, los agentes de IA podrán operar apps al mismo nivel que los usuarios e incluso realizar cambios al nivel de un desarrollador
- Los diseñadores empezarán a crear sus propias herramientas sin necesidad de programar, aunque la barrera de entrada de los editores de código sigue siendo un desafío
- Surgirá un nuevo tipo de desarrollador llamado ingeniero agéntico, cuyo rol pasará de programar directamente a dirigir y coordinar agentes de IA
- El entrenamiento de IA evolucionará hacia la autonomía (independence), y será necesario avanzar hacia un modelo que permita a los agentes explorar por sí mismos y cometer errores
Predicción 1: software que trata a los agentes como ciudadanos de primera clase
- 2025 fue el año en que los agentes de código alcanzaron un nivel confiable; hace un año, salvo para desarrolladores expertos, era común chocar contra una pared de errores y bugs, pero modelos como Opus 4.5 de Anthropic superaron ese límite
- Se explica en tres etapas la arquitectura agent-native, que cambia tanto la forma de construir apps como quién las construye
- Nivel 1: el agente puede hacer todo lo que puede hacer un usuario; la IA accede a todos los botones, configuraciones y funciones dentro de la app y opera el software del mismo modo que una persona.
- Atlas de OpenAI puede realizar directamente tareas como agregar a alguien a un espacio de trabajo de Notion
- Nivel 2: el agente puede hacer todo lo que puede hacer el código de la app; accede y aprovecha funciones de backend que no están expuestas al usuario.
- Cora, el asistente de correo de Every, genera dos veces al día un "briefing" con el resumen de la bandeja de entrada
- Nivel 3: el agente puede hacer todo lo que puede hacer un desarrollador; implementa directamente correcciones de bugs, agrega funciones y modifica cómo opera el software según la solicitud del usuario
- Empresas como Anthropic y Notion están pensando en construir software que trate tanto a humanos como a agentes como ciudadanos de primera clase
- Nivel 1: el agente puede hacer todo lo que puede hacer un usuario; la IA accede a todos los botones, configuraciones y funciones dentro de la app y opera el software del mismo modo que una persona.
Predicción 2: los diseñadores crearán sus propias herramientas
- Los diseñadores y creadores estaban limitados para construir experiencias completas por la falta de habilidades de programación, pero ahora eso está empezando a cambiar
- Incluso el creative lead de Every pasó de ser un diseñador tradicional a alguien que hace vibe coding de pequeñas apps para ayudar en su trabajo
- Aun así, el miedo al terminal de programación sigue existiendo, y para que editores de código con IA como Cursor se expandan hacia el segmento de diseñadores, será necesario abstraer el código y bajar la barrera de entrada
Predicción 3: un nuevo tipo de ingeniero de software que dirige agentes de IA
- Con la evolución de las capacidades de la IA, aparecen dos tipos de constructores de software
- Ingenieros que usan la IA como un medio para acelerar procesos existentes, pero que aún leen y escriben código directamente
- Vibe coders que producen resultados aunque no entiendan el funcionamiento interno
- Surge una tercera categoría: el ingeniero agéntico
- Redefine el trabajo de desarrollo de software en torno a dirigir agentes de IA en lugar de escribir código
- Delega la mayor parte de las tareas de programación y se concentra en trabajos de nivel superior como definir qué construir, descomponer problemas y coordinar agentes
- A cambio de renunciar en parte a la sensibilidad tradicional para programar, elige conscientemente una nueva capacidad: la gestión de agentes
Predicción 4: la próxima ola del entrenamiento de IA apuntará a la autonomía (Independence)
- El desarrollo de los agentes de IA se parece al desarrollo infantil: al principio es como un bebé al que solo se puede dejar solo cinco minutos, pero gradualmente puede entretenerse por más tiempo sin supervisión
- Hace unos años los LLM solo podían procesar un turno a la vez, pero ahora pueden ejecutar tareas durante entre 20 minutos y casi 1 hora sin intervención; aun así, todavía estamos lejos de una ejecución indefinida
- Condiciones para lograr una verdadera autonomía
- Aprendizaje continuo
- Reconocimiento claro de objetivos
- Capacidad de modificar objetivos de forma razonable con el paso del tiempo
- El actual entrenamiento de alineación está diseñado para volver a los agentes predecibles y obedientes, lo que se convierte en un obstáculo para alcanzar la autonomía
- Para lograr una autonomía real, los agentes necesitan libertad para explorar y equivocarse, pero por razones de seguridad se ha evitado permitirlo
- Se necesita un método de aprendizaje que permita experimentar y fallar
- En 2026 aparecerán nuevos enfoques de entrenamiento y arquitecturas que relajarán estas restricciones y permitirán que los agentes actúen con mayor independencia
Ver el video - Four Predictions For How AI Will Change Software in 2026
Aún no hay comentarios.