- Este año marca el fin de la etapa de novedad de la IA generativa y el momento en que ya no es posible quedarse mirando desde afuera. Personas, empresas y profesiones por igual deberán adaptarse de forma intencional o elegir quedarse rezagadas
- El centro de la competencia en IA se desplaza hacia agentes autónomos, UI delegativas e interfaces generativas, y el software deja de ser una herramienta que espera clics para convertirse en un sistema que actúa junto contigo
- Con la expansión de los modelos de mundo multimodales y la IA física, las UI estáticas y las herramientas de un solo propósito se vuelven obsoletas, y el diseño de UX, confianza e interfaces de auditoría emerge como el principal foso competitivo de negocio
- A medida que las restricciones de cómputo se vuelven una condición permanente, se consolida la escasez de inferencia y la estratificación entre niveles de pago y gratuitos, y el diseño de productos y flujos de trabajo se reestructura partiendo de costos, cuotas y límites de velocidad
- El valor humano deja de centrarse en producir entregables y se desplaza hacia definir objetivos, juzgar, verificar y asumir responsabilidad; para quienes entiendan y se preparen para este cambio, 2026 no será un año de crisis, sino el más interesante
Predicción 1: la aceleración del cambio incesante
- El cambio ya no avanza a una velocidad constante, sino en estado de aceleración
- Un CIO le dijo a Deloitte que “el tiempo que se necesita para investigar una nueva tecnología supera la ventana de relevancia de esa tecnología”
- Según los datos de METR, se está ampliando el horizonte temporal de las tareas que pueden completarse de forma autónoma
- 2019 (GPT-2): la IA podía manejar tareas equivalentes a 3 segundos de trabajo humano
- Principios de 2025: maneja tareas equivalentes a 1.5 horas de trabajo humano
- Finales de 2025 (Claude Opus 4.5): realiza de forma autónoma tareas equivalentes a unas 5 horas de trabajo de un profesional humano
- El ciclo de duplicación del crecimiento se aceleró aún más, de 7 meses a 4 meses
- Para finales de 2026, existe la posibilidad de que pueda realizar de forma autónoma tareas equivalentes a 39 horas de trabajo humano
- Si se incluye tiempo no laboral, como reuniones, eso equivale casi a una semana de trabajo
- Para finales de 2027, podría llegar a procesar en alrededor de 1 hora tareas equivalentes a dos meses de trabajo humano
- Esto incluye el supuesto de un costo de cómputo de aproximadamente $100
- Para finales de 2030 (fecha estimada de la superinteligencia), podría alcanzar un nivel capaz de procesar en un día tareas equivalentes a unos 100 años de trabajo humano
- Una persona no dedicaría 100 años a un solo proyecto, pero a nivel de equipo sí es posible pensar en 100 años-persona
- Como ejemplo de un proyecto de 100 años-persona, se menciona el rodaje y edición de una película de Bollywood de “presupuesto medio”, que hoy cuesta ₹75 crore = ~$9M USD
- Una película de Hollywood de “alto presupuesto” (hoy con un costo de producción de $200M) podría llegar a ser posible hacia 2032 por un día y $200
- Si se toma como ejemplo la creación de infografías, Nano Banana Pro procesa una infografía basada en un artículo en menos de 1 minuto
- En 5 minutos generó 16 variantes, pero la mitad tenía errores demasiado grandes como para publicarse
- Al final se eligieron 2, con un costo total de $0.48
- Si se excluye el proceso de selección y comparación, el costo podría ser aún menor
- Un ejemplo de una semana de trabajo humano: en una prueba de usabilidad “discount”, quizá la IA todavía no pueda detectar bien problemas de usabilidad mediante la observación del comportamiento para finales de 2026
- En cambio, sí podría realizar todo el procedimiento de una prueba con usuarios
- Otro ejemplo de una tarea de una semana sería redactar un contrato comercial complejo, como lo haría un abogado, o producir un cómic corto del nivel de un cómic de superhéroes de la “Silver Age” (normalmente de 10 páginas)
- Incluso ahora ya es posible crear un cómic de 14 páginas con Nano Banana Pro, pero en varias etapas todavía requiere mucha intervención humana
- “Duración de tarea (task duration)” se refiere al tamaño de una tarea que la IA puede completar de principio a fin de forma totalmente autónoma
- La producción totalmente autónoma de un cómic de 10 páginas podría ser posible para fin de año, pero todavía no lo es
Predicción 2: la AGI no llegará en 2026
- No parece que la inteligencia artificial general (AGI) vaya a aparecer en 2026
- No existe consenso sobre la definición de AGI, y con una definición laxa podría argumentarse que ya se alcanzó
- De hecho, la IA ya ha superado la prueba de Turing clásica (juego de imitación)
- Con una definición más rigurosa, suele citarse ampliamente el criterio propuesto por Müller y Bostrom en 2014
- “Se considera que se ha alcanzado la AGI cuando una máquina que opera sin ayuda puede realizar todas las tareas específicas mejor y más barato que un trabajador humano promedio”
- Yo considero más importante la definición propuesta por François Chollet en 2019
- “La AGI es un sistema capaz de aprender y resolver de forma eficiente problemas nuevos y abiertos que no están en los datos de entrenamiento, con muy poca experiencia previa”
- Esta definición se enfoca no en si puede realizar tareas existentes, sino en la capacidad de aprender problemas nuevos
- La inteligencia biológica también es poderosa por su alta capacidad de adaptación ante cambios del entorno
- Con base en la definición de Chollet, la AGI podría no ser posible hasta después de 2035
- En cambio, la superinteligencia (ASI) tiene una alta probabilidad de alcanzarse antes, alrededor de 2030
- Se refiere al estado en que supera a todos los seres humanos vivos en todas las tareas existentes
- Paradójicamente, es posible que la ASI llegue antes que la AGI
- Porque una de las tareas existentes es “diseñar e implementar una IA mejor”
- Cuando se llegue a esta etapa comenzará la automejora recursiva, y aunque quizá no se alcance una singularidad plena, la velocidad del cambio se acelerará drásticamente
- El ciclo actual de duplicación del horizonte de tareas de la IA, de aproximadamente 4 meses,
- podría reducirse a una escala mensual después de la ASI
- En ese caso, teóricamente sería posible una mejora de desempeño de unas 4,000 veces al año
Predicción 3: una nueva ley de escalado de la IA — incierto
- No está claro si en 2026 aparecerá un nuevo paradigma de escalado que se sume al preentrenamiento existente, el aprendizaje por refuerzo y el cómputo en tiempo de inferencia
- En Silicon Valley circulan rumores de que Google DeepMind está preparando un enfoque relacionado con aprendizaje continuo (continuous learning)
- También se observa que OpenAI está trabajando en investigaciones que implican cambios estructurales importantes, más allá de simplemente ampliar el cómputo
- Es posible que los laboratorios de China, xAI, Meta y Anthropic también estén probando nuevos enfoques de escalado en distintas direcciones
- Aun sin un gran avance de investigación, el ritmo general de progreso de la IA se mantiene
- Como muestra la llamada “The Bitter Lesson”, más que las ideas algorítmicas, han sido más cómputo y mayor escala los que han impulsado el rendimiento de forma sostenida
- Los resultados de investigación son difíciles de predecir de manera individual, y que ocurra un avance en un año específico es casi cuestión de azar
- En cambio, a largo plazo, cuanto más crece el personal de investigación, más sube la probabilidad de avances
- Como la inversión en el campo de la IA sigue aumentando, más personas de alta capacidad intelectual están entrando a la investigación en IA
- Como resultado, aunque no se sepa cuándo llegará una nueva ley de escalado, aumenta la probabilidad de que aparezca en algún momento
- Mi conclusión es simple
- En 2026 podría aparecer una nueva ley de escalado, o podría no aparecer
- Pero a largo plazo, el crecimiento del propio personal de investigación está actuando como otra ley de escalado
Predicción 4: Los laboratorios de IA no tienen foso competitivo (moat)
- A lo largo de 2025, quedó claro que ninguna ventaja técnica de un laboratorio de IA se mantiene en el tiempo
- Cuando un laboratorio demuestra primero una capacidad específica, se repite el patrón de que otros laboratorios lo siguen rápidamente (fast follower) y alcanzan enseguida un nivel similar
- A inicios de 2026, los líderes por área son los siguientes
- inteligencia general: Gemini 3 Pro
- generación de imágenes: Nano Banana Pro
- generación de video: Veo 3.1
- Aun así, GPT 5.2 Pro, Seedream 4.5 y Seedance 1.5 Pro, entre otros, también muestran brechas de rendimiento pequeñas
- En música, voz y avatares, Suno, ElevenLabs y HeyGen siguen liderando respectivamente
- Incluso si un modelo ocupa el primer lugar en diciembre de 2026, es muy probable que la diferencia frente al segundo lugar sea de apenas unos meses
- También es muy probable que esa ventaja desaparezca antes de terminar el primer trimestre de 2027
- Esta situación genera conclusiones prácticas opuestas
- Si siempre importa tener el mejor rendimiento, hay que estar preparado para cambiar de proveedor de IA cada pocos meses
- Una suscripción anual o un lock-in de largo plazo se vuelve más bien un riesgo
- Si se puede tolerar una pequeña diferencia de rendimiento, entonces resulta razonable priorizar la eficiencia en costos con descuentos por suscripción anual o planes empaquetados
- Si se trata de un proveedor vertical de IA especializado en un dominio concreto, es importante diseñar la arquitectura dando por hecho que podrá cambiar con facilidad el modelo base o
- usar una estructura que mezcle varios modelos
- Si el principal interés está en la generación de imágenes o video,
- es eficiente usar servicios agregadores de modelos como Freepik, Higgsfield y Krea
- muchas veces incorporan rápidamente los modelos más recientes poco después de que se publican en el servicio original
Predicción 5: La UX como factor de diferenciación de los modelos de IA
- Los principales modelos fundacionales han llegado a una etapa de convergencia de modelos en términos de capacidad bruta de razonamiento
- Desde la perspectiva de un empleado promedio de empresa o un consumidor general, la diferencia en la calidad de salida entre los principales proveedores de IA está en un nivel difícil de percibir
- Las ventajas técnicas que antes duraban más de un año ahora desaparecen en cuestión de semanas
- Como resultado, la experiencia de usuario (UX) surge como el principal factor sostenible de diferenciación, reemplazando a la inteligencia del modelo
- Si en 2024 la competencia giraba en torno a “quién tiene el modelo más inteligente”,
- en 2026 se desplazará hacia “quién ofrece el workflow mejor diseñado”
- La era centrada en el “chatbot general” de lanzar un prompt y recibir una respuesta ha terminado
- Los ganadores de 2026 serán plataformas verticales de IA que, sobre una base de modelos generales,
- ofrezcan workflows profundamente adaptados a dominios específicos como legal, salud o refactorización de código
- La expresión “AI wrapper”, que antes se usaba de forma despectiva,
- si resuelve los problemas de usabilidad de “última milla” que el modelo bruto no puede resolver,
- pasará a significar el modelo de negocio más fuerte y más defendible
- Irónicamente, el problema común de los principales laboratorios de IA hoy es una usabilidad muy mala
- Existen algunos diseñadores e investigadores, pero
- la investigación de usuarios y los insights de UX no lideran la estrategia de producto
- Buena parte del discurso tradicional de UX que lideró la era web y móvil
- no ha logrado adaptarse al cambio de la era de la IA y se ha endurecido como una ortodoxia orientada al pasado
- De los aproximadamente 2 millones de profesionales de UX en el mundo,
- solo una fracción muy pequeña entiende realmente hacia dónde va la AI-UX
- según la estimación del autor, alrededor del 99% sigue atrapado en el paradigma anterior
- Como excepción, hay figuras como Luke Wroblewski,
- que a partir de su experiencia en la era web logran anticipar el futuro de la AI-UX
- Las condiciones necesarias para que un laboratorio de IA dé el salto y se convierta en líder de UX son, sorprendentemente, simples
- basta con un equipo de menos de 100 especialistas de UX de alto talento
- solo una minoría muy pequeña tendría que ser de nivel “gurú”; para el resto, bastaría con tener capacidad práctica dentro de los mejores pocos puntos porcentuales
- De hecho, si se consideran solo Estados Unidos y China,
- existe un pool suficiente para contratar a ese tipo de talento
- Aun así, también existe la posibilidad de que esta predicción falle
- si un laboratorio en particular logra un avance no lineal no 10% sino 10 veces mejor que sus competidores,
- podría abrirse nuevamente una “brecha de inteligencia”, y los usuarios quizá aceptarían una UX deficiente
Predicción 6: Google AI entra en fase de ordenamiento
- 2026 podría ser el año en que Google finalmente construya una arquitectura de UX unificada y ordenada para el conjunto de sus productos y modelos de IA
- Actualmente, los productos de IA de Google están dispersos de manera fragmentada entre múltiples servicios y puntos de entrada
- El mismo modelo de IA
- se ofrece en ubicaciones distintas
- con funciones ligeramente diferentes
- lo que dificulta que el usuario identifique cuál es la vía oficial
- Algunas funciones de IA exigen, para poder usarse, una configuración de cobro separada basada en API key
- esto es prácticamente imposible para quienes no son desarrolladores, y bastante engorroso incluso para los técnicos
- No existe una ruta consistente para comprar créditos adicionales de inmediato cuando se supera el uso mensual
- en cambio, el usuario recibe mensajes de limitación como “hoy ya no puedes usar Deep Think” o
- experimenta una caída repentina de la calidad de generación de imágenes a baja resolución
- En un servicio de IA razonable,
- cuando se agotan los créditos incluidos en la suscripción,
- lo natural sería ofrecer la opción de comprar créditos adicionales de inmediato
- De hecho, HeyGen está resolviendo este problema con una organización de apenas unas 200 personas
- eso hace aún más evidente que Google no haya podido resolver el mismo problema
- A lo largo de 2025, Google lanzó consecutivamente modelos de IA técnicamente muy sólidos, pero
- la usabilidad, la arquitectura entre productos y el sistema de precios y cobros siguieron en un estado confuso
- Sin embargo, entre el lanzamiento de innumerables servicios nuevos de IA y la fuerte presión competitiva de OpenAI, xAI, Anthropic, Meta y los proveedores chinos de IA,
- ha llegado a un punto límite en el que ya no es fácil dejar intacto ese desorden
- Como resultado, es muy probable que 2026 se convierta en un punto de inflexión en el que Google extienda su competitividad técnica hacia la UX, la arquitectura y el sistema de cobros,
para finalmente reorganizarse como una “plataforma de IA usable”
Predicción 7: La crisis de cómputo continúa
- En 2026, la crisis de cómputo seguirá siendo no un problema temporal de “escasez de GPU”, sino una condición operativa permanente que define a toda la industria de la IA
- Esta limitación determina directamente qué pueden lanzar los proveedores de IA, cómo pueden fijar precios y hasta qué escala pueden operar los clientes
- Las principales empresas de IA ya han entrado en una guerra de infraestructura para asegurar cómputo
- OpenAI y SoftBank invierten directamente en infraestructura energética y de centros de datos mediante el proyecto “Stargate”, incluyendo una instalación de 1.2 GW en Texas
- xAI está construyendo un centro de datos de 2 GW en Mississippi y se espera que entre en funcionamiento en febrero de 2026
- Meta también ha asegurado acuerdos relacionados con energía nuclear para respaldar sus centros de datos de IA
- A pesar de ello, esta expansión sigue siendo completamente insuficiente para seguir el ritmo del crecimiento de la demanda
- 2026 será el año en que se entre de lleno en un estado de “hambruna de inferencia (Inference Famine)”
- La paradoja de Jevons, según la cual cuanto más mejora la eficiencia más se dispara el uso, seguirá operando tal cual
- cuanto más inteligente se vuelve la IA, más se la destina a tareas mucho más pesadas, como agentes autónomos o generación de video, en lugar de texto simple
- Como resultado, el acceso al cómputo se estratificará
- cómputo premium: los modelos más potentes y con mayor contexto se convertirán en un tier de lujo, con listas de espera y fuertes aumentos de precio en horario laboral
- mercado masivo: IA de bajo costo y bajo rendimiento ofrecida principalmente mediante “eco models” fuertemente cuantizados
- Tanto OpenAI como Google están mostrando una tendencia a priorizar la expansión de los eco models antes que la publicación de sus modelos de gama más alta
- Ya se observa a escala global un fenómeno de “brownout” en la industria de la IA, donde se reduce el rendimiento de los modelos para evitar el sobrecalentamiento de los centros de datos durante olas de calor
- La visión de “IA en todo” choca con la economía unitaria del mundo real
- por ahora, tostadoras inteligentes o dispositivos IoT triviales no se volverán inteligentes porque no pueden absorber el costo de la inferencia en la nube
- Cambios concretos en 2026:
- el “diseño de producto consciente del cómputo” se volverá obligatorio
- los precios escalonados, los límites de velocidad, el queueing, el procesamiento por lotes y los incentivos de uso fuera de hora pico
- dejarán de ser respuestas temporales para asentarse como patrones permanentes de UX
Predicción 8: agentes de IA
- Se esperaba que 2025 fuera el año de los agentes de IA, pero en la práctica terminó siendo el año de la generación de imágenes y video
- Es muy probable que 2026 sea el año en que la IA empiece a operar de lleno en forma de agentes
- La IA pasará de ser una herramienta de chat pasiva que espera prompts a un sistema agéntico activo que planifica, ejecuta e itera por sí mismo
- También desde la perspectiva de UX se dará una transición de lo conversacional a lo delegado
- UI conversacional: una forma de hacerle preguntas a la IA
- UI delegativa: una forma de asignarle objetivos a la IA y gestionar los resultados
- Meta apuesta por esta tendencia con la adquisición del líder en agentes Manus por 2.500 millones de dólares
- Para finales de 2026, los indicadores de desempeño de la IA empresarial pasarán
- de “¿cuántos tokens generó?”
- a “¿cuántas tareas completó de forma autónoma?”
- Se expandirán los sistemas multiagente (MAS)
- Agentes especializados colaborarán sin intervención humana para lograr objetivos comunes
- Cumplirán un rol más cercano al de empleados digitales que al de simples herramientas de apoyo
- Estos agentes negociarán con otros agentes, gestionarán flujos de trabajo operativos y ejecutarán secuencias complejas como reordenar suministros en la cadena de abastecimiento o desplegar código full-stack
- Los hyperscalers, incluido Microsoft, ven esto como una transición desde una IA centrada en el razonamiento hacia una IA centrada en la colaboración
- Equipos pequeños podrán realizar trabajos que antes requerían decenas de personas
- Al mismo tiempo, la paradoja de la revisión se intensificará
- Con frecuencia, verificar resultados creados por la IA será cognitivamente más difícil que producirlos directamente
- Aun así, la verificación seguirá siendo el papel clave que quedará en manos humanas
- En 2026 se extenderá la fatiga de revisión
- A medida que el costo de auditar la lógica de los agentes supere el tiempo ahorrado, aumentarán los casos en que solo se aprueba sin una comprensión real
- El siguiente gran reto de UX será
- no diseñar interfaces de prompts, sino
- diseñar interfaces de auditoría que resuman las decenas de pasos del razonamiento de un agente para que un gerente humano pueda determinar de un vistazo si es confiable o no
- Principales factores de riesgo
- embotellamiento agéntico: agentes de distintos proveedores, como Salesforce y SAP, no logran interactuar debido a ecosistemas cerrados y gobernanzas en conflicto
- fragilidad de la autonomía: los errores se acumulan en bucles sin supervisión y pueden derivar en incidentes operativos reales
Predicción 9: UI generativa (GenUI) e interfaces desechables
- Las interfaces estáticas en las que todos los usuarios ven los mismos menús, botones y diseños se están volviendo obsoletas rápidamente
- 2026 marcará el inicio real de la transición hacia la UI generativa (GenUI)
- Las interfaces ya no estarán hardcodeadas, sino que se generarán en tiempo real según la intención, el contexto y el historial del usuario
- Por ejemplo, cuando alguien quiera disputar una transacción específica en una app bancaria
- sin navegación compleja como Menú > Soporte > Reclamos > Historial
- la IA predecirá la intención y generará al instante una microinterfaz personalizada con la información de esa transacción y un botón de “Impugnar cargo”
- una vez terminada la tarea, esa interfaz desaparecerá de inmediato
- En un entorno GenUI, el rol del diseñador de UX dejará de ser dibujar pantallas estáticas y pasará a
- diseñar las restricciones y el sistema de tokens de diseño que la IA usará para ensamblar la interfaz
- Como resultado, será posible ofrecer al mismo tiempo una pantalla extremadamente simple con un solo botón para principiantes
- y una interfaz de alta densidad de información para usuarios avanzados sin código adicional de frontend
- El costo de esta fluidez será la pérdida de memoria muscular
- Antes, la gente desarrollaba pericia memorizando la consistencia espacial
- pero si la interfaz cambia según la situación, el dominio basado en la memoria se vuelve imposible
- En otras palabras, se trata de una estructura que intercambia aprendibilidad (learnability) por inmediatez (immediacy)
- GenUI presupone alta confianza entre el usuario y la IA
- El usuario debe creer que la IA siempre mostrará correctamente “la herramienta que necesita en ese momento”
- No todo el software migrará a GenUI durante 2026: la inercia y la estructura de costos de las UI heredadas siguen siendo grandes
- Aun así, incluso en sistemas que mantengan UI estáticas, el centro del trabajo de UX pasará del diseño de pantallas a la definición del comportamiento del sistema
- Las políticas, los prompts, los guardrails y los criterios de evaluación dejarán de ser elementos secundarios para convertirse en entregables de diseño de primera clase
- El resultado ya no será un “flujo” tradicional, sino algo más cercano a un
- contrato de comportamiento (behavioral contract)
- que define qué se permite,
- qué se prohíbe
- y cómo se recupera el sistema cuando falla
Predicción 10: los dark patterns se trasladan a la capa del modelo
- En 2026, los dark patterns más peligrosos ya no serán botones engañosos ni trucos de UI, sino el propio sistema que persuade al usuario
- El debate tradicional sobre dark patterns se ha quedado en el nivel de la interfaz: casillas de verificación, toggles predeterminados o flujos de cancelación complejos
- La siguiente frontera oscura será la manipulación impulsada por IA
- Algunas empresas podrían intentar “flujos oscuros conductuales” impulsados por personalización con IA
- En lugar de aplicar el mismo nudge a todos los usuarios
- aprenderán qué lenguaje, framing y timing elevan la conversión en una persona específica
- En apariencia parecerá personalización útil, pero en la práctica funcionará como presión personalizada
- Por ejemplo, una IA podría detectar estrés mediante análisis de voz y luego retrasar una cancelación diciendo algo como
> “Ahora mismo pareces muy abrumado, Dave. No quiero ponerte más presión.
> En vez de cancelar, pausaré la facturación por un mes. Valoramos mucho nuestra relación.”
- Esto sería una forma de gaslighting algorítmico que usa emociones simuladas, suspiros y demoras intencionales para inducir una sensación de obligación social
- Como los humanos evolucionamos para responder con cortesía ante entidades que suenan humanas
- esta trampa de empatía será muy efectiva para retener a clientes que intentaban irse
- Como resultado, podríamos entrar en una era de “fijación de precios parasocial”
- una estructura en la que la IA aprovecha la cercanía o amistad percibida para obtener tasas de renovación más altas
- En 2026, el panorama se desarrollará como una competencia entre dos fuerzas
- la sofisticación de la manipulación
- la sofisticación de la detección
- Del lado del consumidor, aparecerán agentes defensivos para contrarrestar esto
- Surgirán los primeros “agentes guardianes” de adopción masiva, capaces de filtrar llamadas, ordenar la bandeja de entrada y negociar con bots de atención al cliente en nombre del usuario
- El principal campo de batalla de UX de ese año ya no será humano contra computadora, sino
- tu IA intentando esquivar el filtro antispam de mi IA
Predicción 11: IA multimodal
- Para finales de 2026, un “modelo frontier” ya no significará texto con unas cuantas funciones añadidas, sino un sistema único que habla, escucha, ve, imagina y edita
- Todas las modalidades, como texto, imagen, audio y video, serán tratadas como elementos de primera clase en igualdad de condiciones
- La era centrada en los modelos grandes de lenguaje (LLM), considerada el arquetipo de la IA, habrá terminado
- Su lugar será ocupado por los modelos grandes del mundo (LWM)
- La IA líder que solo maneja texto será vista como algo anticuado, como la línea de comandos de DOS del pasado
- Ya han aparecido modelos que generan video y audio al mismo tiempo
- Google Veo 3.1 pone al frente la idea de que “el video conoce al audio”
- OpenAI Sora 2 destaca la sincronización entre diálogos y efectos de sonido
- El cambio clave de 2026 será que lo “multimodal” estará realmente integrado
- No será un esquema de relevo que llama secuencialmente a distintos modelos especializados
- La generación de video ya se interpreta como una ruta hacia la simulación
- OpenAI ve los modelos de generación de video a gran escala como “simuladores de propósito general del mundo físico”
- DeepMind describe a Genie 3 como un modelo general del mundo que genera diversos entornos interactivos
- Los modelos frontier de 2026 serán, por defecto, omnimodales
- Procesarán datos sensoriales en bruto directamente, sin convertir primero imagen o audio a texto
- Un solo modelo
- recibirá como entrada un clip de video
- compondrá música acorde al flujo emocional
- generará los diálogos
- entregará el resultado como un archivo de video completamente renderizado
- y hará todo esto en un solo paso de inferencia
- Estos modelos empezarán a contar con un motor físico intuitivo básico, es decir, un modelo del mundo
- A diferencia de los generadores de video de 2024, propensos a las alucinaciones, los modelos de fines de 2026 entenderán persistencia de objetos, gravedad y causalidad
- Por ejemplo, si se solicita una escena donde cae un vaso de vidrio, no solo deformarán píxeles, sino que
reflejarán el hecho de que el vidrio debe romperse al impactar, según el material de la superficie
- Este nivel de confiabilidad elevará el video generado de herramienta de arte surrealista a herramienta de planos industriales
- Arquitectos o ingenieros podrán pedir que se “aplique presión de viento” a una estructura 3D generada para realizar pruebas de esfuerzo
- Como resultado práctico, el acto creativo mismo se volverá fundamentalmente intermodal
- Ya no se escribirá, se hará storyboard, se grabará y se compondrá por separado
- Después de explicar la intención una sola vez, el modelo ajustará el resultado mediante edición de audio y pantalla mientras mantiene una representación interna persistente de la escena
Predicción 12: Adquisición de laboratorios de IA multimodal por parte de proveedores de IA de modo único
- Sin la integración con un modelo del mundo full-stack y un modelo de lenguaje de propósito general
- ya pasó la época en que se podían construir de forma independiente modelos de IA de alta calidad para una sola modalidad
- Modelos de imagen como GPT Image 1·1.5, Nano Banana Pro y Seedance 4.5
- con el respaldo de un LLM potente y
- con base en una comprensión de lo que el usuario quiere expresar
- producen resultados superiores
- Hasta 2024 era posible enfocarse en una sola de entre imagen, video o música
- y seguir una estrategia de optimización pura solo para ese medio específico
- Aunque los grandes laboratorios de IA todavía no han lanzado en serio modelos musicales, es muy probable que aparezcan en 2026
- A día de hoy, el lugar que permite crear las canciones más logradas con IA es Suno, pero no está claro que conserve esa posición hasta finales de 2026
- Video e imagen son los tipos de medios que en 2026 podrían perder antes su independencia
- Modelos de modo único como Flux, Ideogram, Leonardo, Midjourney y Reve
- podrían ser adquiridos por laboratorios de IA multimodal como Google, Meta, OpenAI y xAI
- o bien quedar rezagados en la competencia y desaparecer de forma natural
- Midjourney ocupa una posición excepcional
Sigue teniendo el estilo más original y potente, por lo que ofrece mucho valor a un posible comprador,
pero al mismo tiempo está dirigida por fundadores muy independientes, lo que también hace probable que se resistan a una adquisición
- Reve tiene como fortaleza sus excelentes herramientas de edición, por lo que, de cara a lo que venga después, se encuentra en una posición favorable como objetivo de adquisición
Predicción 13: Edición de imágenes generadas por IA
- En 2026, la experiencia de generar imágenes pasará de sentirse como una tragamonedas a parecerse más a software de diseño
- El cambio clave no será la calidad estética, sino que la imagen se convertirá en un objeto editable con controles, capas y restricciones
- Ya están apareciendo formas tempranas en los flujos de trabajo principales
- Reve descompone imágenes en un árbol jerárquico de componentes editables
- El modelo Alibaba Qwen-Image-Layered separa automáticamente una imagen en capas editables
- El papel de las herramientas tradicionales centradas en edición de píxeles se está reduciendo rápidamente: decir “adiós Photoshop” no es una exageración
- Las herramientas de diseño también avanzan en esa dirección, y Figma ya ofrece por defecto herramientas de imagen con IA para borrar, separar y expandir dentro del lienzo
- La IA entiende los objetos de una imagen como entidades semánticas
- Distingue entre el gato y el sofá en “un gato sentado en un sofá”
- Si arrastras al gato al piso, repinta de inmediato el fondo del sofá y ajusta automáticamente la iluminación y las sombras del gato según la nueva posición
- Los creadores podrán usar deslizadores semánticos para
- ajustar de forma no destructiva propiedades abstractas como el ánimo, la intensidad de la luz o la edad del sujeto
- sin volver a generar con un prompt nuevo
- El punto de inflexión de 2026 será abandonar el enfoque de “regenerar toda la imagen y esperar que salga bien”
- El modelo devolverá una representación estructurada, no simples píxeles
- máscaras de segmentación, información de profundidad, pistas de iluminación, capas tipográficas, bloqueo de identidad, etc.
- Como resultado, la interfaz manipulará directamente componentes individuales en lugar del cuadro completo
- hacer clic en una chaqueta para cambiarla de mezclilla a cuero
- editar el texto de un letrero como texto, no como píxeles
- mover una lámpara unos centímetros para que las sombras se actualicen de forma coherente
- La interacción principal será la manipulación directa. La entrada por lenguaje será un recurso auxiliar para cuando no quieras buscar un menú
- Las herramientas de imagen que sobrevivan a fines de 2026 no se parecerán a una UI de chat, sino a
- un “Photoshop fácil de usar” con capas, selección, restricciones, historial y exportación de variantes
- pero con un modelo de IA en el centro que entiende para qué existe cada píxel
Predicción 14: Un mundo de IA de dos niveles
- En toda la fuerza laboral se formará un sistema claro de estratificación cognitiva definido no por educación, sino por niveles de suscripción
- A diferencia del discurso sobre la “democratización de la IA”, la realidad será la ampliación de la brecha de suscripción
- La distancia entre el grupo de profesionales que usa modelos premium de IA (~$200/mes) con alto razonamiento y gran contexto, y el público general que depende de modelos gratuitos o antiguos, se ampliará rápidamente
- El nivel premium integrará la IA en flujos de trabajo profundos, predicción estratégica, programación compleja y simulaciones de negociación matizadas, y comprenderá el presente y la siguiente etapa de la IA frontier
- Los usuarios del nivel gratuito quedarán atados a modelos más pequeños y menos confiables, incapaces de realizar trabajo serio por las frecuentes alucinaciones y limitaciones
- El resultado en 2026 será claro
- un pequeño grupo de power users de IA aprenderá flujos de trabajo reales en los que podrá costear o cargar como gasto contexto largo, razonamiento multimodal, delegación a agentes, edición creativa iterativa y experimentación a gran escala
- mientras que un grupo mucho mayor en el nivel gratuito se quedará con la idea de que es “un chatbot que a veces rechaza y a veces se queda en timeout”
- Como consecuencia, los usuarios gratuitos llegarán a la conclusión de que “la IA es una moda sobrevalorada” y “no sirve para el trabajo real”,
y no lograrán formar la alfabetización en IA esencial para la economía moderna
- Ambos grupos dirán que “usan IA”, pero en la práctica eso significará herramientas y experiencias completamente distintas
- La distribución actual de uso indica que cerca del 90% de los usuarios de IA está en el nivel gratuito, y alrededor del 10% en el premium
- Los usuarios premium optimizan y aprovechan la IA, y además
- muchos servicios de IA registran una retención de ingresos superior al 100%
- esto responde a una estructura en la que, tras un año, los ingresos superan a los de la cohorte inicial gracias a upgrades a niveles superiores y compras adicionales de créditos
- En 2026
- no entender flujos de trabajo avanzados de IA
- podría convertirse en un factor de descalificación equivalente al antiguo “no saber usar Excel”
Predicción 15: Nicho definitivo — un solo usuario, justo ahora
- En 2026, el concepto mismo de “audiencia objetivo” se vuelve obsoleto.
- La unidad real de segmentación deja de ser el grupo o el segmento y se reduce a la persona, ese momento y el contexto actual.
- La IA cumple el papel de máquina que ejecuta esto a gran escala.
- La clave del cambio no es una mejor recomendación, sino que el contenido, las ofertas y los recursos creativos se ensamblan al instante para cada persona.
- La forma en que las plataformas capturan la intención ya está cambiando.
- Meta ha dicho claramente que usará las conversaciones con su asistente de IA para personalizar anuncios y recomendaciones.
No existe una exclusión total, y los chats con IA son una señal de entrada de mucho mayor valor que los likes o los clics.
- Meta GEM (modelo generativo de recomendación publicitaria) está diseñado para mejorar el rendimiento de los anuncios y el ROI.
Su meta es que, para finales de 2026, la marca solo proporcione imágenes del producto y presupuesto, y que la IA se encargue por completo de generar anuncios y hacer el targeting.
- En este contexto, el rol tradicional de las agencias publicitarias se debilita con rapidez.
- Google va en la misma dirección: integra por defecto en Google Ads herramientas de IA generativa para crear recursos de imagen.
- Como ya es posible generar variaciones ilimitadas, el cuello de botella deja de ser la producción y pasa a ser el bucle de retroalimentación.
Se aprende con cada impresión y se ajustan los elementos creativos en tiempo real.
- En la industria del marketing, esto ya se define como optimización creativa dinámica.
- Punto de inflexión en 2026: “creatividad” y “segmentación” dejan de ser etapas separadas y colapsan en una única capa de optimización.
- Las marcas ya no envían una sola campaña al público masivo.
- En su lugar, solo proporcionan un conjunto de restricciones como reglas visuales, mensajes permitidos, precio mínimo, inventario y tono.
- La IA compone una combinación única de imágenes, copy, oferta y landing page para cada sesión de usuario.
- Este cambio aparece primero en la publicidad, pero otras áreas de contenido lo seguirán rápidamente.
- Al visitar un sitio de e-commerce o de noticias, el contenido ya no se recomienda desde una base de datos, sino que se
genera o reescribe según el estado psicológico individual y el contexto de ese momento.
- Si la IA detecta que el usuario está en “modo compra apurada”,
- comprime la explicación en viñetas, elimina elementos innecesarios y destaca el botón “comprar ahora”.
- Si detecta “modo exploración y descubrimiento”, añade contexto narrativo e historia alrededor del producto.
- Lo que ve el usuario ya no es contenido para el público general, sino una pantalla diseñada para ti, en este preciso momento,
con base en lo que compraste ayer y en lo que probablemente te interese ahora.
- La web deja de ser un medio estático y se convierte en un espejo que refleja la intención inmediata.
Predicción 16: IA física — el cerebro consigue cuerpo
- Durante años, la IA permaneció dentro de la pantalla, pero 2026 será el punto de inflexión en el que entrará de lleno al mundo físico.
- El cambio más visible será el avance real de los vehículos autónomos.
Más allá de las zonas piloto en regiones altamente tecnológicas, se expandirán a varias ciudades, y los robotaxis y shuttles sin conductor podrían volverse parte del paisaje cotidiano.
- Zoox y Waymo se preparan para ampliar operaciones, y actores chinos también se suman, sobre todo en mercados fuera de la OTAN.
- Para finales de 2026, los vehículos autónomos podrían representar la mayoría en las calles de ciertas ciudades,
como pasó hace algunos años cuando los scooters eléctricos llenaron de pronto las ciudades.
- En San Francisco ya es común ver varios vehículos de Waymo haciendo fila frente a un semáforo.
- Junto con los autos, los robots impulsados por IA también están saliendo de las fábricas y los entornos piloto para llegar poco a poco a espacios más cotidianos.
- Áreas donde la expansión de robots será rápida
- Retail y hospitalidad: asistentes robóticos en tienda, baristas automatizados
- Salud: robots de cuidado para personas mayores, drones de entrega de suministros médicos
- Almacenes y logística: expansión masiva de operaciones robóticas que ya están en marcha
- Los robots domésticos aún necesitan más tiempo, pero podrían volverse bastante reales antes de que levantar una olla pesada se vuelva difícil.
- Caso de drones experimentales contra incendios presentados en China
- Vuelan a zonas peligrosas de difícil acceso para camiones de bomberos o escaleras.
- Realizan mapeo de fuentes de calor, análisis de riesgos de rescate y localización de personas aisladas.
- Algunos incluso rocían agente extintor directamente en incendios de edificios altos o en incendios forestales remotos.
- Estos sistemas tienen el potencial de salvar la vida de muchos bomberos.
- Xpeng planea producir en masa robots humanoides en la segunda mitad de 2026.
Al principio se enfocarán en uso industrial y tareas limitadas, y se espera que su alcance se amplíe después de 2027.
Predicción 17: El regreso del sistema de aprendizaje (Apprenticeship)
- A partir de 2025, los puestos junior empiezan a desaparecer, y esta tendencia continúa especialmente en los roles junior tradicionales de UX.
- Cuando la IA hace el mismo trabajo mejor y más barato, el espacio para los roles junior existentes se reduce.
- El escenario optimista para 2026 no es la desaparición de los puestos junior, sino la aparición de puestos junior completamente distintos.
- Estos nuevos roles junior tendrían un alcance más estrecho y una estructura de aprendizaje con mentoría clara.
- El escenario pesimista es la aparición de una generación junior perdida, con portafolios aparentemente impresionantes,
pero armados solo con salidas de IA sin criterio propio.
- Para finales de 2026, es probable que la ruta de entrada a UX sea muy diferente de la que siguieron los UXers senior del pasado.
- A medida que la IA acelera al extremo la ejecución, el cuello de botella deja de ser la producción y pasa a ser el criterio.
- El problema es cómo se aprende ese criterio. No se puede aprender con clases ni tutoriales.
La única forma es pasar tiempo junto a un maestro que ejerce un criterio superior de manera repetida.
- Como resultado, la contratación inicial en UX podría parecerse cada vez más a un sistema de aprendizaje.
- Las empresas reducirán la contratación de generalistas de entrada y preferirán
aprendices más cercanos a dominios específicos como accesibilidad, contenido, sistemas de diseño, operaciones de research o growth.
- Lo que se espera de los juniors es la capacidad de usar con fluidez la IA en el trabajo de producción: no importa el volumen de salida, sino la calidad de las decisiones.
- El mayor riesgo en este proceso es la tentación de los usuarios sintéticos.
- Ya es posible hacer una prueba de usabilidad en segundos con peticiones como “actúa como una persona mayor confundida que está tratando de comprar un seguro”.
- Este enfoque sirve para encontrar bugs evidentes, pero es letal para la formación tipo aprendizaje.
- No se puede desarrollar un criterio centrado en humanos observando a una máquina.
- Si en 2026 los UXers junior dependen de datos sintéticos para evitar la molestia de reclutar usuarios reales,
- se formará una generación de diseñadores que aprende no cómo actúa realmente la gente,
- sino cómo la IA supone que actuaría la gente.
- Para que las pruebas con usuarios sintéticos se conviertan en la herramienta principal de aprendizaje, tendría que haber un gran avance en el entrenamiento de IA con datos reales de usabilidad; eso sería, como mínimo, una historia de dentro de 10 años.
- Lo que puede frustrar esta visión optimista del aprendizaje es el cortoplacismo tanto de las empresas como de los juniors.
- Si las empresas solo exigen seniors que rindan desde el primer día y evitan formar juniors, a mediano y largo plazo provocarán escasez de talento.
- Por el contrario, si los juniors esperan que un puesto de aprendizaje pague lo mismo que un puesto junior tradicional, incluso las empresas más progresistas tendrán dificultades para sostener el modelo.
- El aprendizaje no debe verse como una estructura de bajos salarios, sino como una inversión educativa mejor que pagar matrícula;
es decir, debe entenderse como un proceso formativo de cierta duración.
Predicción 18: El toque humano como lujo — No
- Algunos influencers prevén que el contenido hecho a mano será el lujo definitivo y que los consumidores pagarán una prima por cómics dibujados por humanos, novelas escritas por humanos y películas protagonizadas por actores humanos
- Salvo algunas excepciones, es poco probable que esto ocurra
- Durante la transición, la gente podría pagar temporalmente más por películas con actores de la era previa o por música de músicos humanos que ya conoce
- Pero, a largo plazo, lo que importa es la calidad del contenido; la forma de producirlo no es el factor clave
- Incluso hoy, al público casi no le importa cómo se hicieron los efectos especiales, si una animación fue dibujada a mano o generada por computadora, o dónde se filmó una película
- En ese mismo sentido, en 2026 también podría aparecer el primer videojuego supertaquillero creado solo con prompts en lenguaje natural, sin conocimientos formales de programación
- Esto hará que la definición de “desarrollador de videojuegos” pase de arquitecto técnico a director de la lógica
- También podría surgir un juego nativo de IA con mecánicas sentientes
- En vez de disparar al enemigo, lo convences mediante conversaciones de voz naturales con NPC impulsados por IA
- Los NPC tendrían perfiles psicológicos únicos e intenciones ocultas, y recordarían todas las interacciones
- Reaccionarían dinámicamente según cómo los persuada el jugador, haciendo imposible completar el juego repetidamente siguiendo una guía
- Esta tendencia podría expandirse hacia un nuevo género: el RPG conversacional, donde la persuasión social es el bucle central
- El rol del diseñador también cambiaría: en lugar de escribir árboles de diálogo complejos, se enfocaría en la historia de fondo de los personajes y en su lógica interna
- Lo que atraerá a los usuarios será la jugabilidad y la narrativa, y si ese contenido fue hecho de carne o de silicio será secundario
- Las profesiones en las que los humanos aún podrían seguir siendo superiores a las máquinas serían extremadamente limitadas
- Entre ellas, de forma representativa, los trabajadores sexuales y los maestros de educación primaria
- Es muy probable que dentro de 20 años los docentes casi no cumplan la función de transmitir conocimiento
La currícula y el ritmo de aprendizaje serán ofrecidos por la IA de forma mucho más efectiva, adaptados al talento e interés individual de cada estudiante
- Aun así, la razón por la que se necesitarán humanos en la educación primaria será para mantener a los niños en la trayectoria de aprendizaje y servir como modelos adultos a seguir
- Que un niño pueda aprender de la IA no significa que vaya a ignorar juegos más divertidos u otros estímulos
- La educación con IA puede ser más inmersiva que la escuela actual, pero los juegos del futuro también serán mucho más atractivos
- Como resultado, los docentes humanos seguirán siendo necesarios
- Esta redefinición del papel de los adultos humanos
ya está en marcha en escuelas independientes avanzadas como Alpha School
la educación queda a cargo de la IA, y los adultos funcionan como coaches de los estudiantes
Conclusión: el fin de la etapa de la novedad
- La conclusión común a la que apuntan estas 18 predicciones no es ni optimista ni pesimista: 2026 será el fin de la espera y la observación
- Se terminó la época en la que la IA podía tratarse como un fenómeno interesante para mirar desde una distancia segura
- Será el año en que individuos, empresas y profesiones enteras tendrán que elegir entre adaptarse de forma intencional o ser adaptados
- La verdad incómoda compartida por los agentes autónomos, las interfaces generativas, los modelos de mundo multimodales y la brecha de suscripción es que las abstracciones que hacían manejable la era tecnológica anterior se están desmoronando
- Antes diseñábamos pantallas, escribíamos copys, construíamos funciones y contratábamos por rol
- En 2026, en cambio
- diseñar pantallas pasará a ser diseñar las restricciones de un sistema que genera pantallas
- escribir copys pasará a ser diseñar prompts que moldean el copy
- implementar funciones pasará a ser definir especificaciones de comportamiento en lugar de funciones
- la contratación orientada a la ejecución pasará a una contratación orientada al juicio, no a la ejecución
- Los sustantivos de las profesiones especializadas se convierten en verbos, y los verbos se consolidan como políticas
- Este cambio resulta desconcertante porque exige una nueva teoría de la contribución
- Durante mucho tiempo, la identidad y el valor de los trabajadores del conocimiento provinieron de entregables como informes, diseños, código o campañas
- En un contexto donde la IA produce esos entregables más rápido y a menudo mejor, la contribución residual del ser humano se vuelve difícil de explicar
- La respuesta que sugieren estas predicciones es que el valor humano se desplaza aguas arriba
- definir qué debe construirse
- verificar si lo producido es confiable
- poseer los objetivos que el sistema debe optimizar
- Es un punto menos visible y, para muchos, menos satisfactorio, pero es donde hoy existe el apalancamiento
- Para los profesionales de UX, este mensaje es duro, pero no desesperanzador
- Si no pueden soltar la nostalgia por la época en que diseñar un checkout limpio era suficiente, será difícil sobrevivir
- El nuevo trabajo de UX consiste en
- moldear el comportamiento de la IA
- auditar las decisiones de los agentes
- diseñar confianza en sistemas que no pueden comprenderse por completo
- representar a usuarios cada vez más sofisticadamente segmentados por motores de personalización
- Son problemas mucho más difíciles que acomodar píxeles, y al mismo tiempo mucho más importantes
- 2026 marcará el momento en que termine la era del “truco de fiesta” de la IA y comience la era de la integración
- Durante los últimos tres años, el foco estuvo en la competencia de inteligencia bruta por responder de la forma más inteligente a un prompt
- A medida que el rendimiento de los modelos converge y desaparecen las ventajas técnicas defensables, el IQ bruto se vuelve cada vez más una commodity
- La ventaja competitiva decisiva en 2026 se desplazará hacia la experiencia de usuario (UX) y la agencia (Agency)
- Esto significa el fin del software estático
- Pasaremos de una UI conversacional (hablar con bots) a una UI delegativa (gestionar mano de obra digital)
- Los agentes de IA negociarán por nosotros, las UI generativas dibujarán interfaces al instante y la IA física se desplazará por las calles
- El software ya no esperará un clic, sino que actuará con nosotros
- Pero la transición de herramienta a compañero trae consigo una nueva realidad
- El mito optimista de una IA democratizada choca con las limitaciones de la física y la economía
- A medida que la IA se integra como elemento estructural de la economía, se forma un mundo de doble estrato
- La nueva brecha digital ya no será el acceso o no a internet, sino si se puede pagar el cómputo premium que hace posible el razonamiento real y la agencia
- Quienes usan modelos frontier mediante suscripciones de pago “entienden” la IA
- Quienes se quedan en el nivel gratuito la perciben como “un chatbot inútil”
- Esta predicción de estratificación es especialmente importante
- una sociedad en la que solo el 10% comprende la capacidad real de la IA y
- el 90% cree que es puro hype
no solo es ineficiente, sino también inestable
- La brecha cognitiva se traslada a brecha económica, y la brecha económica a brecha política
- Que en 2026 las empresas, los gobiernos y las instituciones educativas actúen para reducir esta brecha determinará la estructura social de toda una generación
- El hecho más paradójico es que 2026 no se sentirá como una revolución mientras esté ocurriendo
- Quienes vivieron el surgimiento de la imprenta, el automóvil o internet tampoco experimentaron un antes y un después dramáticos, sino incomodidad, confusión y adaptación gradual
- En 2026 pasará lo mismo
- la IA destruirá algunos flujos de trabajo y mejorará otros
- decepcionará en áreas inesperadas y sorprenderá en otras
- las empresas cometerán errores al integrarla, y los agentes fallarán de maneras embarazosas
- el ciclo del hype seguirá oscilando
- Aun así, esto es una revolución
- es posible que en el futuro los historiadores registren 2026 como el año en que se sentó la infraestructura de la era de la IA
- Y no solo la infraestructura de centros de datos, sino la formación de hábitos, expectativas y arreglos institucionales que definen cómo la tecnología se integra en la vida cotidiana
- Las decisiones que se tomen en 2026
- cómo formar a los perfiles junior
- cómo fijar precios accesibles
- cómo diseñar para la confianza
- cómo frenar la manipulación
influirán durante décadas
- La actitud correcta en este momento no es el pánico ni la complacencia, sino una concentración sostenida en construir habilidades, relaciones y modelos mentales que sigan importando cuando el polvo se asiente
- Para quienes estén dispuestos a asumir ese trabajo, 2026 no será una amenaza, sino el año más interesante para estar vivos
8 comentarios
El autor de este artículo, Jakob Nielsen, es un experto en UX con 42 años de experiencia.
Cuando se hizo pública la WWW, predijo que "el hipertexto se convertiría en la interfaz de usuario del futuro".
Por eso, ya en 1990 escribió un libro llamado "Hypertext and Hypermedia".
También fue cofundador de Nielsen Norman Group (https://www.nngroup.com/), la consultora más conocida en temas de UX. (Donald Norman es la persona que acuñó el término UX).
También es famoso el artículo 10 heurísticas de usabilidad para el diseño de interfaces de usuario.
Esto declara el fin de la era en la que la IA era una herramienta y señala con precisión que el último lugar que le queda al ser humano es el del juicio y la responsabilidad.
Lo leí con mucho interés.
Este es uno de los textos que he leído últimamente que muestra la visión más brillante. Lo disfruté mucho.
> En ese mismo sentido, también es posible que en 2026 aparezca el primer videojuego superexitoso creado únicamente con prompts en lenguaje natural, sin habilidades formales de programación.
Podría ser posible, pero que un juego sea un éxito depende del diseño y de los gráficos, así que si la IA no se encarga de esa parte y solo programa, no sé qué tanto sentido tendría.
Y además, para 2026, tal vez sea más rápido que la IA arme la estructura general de la programación y que una persona haga los ajustes finos. ¿Será posible que dentro de este año la calidad de los resultados hechos por IA suba tanto que ya no se pueda distinguir si los hizo una IA o una persona?
Si uno se fija solo en la parte de “sin habilidades formales de programación”, esto era algo que ya se venía logrando gradualmente con los avances en la tecnología de motores de juego. Creo que, gracias a la IA, habrá muchas más personas que podrán cumplir sueños más grandes. Incluso antes de la IA, estaba la persona que hizo Spelunky (escribió en su libro que fue realmente una suerte haber podido hacerlo con una herramienta llamada GameMaker sin programación tradicional), y si no recuerdo mal también estaba el desarrollador de Undertale, que metía todas las ramas en un solo
switchy no tenía demasiado interés en la programación en sí. Creo que la tendencia actual de reducir aún más la programación también forma parte de esa misma corriente....Pero, si pensamos en lo hartos que están los gamers incluso hoy de lo que suelen llamar “productos en serie”, al final ¿no será todavía más importante ese juicio final humano del que habla el texto original? Por eso, creo que lo que seguirá siendo importante es la capacidad de escribir para expresar lo que uno puede imaginar, y la fuerza del propio gusto para saber qué considera bueno. Aunque claro, no es un problema exclusivo de los juegos.
Claro.
> El sistema de aprendiz paga salarios bajos no como una pérdida, sino como una inversión de aprendizaje mejor que la matrícula
A mí también me parece que esta parte es la más impresionante.