- Las interfaces basadas en texto que surgieron después de ChatGPT son poderosas, pero menos intuitivas que las GUI tradicionales
- La UI del futuro está evolucionando hacia formas que ofrecen, en lugar de chat, acciones según el contexto, búsqueda inteligente, organización automática y retroalimentación inmediata
- Ejemplos: menús contextuales con IA, campos de búsqueda en lenguaje natural, command bars, la organización de capas con IA de Figma, las sugerencias en tiempo real de Grammarly, etc.
- Ya se están probando enfoques que predicen “la siguiente acción del usuario” para sugerirla automáticamente, e incluso casos donde el propio LLM genera la UI en tiempo real
- El software tradicional poco a poco se sentirá anticuado, y es cada vez más probable que productos basados en estos nuevos patrones reemplacen a los existentes
El chat es un regreso a la terminal
- El chat con LLM es potente y flexible, y también fácil de programar
- Pero no es intuitivo y resulta incómodo de manipular, además de ser intimidante para principiantes, igual que las terminales de antes
> El chat es útil como interfaz de depuración, pero no debería convertirse en la UX por defecto
UI centrada en documentos + chat auxiliar
- Se están expandiendo interfaces donde el documento o el código son el centro y el chat queda como herramienta auxiliar, como en ChatGPT Canvas
- También se puede ver una experiencia similar en Copilot in Excel, Cursor IDE y otros
Menú contextual generativo
- Las funciones de IA pueden integrarse de forma natural en el menú contextual
- Ejemplo: Dia Browser sugiere directamente comandos de IA según la posición del cursor
- Al inicio, el menú puede volverse demasiado complejo, por lo que hará falta refinarlo más adelante
Búsqueda intuitiva en lenguaje natural
- En vez de buscar “air canada confirmation”, se puede buscar “¿cuándo es mi vuelo de trabajo?”
- Ejemplos: la búsqueda de correos en lenguaje natural de Superhuman y la búsqueda de diseño basada en contenido de Figma
- La UX que exigía recordar palabras clave exactas está desapareciendo gradualmente
Escribir en vez de elegir: una forma de control más humana
- En la UI tradicional, filtros, fechas y estilos se manejaban con selecciones basadas en menús desplegables
- Ahora resulta más natural escribir en lenguaje natural “el próximo miércoles”
- Se están popularizando las interfaces de ejecución inmediata basadas en command bar (
Command-K) y autocompletado
Retroalimentación en línea
- Más allá de la ortografía, también es posible ofrecer retroalimentación de IA en línea sobre estilo, argumentos, necesidad de fuentes, etc.
- El concepto de “daemon de escritura” de Maggie Appleton propone personajes de retroalimentación con distintas personalidades que dan consejos en tiempo real
Organización automática
- Igual que el renombrado de capas con IA de Figma, incluso archivos desordenados pueden estructurarse automáticamente
- También es posible implementar formas de organización más complejas de manera natural y sin chat
Resumen y extracción de información
- Apple Intelligence ofrece resúmenes de la información clave dentro de conversaciones informales (“se canceló la cita de hoy, se movió a la próxima semana”, etc.)
- En una era de sobrecarga informativa, las funciones de resumen con IA sin chat, que filtran solo la señal importante, se están volviendo indispensables
Voz + multimodalidad
- Las interfaces de voz tampoco deberían quedarse, igual que el chat, en una conversación lineal
- Ejemplo: apuntar con el mouse a un botón y decir “¿dónde está este código?”, para que el LLM abra la ubicación del código
- Se vuelve posible una interfaz multimodal más humana que usa al mismo tiempo señalar + hablar
Sugerir “lo siguiente por hacer”: tan natural como la tecla Tab
- Se sugieren acciones futuras con base en los patrones del usuario
- Ejemplos: las sugerencias de errores tipográficos de Grammarly y el patrón de autocompletado con la tecla Tab de Cursor
- En tareas repetitivas, esto reduce el esfuerzo del usuario y le permite concentrarse en el pensamiento creativo
Etapa final: el LLM genera la UI en tiempo real
- La generación de código de UI, como en bolt.new, ya es una realidad
- Además, está surgiendo la idea de generar la propia UI en tiempo real según el objetivo específico de cada usuario
- Desventajas: es difícil de aprender y el estado de la UI puede variar entre usuarios
- Los menús adaptativos de Office XP (IntelliMenus) son un ejemplo histórico de fracaso
- Aun así, si los LLM se vuelven lo bastante potentes, también podrían establecerse como un nuevo patrón estándar de UI
Ahora es momento de construir
- Estos patrones de UI basados en IA están reconfigurando gradualmente todo el software
- La UX tradicional empezará a verse fuera de época, y los productos que adopten esto primero definirán las nuevas expectativas de los usuarios
- Así como la GUI reemplazó a la terminal, este es otra vez un momento en el que el panorama de la UX del software está cambiando por completo
4 comentarios
Pienso algo parecido.
Hace poco busqué un programa para renombrar archivos en lote... pero los programas que tienen todas las funciones de verdad tenían una cantidad absurda de menús y además eran muy complicados de usar. Para hacer una tarea simple como "agrégale '_' al final del nombre del archivo", había que aprender a usarlo... mientras más potente es, más raro termina volviéndose.
Así que lo volví a hacer usando un LLM. La parte del código que realmente cambia los nombres de archivo la hace generar el LLM. Si se hace así, se puede eliminar por completo toda esa UI compleja.
La clave es que, al final, el LLM tiene que generar código internamente y ejecutarlo en tiempo real,
y ahí está el punto que es fundamentalmente distinto de las ideas tradicionales de software o UX.
Antes, toda la lógica ya estaba preparada, y el núcleo de la UI era conectar esa lógica con el usuario, pero ahora la lógica también se volvió flexible, así que la UI también tiene que cumplir el papel de producir esa generación dinámica de código.
Pero no creo que pueda reemplazarlo todo. En algunas cosas, la UI tradicional es más cómoda.
(Lo agrego porque no hubo edición.)
https://www.bulkrenameutility.co.uk/#mainscreen
El software existente como el de arriba puede cambiar así cuando se incorpore un LLM.
https://localfile.io/ko/run/rename/
Parece que, para que cambie por completo el panorama de la UI/UX, la plataforma también tendría que intentar salir del form factor del teléfono o el monitor.
https://x.com/karpathy/status/1917920257257459899
También podría ser útil comparar la opinión de Andrej Karpathy.
La experiencia de “chatear” con un LLM se siente como usar una terminal de computadora de los años 80. Aún no se ha inventado la GUI (interfaz gráfica de usuario), pero creo que ya se pueden anticipar algunas de sus características.
Será visual (como las GUI del pasado). Esto se debe a que la información visual (fotos, gráficos, animaciones, etc.; ver en lugar de leer) es como una autopista de 10 carriles hacia el cerebro. La visión tiene el mayor ancho de banda de entrada de información, y cerca de un tercio del procesamiento cerebral está destinado al procesamiento visual.
Será generativa y cambiará según las condiciones de entrada. Es decir, la GUI se generará en tiempo real de acuerdo con el prompt del usuario, y todos los elementos existirán y se organizarán para ese propósito inmediato.
Una pregunta un poco más abierta es en qué medida tendrá una naturaleza “procedural”. En un extremo, se puede imaginar un único modelo de difusión gigante que produzca todo el lienzo de salida de una sola vez; en el otro, una página llena de componentes de React generados de forma procedural (por ejemplo: imágenes, gráficos, animaciones, diagramas, etc.). Yo creo que será una mezcla de ambos, pero que lo segundo formará la estructura base.
Pero me atrevo a asegurar ahora mismo que, a medida que la capacidad se acerque al infinito, un GUI de lienzo 2D fluido, mágico, efímero e interactivo será su forma final. Y creo que eso ya está empezando lentamente (por ejemplo: bloques de código/resaltado, bloques de LaTeX, negritas/cursivas/listas/tablas de Markdown, emoji, y de forma más ambiciosa la pestaña Artifacts, gráficos de Mermaid o incluso apps más completas). Por supuesto, todo eso sigue estando en una etapa muy temprana y primitiva.
Iron Man, y hasta cierto punto Star Trek / Minority Report, pueden considerarse buenos ejemplos en la cultura popular de AI/UI que muestran esta dirección.