- La actualización integral de Siri sufrió retrasos en el calendario por problemas en las pruebas internas
- Las funciones, originalmente previstas para incluirse en iOS 26.4, ahora se distribuirían gradualmente entre iOS 26.5 e iOS 27
- Son especialmente inestables las funciones de uso de datos personales y el control por voz basado en App Intents
- También se detectó un problema por el que algunas solicitudes cambian automáticamente a la integración con ChatGPT en lugar de usar tecnología de Apple
- Apple impulsa una transición de IA a largo plazo con la nueva arquitectura Linwood y modelos basados en Google Gemini
Retrasos en el calendario de la actualización de Siri
- La versión de Siri completamente renovada, anunciada en junio de 2024, encontró problemas en pruebas internas recientes
- El plan inicial era incluirla en iOS 26.4, cuyo lanzamiento estaba previsto para marzo de 2026
- Actualmente se evalúa dividir algunas funciones entre iOS 26.5 (mayo) e iOS 27 (septiembre)
- Durante las pruebas surgieron errores en el procesamiento de consultas y demoras en las respuestas
- Se reportó que algunas solicitudes no se procesan correctamente o que los tiempos de respuesta son excesivamente largos
Factores clave detrás del retraso
-
Función ampliada de uso de datos personales
- Siri iba a incluir una función para acceder a datos personales, como mensajes anteriores, y ejecutar solicitudes
- Ejemplo: buscar en mensajes de texto anteriores un pódcast compartido por un amigo y reproducirlo de inmediato
- En una build interna de iOS 26.5 existe un interruptor de “preview” para esa función
- Se está considerando una forma de avisar a los usuarios que el lanzamiento inicial podría ser incompleto o no totalmente estable
-
Control por voz avanzado con App Intents
- Apple desarrolla una función avanzada de control dentro de apps que permite, con un solo comando de voz, buscar imágenes, editarlas y enviar contactos
- Las pruebas internas confirmaron que la función no opera de forma estable en todos los escenarios
- Se reportó un bug por el que Siri interrumpe al usuario cuando este habla rápido
- También se detectaron problemas de precisión y largas demoras al procesar consultas complejas
Dependencia de la integración con ChatGPT
- Se detectaron casos en los que el nuevo Siri cambia automáticamente a la integración existente con OpenAI ChatGPT en lugar de usar la tecnología propia de Apple
- Se reportaron usos de integración externa incluso en solicitudes que deberían poder resolverse con tecnología interna
Cambios en la arquitectura tecnológica
- La versión renovada de Siri está construida sobre una arquitectura completamente nueva llamada Linwood
- Aprovecha Apple Foundations Models, la plataforma de modelos de lenguaje de gran tamaño de Apple
- En ella se está integrando parte de la tecnología del equipo Google Gemini de Alphabet
- La versión de prueba de iOS 26.5 incluye dos funciones no anunciadas
- Herramienta de búsqueda web: ofrece respuestas compuestas con información de la web, de forma similar a Perplexity o Gemini
- Función de generación de imágenes: basada en el motor de Image Playground, aunque con problemas de estabilidad
iOS 27 y el Siri de próxima generación (nombre clave Campo)
- Apple planea introducir un Siri con formato de chatbot en iOS 27, iPadOS 27 y macOS 27
- Usaría servidores de Google y modelos personalizados avanzados de Gemini
- El proyecto con nombre clave “Campo” busca integrar la IA en todo el sistema operativo
- Apple está probando una app independiente de Siri
- Incluye una función para gestionar conversaciones anteriores
- También se prevé reforzar el control de funciones en todo el sistema y la exploración de datos personales, como archivos
- Apple planea integrar el nuevo motor de Siri en apps predeterminadas clave como Mail, Calendar y Safari
Estrategia de infraestructura de IA y chips
- El CEO Tim Cook mencionó en una reunión interna el desarrollo de chips para centros de datos orientados a IA
- Apple está construyendo una solución personalizada para centros de datos basada en Apple silicon
- También avanza en el desarrollo de un chip de IA de alto rendimiento para la nube bajo el nombre de proyecto Baltra
Estrategia de privacidad
- Una de las causas del retraso en el desarrollo de IA personalizada sería la fuerte política de privacidad de Apple
- Craig Federighi destacó la diferencia frente a la práctica común de la industria, donde los datos del usuario se registran en servidores y se usan para entrenamiento
- Siempre que sea posible, Apple apuesta por el procesamiento en el dispositivo o por servidores con protección de privacidad
- En lugar de datos reales de usuarios, utiliza datos con licencia y datos sintéticos
1 comentarios
Opiniones en Hacker News
Apple entró en la era de los smartphones en el momento perfecto, pero corre el riesgo de quedarse atrás en la próxima transición tecnológica. En especial, en IA ya va bastante rezagada frente a sus competidores
Por eso invierte en Vision Pro y en sus propios chips. Gracias a esa estrategia, la Mac Mini y la Mac Studio han surgido como equipos ideales para ejecutar modelos de IA locales
El error de Cook está en el marketing, y esa parte sí es responsabilidad del CEO
En vez de apresurarse con la IA, Apple haría mejor en encontrar una visión coherente que encaje con su ecosistema
A Apple la han dado por “rezagada” en varias tendencias como la web, la búsqueda, lo social y el metaverso, pero al final ha seguido teniendo éxito
Apple no quiere sacrificar los datos de sus clientes como hacen otras empresas, y gracias a eso a largo plazo se ganará la confianza
Viendo el caso del fracaso de las funciones de IA del Google Pixel 10, el enfoque lento de Apple hasta parece más sensato
Artículos relacionados: Android Authority, Ars Technica
Al final Siri solo sirve como un botón de voz para poner temporizadores
Siri es solo una función de casilla para inversionistas, y la IA que realmente hace falta probablemente tenga otra forma
Si Apple convirtiera Siri en un servicio tipo ChatGPT, probablemente sería para empujar suscripciones a iCloud
Aun así, el control por voz centrado en HomePod es bastante útil
Antes de los LLM eso era imposible, pero ahora estamos en una era donde ya se puede entender el contexto
Sería genial que se volviera más inteligente
Lo sorprendente es que Google Home siga siendo tan malo. Lo cambiaron a una base con Gemini, pero ahora hasta es más verboso y ni siquiera puede manejar preguntas básicas
Intentaron crear una versión unificada del software, pero al final tuvieron que abandonar el soporte para dispositivos antiguos, y eso terminó arruinando la experiencia de usuario
Mientras manejaba pregunté “¿Este restaurante sirve almuerzo?” y solo respondió “Encontré resultados en la web”
Aunque tiene ubicación, mapas, datos de menú y capacidad de resumen con LLM, no aprovecha nada del contexto
Siri da la impresión de que deliberadamente no hace cosas que sí podría hacer
Parece que QA no está funcionando bien, o que la organización es ineficiente
Pero insistir en el procesamiento en el dispositivo también tiene sus límites. Mientras tanto, la mayoría de los usuarios entrega sus datos personales a la nube sin problema
Por eso Siri parece ir relativamente por detrás