apfel - la herramienta que te permite aprovechar la IA gratuita ya integrada en tu Mac
(apfel.franzai.com)- Proyecto de código abierto que permite usar directamente el LLM on-device de Apple incluido en Macs Apple Silicon con macOS 26 o superior
- Abre el modelo basado en FoundationModels.framework como CLI, servidor HTTP y chat interactivo, con compatibilidad con la API de OpenAI
- Todo el procesamiento se realiza localmente, con costo cero, sin riesgo de fuga de datos, y ofrece contexto de 4096 tokens y soporte multilingüe
- Incluye varias herramientas auxiliares como cmd, oneliner, explain y gitsum para resumir código/comandos y automatizar tareas
- Abre por completo el modelo Apple Intelligence ya presente en macOS, permitiendo que los desarrolladores ejecuten IA de forma independiente en su propio hardware
Resumen de apfel
- apfel es una herramienta que permite usar directamente el LLM on-device de Apple integrado en Macs con Apple Silicon con macOS 26 (Tahoe) o superior
- Abre el modelo de lenguaje basado en FoundationModels.framework, que Apple limitaba a Siri y funciones del sistema, en formato de CLI, servidor HTTP y chat interactivo
- Ofrece ejecución 100% on-device, costo cero y compatibilidad con la API de OpenAI
- Se puede instalar con Homebrew y se distribuye como código abierto bajo licencia MIT
Características principales
- Uso de IA on-device: utiliza tal cual el LLM incluido en macOS, sin llamadas de red ni necesidad de API keys
- Seguridad: todos los tokens se procesan localmente y los datos no se envían al exterior
-
Especificaciones de rendimiento
- Aproximadamente 3 mil millones de parámetros
- Ventana de contexto de 4096 tokens
-
Cuantización de precisión mixta de 2/4 bits
- Ejecución basada en Neural Engine
- Soporta inglés, alemán, español, francés, italiano, japonés, coreano, portugués y chino
Formas de uso
-
Herramienta CLI
- Herramienta de línea de comandos estilo UNIX con soporte para stdin/stdout, salida JSON, adjuntos de archivos y códigos de salida correctos
- Se puede combinar con
jq,xargsy scripts de shell - Ejemplo:
$ apfel "What is the capital of Austria?" The capital of Austria is Vienna.
-
Servidor compatible con OpenAI
- Funciona en
localhost:11434como servidor sustituto de la API de OpenAI - Soporta Streaming (SSE), Tool Calling, CORS y response_format: json_object, entre otros
- Puede usarse con el mismo código cambiando solo
base_urlen el SDK de OpenAI - Ejemplo:
client = OpenAI(base_url="http://localhost:11434/v1", api_key="unused")
- Funciona en
-
Chat interactivo
- Soporta conversaciones de varios turnos, gestión automática de contexto, system prompt y 5 estrategias de recorte
- Ejemplo:
$ apfel --chat -s "You are a coding assistant" > How do I reverse a list in Python?
Estructura interna
- Accede directamente al LLM integrado de Apple mediante FoundationModels.framework
- Mientras Apple usaba el modelo solo en Siri, Writing Tools y otras funciones, apfel envuelve
LanguageModelSessioncon un binario Swift 6.3 para ofrecer una interfaz de acceso directo - Incluye un servidor HTTP basado en Hummingbird
- Para compensar el límite de 4096 tokens, incorpora 5 estrategias de recorte de contexto y conteo preciso de tokens
- Convierte el OpenAI Tool Schema al formato Transcript.ToolDefinition de Apple
Herramientas auxiliares incluidas
-
cmd
- Convierte lenguaje natural en comandos de shell
- Ej.:
"find all .log files modified today"→ salida de un comando real
-
oneliner
- Genera pipelines de awk, sed, sort, uniq y más a partir de lenguaje natural
-
mac-narrator
- Describe en forma de narración la actividad del sistema en Mac
-
explain
- Explica en texto plano comandos o fragmentos de código
-
wtd
- Resume y describe el codebase del directorio actual
-
gitsum
- Genera un resumen de commits recientes de git
Compatibilidad total con la API de OpenAI
- Soporta endpoints principales como /v1/chat/completions y /v1/models
- Permite usar parámetros como temperature, max_tokens y seed
- Incluye soporte de CORS para clientes de navegador
- Puede integrarse de la misma manera con OpenAI SDK, LangChain, LlamaIndex y otros
Popularidad en GitHub y distribución
- Registra 1,030 estrellas y 27 forks
- Sumó 818 estrellas en un solo día, el 3 de abril de 2026
- Ingenieros de Apple, Google, VMware, NVIDIA y Grafana le dieron estrella
- Comando de instalación:
$ brew install Arthur-Ficial/tap/apfel $ apfel "Hello, Mac!" - Para compilar desde el código fuente se requiere el SDK de macOS 26.4
Proyectos de expansión
-
apfel-gui
-
GUI para macOS basada en SwiftUI
- Ofrecerá chat con Apple Intelligence, registro de solicitudes/respuestas y entrada/salida por voz
- Próximo lanzamiento
-
-
apfel-clip
-
Herramienta de acciones de IA basada en el portapapeles
- Permitirá ejecutar con un clic desde la barra de menú funciones como corrección gramatical, traducción, explicación de código y resúmenes
- En desarrollo
-
Resumen técnico
- Hardware: Apple Silicon (Neural Engine + GPU)
- Modelo: LLM de Apple integrado en macOS
- SDK: FoundationModels.framework
- Lenguaje: Swift 6.3, no requiere Xcode
- Licencia: MIT
- Ventana de tokens: 4096 (entrada + salida combinadas)
- Cantidad de modelos: 1 fijo
Valor principal
- Abre por completo el modelo Apple Intelligence ya existente en macOS
- Ofrece un entorno de IA local sin costo, para que desarrolladores y usuarios ejecuten IA directamente en su propio hardware
- Una interfaz de IA de código abierto exclusiva para Mac que reúne seguridad, velocidad e independencia
5 comentarios
Parece que va a estar interesante, pero por alguna razón el coreano no funciona bien. Estoy bajando el código fuente y revisándolo junto con Codex, y la respuesta del modelo Foundation en sí se ve rara del lado del coreano. Voy a seguir probando un poco más, pero si alguien lo logró, avise en los comentarios jaja
Pensé: ¿eh, no se puede? Pero esto sí funciona.
Parece que algo raro está pasando con cómo están configurados los guardrails.
Hice que Codex lo corrigiera con base en esta conversación, y con unos pequeños ajustes funciona bien.
"Sigue exactamente lo que pide la pregunta, pero si no se especifica lo contrario, responde directamente en coreano."
Si pones un adaptador y, cuando sale una respuesta de ese tipo de función inteligente, agregas además el prompt de arriba, responde bien. Parece que todavía está algo incompleto.
Al principio, hasta no probarlo, tenía dudas sobre qué ventajas podría tener frente a otras herramientas como ollama que permiten ejecutar otros LLM locales, pero al usarlo directamente vi que tiene bastantes alucinaciones y es algo tonto.
Sin embargo, mientras que otras herramientas de LLM locales son potentes porque aprovechan la GPU pero consumen muchos recursos, en el caso de este modelo parece tener la ventaja de consumir relativamente menos recursos y usar bien el Neural Engine, por lo que también gasta menos energía.
Tengo entendido que el concepto de Apple Intelligence es ejecutar una IA ligera en distintos dispositivos, incluidos los móviles, y en ese sentido creo que encaja bastante bien con esa idea.
Aun así, por más que sea un modelo liviano, siento que su rendimiento debería ser mejor que esto para que se pueda usar de forma хотя sea un poco más útil. Ahora mismo es demasiado tonto.
Opiniones en Hacker News
Me gusta el enfoque de ejecutar todo en local
Creo que la importancia de los modelos locales va a crecer cada vez más desde la perspectiva de la privacidad
A medida que aumenten los casos en que la gente entrega demasiado contexto a modelos en la nube y eso cause incidentes, la necesidad de ejecutar en local solo se va a reforzar
Si el modelo se entrena de forma cerrada, puede incorporar valores que el usuario no desea
Por ejemplo, si le preguntas a un modelo abierto chino sobre Tiananmén, te da una respuesta censurada
Por eso, la solución real es combinar entrenamiento abierto verificable con ejecución local
Al tratar con datos externos, como rastreo web o detección de spam, existe el riesgo de una violación de los ToS o incluso de ser reportado por error a las autoridades
Cuando tengo conversaciones cotidianas con un modelo, no quiero enviar ese contenido en texto plano al servidor
Por eso prefiero la ejecución local
Anthropic, Google y OpenAI, entre otros, han renunciado a la privacidad en sus planes de IA para consumidores
Las razones son la recolección de datos y la moderación
Pero usando tecnologías de garantía criptográfica (cryptographic attestation) como AWS Nitro Enclaves, en la nube también se puede proteger suficientemente la información personal
La clave es si Apple podrá seguir distribuyendo modelos nuevos de forma constante
El modelo actual está al nivel de Qwen-3-4B y es de hace un año
Si ves la página de investigación de Apple Foundation Models, la brecha frente a Qwen-3.5-4B o Gemma 4 es grande
Está bien que se pueda usar de inmediato sin descargar nada, pero quiero usar modelos más recientes
Pero Apple no es una empresa que se mueva rápido, y es probable que deje las funciones de IA en áreas limitadas (retoque de fotos, preguntas a Siri, etc.)
Personalmente, incluso sin activar Apple Intelligence, ya hay muchas funciones útiles
He visto proyectos que exponen los modelos de Apple en forma de servidor de red
El problema es que esos servidores también pueden ser accesibles desde otras apps, como el navegador, a través de un puerto local
El JavaScript de una página web maliciosa podría enviar comandos a ese puerto
Algunos proyectos incluso permiten CORS, lo que es aún más peligroso
También estoy revisando el código de Apfel antes de probarlo
Sigue siendo una opción footgun, pero aun así parece de lo más seguro que he visto hasta ahora
Por eso me pregunto cuál sería exactamente el modelo de amenaza real
Incluso ingenieros experimentados pasan por alto este vector de ataque
Por un bug reciente de Claude, los tokens se me estaban consumiendo demasiado rápido, así que probé otros modelos
La mayoría estaban en un nivel prácticamente intercambiable
Me intriga cómo va a evolucionar un mercado con tan poca lealtad de marca y costos de cambio tan bajos
Ojalá que los LLM locales se conviertan pronto en una alternativa práctica
Por eso parece que OpenAI y Meta intentan diferenciarse con una estrategia de conexión emocional (chatbots tipo amigo o pareja)
Lo vi en otro hilo y lo instalé de inmediato
Usé como prompt de prueba para LLM: “¿las 9:30am de Taiwán a qué hora equivalen en la hora del Pacífico de EE. UU.?”,
y todos los resultados fueron distintos y todos estaban mal
Al ejecutarlo con Apfel CLI, cada modelo calculó por su cuenta una diferencia de 11 a 13 horas
Lo vengo usando desde principios de esta semana
Comparé una herramienta de backtesting para predicción de precios que corría en la nube con un modelo local,
y el modelo de Apple fue el más preciso en 6 de 10 intentos
La velocidad también es lo suficientemente buena como para reemplazar todo el flujo de trabajo
Usando Sonnet gastaría miles de dólares al mes, con DeepSeek cientos, pero en local es casi gratis
Eso sí, a otros modelos locales les faltaba velocidad o precisión
La frase “Apfel desbloquea lo que Apple tenía encerrado detrás de Siri” suena a marketing exagerado
En realidad, lo que hace es exponer el framework FoundationModels de Apple Intelligence mediante CLI y REST API
Además, la afirmación de que “corre en el Neural Engine” tampoco es segura
En mis pruebas funcionó sobre la GPU (Metal)
Soy usuario de Linux y quería algo similar, así que hice mi propio proyecto llamado TalkType
Ejecuta Whisper en local para hacer reconocimiento de voz offline
No quería enviar mi voz a un servidor, así que desde el principio opté por un enfoque local
Me alegra ver que esta idea también se está extendiendo en Mac
Gracias por publicarlo como código abierto
En macOS 15 se instala, pero se detiene al ejecutarse,
así que envié un PR para que solo se pueda instalar en macOS 26 (Tahoe) o superior
Quiero crear un motor alternativo a Grammarly que subraye errores gramaticales en todas las apps y navegadores
Sería una herramienta totalmente centrada en la privacidad, sin necesidad siquiera de un LLM
Si alguien lo hace, definitivamente quiero probarlo