33 puntos por GN⁺ 26 일 전 | 5 comentarios | Compartir por WhatsApp
  • Proyecto de código abierto que permite usar directamente el LLM on-device de Apple incluido en Macs Apple Silicon con macOS 26 o superior
  • Abre el modelo basado en FoundationModels.framework como CLI, servidor HTTP y chat interactivo, con compatibilidad con la API de OpenAI
  • Todo el procesamiento se realiza localmente, con costo cero, sin riesgo de fuga de datos, y ofrece contexto de 4096 tokens y soporte multilingüe
  • Incluye varias herramientas auxiliares como cmd, oneliner, explain y gitsum para resumir código/comandos y automatizar tareas
  • Abre por completo el modelo Apple Intelligence ya presente en macOS, permitiendo que los desarrolladores ejecuten IA de forma independiente en su propio hardware

Resumen de apfel

  • apfel es una herramienta que permite usar directamente el LLM on-device de Apple integrado en Macs con Apple Silicon con macOS 26 (Tahoe) o superior
  • Abre el modelo de lenguaje basado en FoundationModels.framework, que Apple limitaba a Siri y funciones del sistema, en formato de CLI, servidor HTTP y chat interactivo
  • Ofrece ejecución 100% on-device, costo cero y compatibilidad con la API de OpenAI
  • Se puede instalar con Homebrew y se distribuye como código abierto bajo licencia MIT

Características principales

  • Uso de IA on-device: utiliza tal cual el LLM incluido en macOS, sin llamadas de red ni necesidad de API keys
  • Seguridad: todos los tokens se procesan localmente y los datos no se envían al exterior
  • Especificaciones de rendimiento

    • Aproximadamente 3 mil millones de parámetros
    • Ventana de contexto de 4096 tokens
    • Cuantización de precisión mixta de 2/4 bits

      • Ejecución basada en Neural Engine
      • Soporta inglés, alemán, español, francés, italiano, japonés, coreano, portugués y chino

Formas de uso

  • Herramienta CLI

    • Herramienta de línea de comandos estilo UNIX con soporte para stdin/stdout, salida JSON, adjuntos de archivos y códigos de salida correctos
    • Se puede combinar con jq, xargs y scripts de shell
    • Ejemplo:
      $ apfel "What is the capital of Austria?"  
      The capital of Austria is Vienna.  
      
  • Servidor compatible con OpenAI

    • Funciona en localhost:11434 como servidor sustituto de la API de OpenAI
    • Soporta Streaming (SSE), Tool Calling, CORS y response_format: json_object, entre otros
    • Puede usarse con el mismo código cambiando solo base_url en el SDK de OpenAI
    • Ejemplo:
      client = OpenAI(base_url="http://localhost:11434/v1";, api_key="unused")  
      
  • Chat interactivo

    • Soporta conversaciones de varios turnos, gestión automática de contexto, system prompt y 5 estrategias de recorte
    • Ejemplo:
      $ apfel --chat -s "You are a coding assistant"  
      > How do I reverse a list in Python?  
      

Estructura interna

  • Accede directamente al LLM integrado de Apple mediante FoundationModels.framework
  • Mientras Apple usaba el modelo solo en Siri, Writing Tools y otras funciones, apfel envuelve LanguageModelSession con un binario Swift 6.3 para ofrecer una interfaz de acceso directo
  • Incluye un servidor HTTP basado en Hummingbird
  • Para compensar el límite de 4096 tokens, incorpora 5 estrategias de recorte de contexto y conteo preciso de tokens
  • Convierte el OpenAI Tool Schema al formato Transcript.ToolDefinition de Apple

Herramientas auxiliares incluidas

  • cmd

    • Convierte lenguaje natural en comandos de shell
    • Ej.: "find all .log files modified today" → salida de un comando real
  • oneliner

    • Genera pipelines de awk, sed, sort, uniq y más a partir de lenguaje natural
  • mac-narrator

    • Describe en forma de narración la actividad del sistema en Mac
  • explain

    • Explica en texto plano comandos o fragmentos de código
  • wtd

    • Resume y describe el codebase del directorio actual
  • gitsum

    • Genera un resumen de commits recientes de git

Compatibilidad total con la API de OpenAI

  • Soporta endpoints principales como /v1/chat/completions y /v1/models
  • Permite usar parámetros como temperature, max_tokens y seed
  • Incluye soporte de CORS para clientes de navegador
  • Puede integrarse de la misma manera con OpenAI SDK, LangChain, LlamaIndex y otros

Popularidad en GitHub y distribución

  • Registra 1,030 estrellas y 27 forks
  • Sumó 818 estrellas en un solo día, el 3 de abril de 2026
  • Ingenieros de Apple, Google, VMware, NVIDIA y Grafana le dieron estrella
  • Comando de instalación:
    $ brew install Arthur-Ficial/tap/apfel  
    $ apfel "Hello, Mac!"  
    
  • Para compilar desde el código fuente se requiere el SDK de macOS 26.4

Proyectos de expansión

  • apfel-gui

    • GUI para macOS basada en SwiftUI

      • Ofrecerá chat con Apple Intelligence, registro de solicitudes/respuestas y entrada/salida por voz
      • Próximo lanzamiento
  • apfel-clip

    • Herramienta de acciones de IA basada en el portapapeles

      • Permitirá ejecutar con un clic desde la barra de menú funciones como corrección gramatical, traducción, explicación de código y resúmenes
      • En desarrollo

Resumen técnico

  • Hardware: Apple Silicon (Neural Engine + GPU)
  • Modelo: LLM de Apple integrado en macOS
  • SDK: FoundationModels.framework
  • Lenguaje: Swift 6.3, no requiere Xcode
  • Licencia: MIT
  • Ventana de tokens: 4096 (entrada + salida combinadas)
  • Cantidad de modelos: 1 fijo

Valor principal

  • Abre por completo el modelo Apple Intelligence ya existente en macOS
  • Ofrece un entorno de IA local sin costo, para que desarrolladores y usuarios ejecuten IA directamente en su propio hardware
  • Una interfaz de IA de código abierto exclusiva para Mac que reúne seguridad, velocidad e independencia

5 comentarios

 
xguru 26 일 전

Parece que va a estar interesante, pero por alguna razón el coreano no funciona bien. Estoy bajando el código fuente y revisándolo junto con Codex, y la respuesta del modelo Foundation en sí se ve rara del lado del coreano. Voy a seguir probando un poco más, pero si alguien lo logró, avise en los comentarios jaja

 
xguru 26 일 전

apfel "Dime la receta de Currywurst"
error: [guardrail] The request was blocked by Apple's safety guardrails. Try rephrasing.

Pensé: ¿eh, no se puede? Pero esto sí funciona.

apfel "Dime la receta de kimchi jjigae"
El kimchi jjigae es uno de los guisos tradicionales de Corea, un platillo simple pero con un sabor profundo. Abajo está la receta del kimchi jjigae:...

apfel "Hola. ¿Me puedes contar sobre el kimchi jjigae?"
¡Hola! El kimchi jjigae es uno de los platillos caldosos más representativos de Corea y se prepara con kimchi y carne. Normalmente se le agrega cerdo, res o pollo para hervir un caldo profundo donde se combinan varios sabores. Además, se le suman distintas verduras y condimentos para intensificar el sabor.

apfel "Hola, ¿puedes hablar coreano?" o apfel "¿Me puedes contar sobre la capital de Austria?"
Ante preguntas así, responde con un mensaje repetitivo como el siguiente:
Puedes obtener más información sobre las funciones inteligentes en el sitio web de Apple.

Parece que algo raro está pasando con cómo están configurados los guardrails.

 
xguru 26 일 전

Hice que Codex lo corrigiera con base en esta conversación, y con unos pequeños ajustes funciona bien.

"Sigue exactamente lo que pide la pregunta, pero si no se especifica lo contrario, responde directamente en coreano."

Si pones un adaptador y, cuando sale una respuesta de ese tipo de función inteligente, agregas además el prompt de arriba, responde bien. Parece que todavía está algo incompleto.

apfel "Hola, ¿puedes hablar coreano?" ¡Hola! Sí, también puedo hablar coreano. ¿En qué puedo ayudarte?

apfel "¿Podrías contarme sobre la capital de Austria?" La capital de Austria es Viena. Viena es conocida como el centro político, cultural y económico de Austria.

 
ilotoki0804 25 일 전

Al principio, hasta no probarlo, tenía dudas sobre qué ventajas podría tener frente a otras herramientas como ollama que permiten ejecutar otros LLM locales, pero al usarlo directamente vi que tiene bastantes alucinaciones y es algo tonto.
Sin embargo, mientras que otras herramientas de LLM locales son potentes porque aprovechan la GPU pero consumen muchos recursos, en el caso de este modelo parece tener la ventaja de consumir relativamente menos recursos y usar bien el Neural Engine, por lo que también gasta menos energía.
Tengo entendido que el concepto de Apple Intelligence es ejecutar una IA ligera en distintos dispositivos, incluidos los móviles, y en ese sentido creo que encaja bastante bien con esa idea.
Aun así, por más que sea un modelo liviano, siento que su rendimiento debería ser mejor que esto para que se pueda usar de forma хотя sea un poco más útil. Ahora mismo es demasiado tonto.

 
GN⁺ 26 일 전
Opiniones en Hacker News
  • Me gusta el enfoque de ejecutar todo en local
    Creo que la importancia de los modelos locales va a crecer cada vez más desde la perspectiva de la privacidad
    A medida que aumenten los casos en que la gente entrega demasiado contexto a modelos en la nube y eso cause incidentes, la necesidad de ejecutar en local solo se va a reforzar

    • Esto es solo media solución
      Si el modelo se entrena de forma cerrada, puede incorporar valores que el usuario no desea
      Por ejemplo, si le preguntas a un modelo abierto chino sobre Tiananmén, te da una respuesta censurada
      Por eso, la solución real es combinar entrenamiento abierto verificable con ejecución local
    • Desde otra perspectiva, también hay problemas al enviar contenido no confiable a un servicio de IA
      Al tratar con datos externos, como rastreo web o detección de spam, existe el riesgo de una violación de los ToS o incluso de ser reportado por error a las autoridades
    • Me pregunto si existe algún servicio de inferencia cifrada (encrypted inferencing)
      Cuando tengo conversaciones cotidianas con un modelo, no quiero enviar ese contenido en texto plano al servidor
      Por eso prefiero la ejecución local
    • En la comunidad de HN estas discusiones son activas, pero los usuarios generales no muestran mucho interés por la privacidad
    • Lo local es lo mejor para la privacidad, pero no necesariamente es la única respuesta
      Anthropic, Google y OpenAI, entre otros, han renunciado a la privacidad en sus planes de IA para consumidores
      Las razones son la recolección de datos y la moderación
      Pero usando tecnologías de garantía criptográfica (cryptographic attestation) como AWS Nitro Enclaves, en la nube también se puede proteger suficientemente la información personal
  • La clave es si Apple podrá seguir distribuyendo modelos nuevos de forma constante
    El modelo actual está al nivel de Qwen-3-4B y es de hace un año
    Si ves la página de investigación de Apple Foundation Models, la brecha frente a Qwen-3.5-4B o Gemma 4 es grande
    Está bien que se pueda usar de inmediato sin descargar nada, pero quiero usar modelos más recientes

    • En realidad solo es un tema de descargar archivos, así que no hay una razón por la que Apple no pueda hacerlo
      Pero Apple no es una empresa que se mueva rápido, y es probable que deje las funciones de IA en áreas limitadas (retoque de fotos, preguntas a Siri, etc.)
      Personalmente, incluso sin activar Apple Intelligence, ya hay muchas funciones útiles
  • He visto proyectos que exponen los modelos de Apple en forma de servidor de red
    El problema es que esos servidores también pueden ser accesibles desde otras apps, como el navegador, a través de un puerto local
    El JavaScript de una página web maliciosa podría enviar comandos a ese puerto
    Algunos proyectos incluso permiten CORS, lo que es aún más peligroso
    También estoy revisando el código de Apfel antes de probarlo

    • Por suerte, la configuración predeterminada está en false
      Sigue siendo una opción footgun, pero aun así parece de lo más seguro que he visto hasta ahora
    • La mayoría de los navegadores bloquearían solicitudes POST a 127.0.0.1 desde un sitio web cualquiera
      Por eso me pregunto cuál sería exactamente el modelo de amenaza real
    • Veo este tipo de errores de seguridad con frecuencia en proyectos de IA o MCP
      Incluso ingenieros experimentados pasan por alto este vector de ataque
    • También confirmé que existe una opción de autenticación con token Bearer
  • Por un bug reciente de Claude, los tokens se me estaban consumiendo demasiado rápido, así que probé otros modelos
    La mayoría estaban en un nivel prácticamente intercambiable
    Me intriga cómo va a evolucionar un mercado con tan poca lealtad de marca y costos de cambio tan bajos
    Ojalá que los LLM locales se conviertan pronto en una alternativa práctica

    • En realidad casi no hay diferenciación entre modelos
      Por eso parece que OpenAI y Meta intentan diferenciarse con una estrategia de conexión emocional (chatbots tipo amigo o pareja)
  • Lo vi en otro hilo y lo instalé de inmediato
    Usé como prompt de prueba para LLM: “¿las 9:30am de Taiwán a qué hora equivalen en la hora del Pacífico de EE. UU.?”,
    y todos los resultados fueron distintos y todos estaban mal
    Al ejecutarlo con Apfel CLI, cada modelo calculó por su cuenta una diferencia de 11 a 13 horas

  • Lo vengo usando desde principios de esta semana
    Comparé una herramienta de backtesting para predicción de precios que corría en la nube con un modelo local,
    y el modelo de Apple fue el más preciso en 6 de 10 intentos
    La velocidad también es lo suficientemente buena como para reemplazar todo el flujo de trabajo
    Usando Sonnet gastaría miles de dólares al mes, con DeepSeek cientos, pero en local es casi gratis
    Eso sí, a otros modelos locales les faltaba velocidad o precisión

  • La frase “Apfel desbloquea lo que Apple tenía encerrado detrás de Siri” suena a marketing exagerado
    En realidad, lo que hace es exponer el framework FoundationModels de Apple Intelligence mediante CLI y REST API
    Además, la afirmación de que “corre en el Neural Engine” tampoco es segura
    En mis pruebas funcionó sobre la GPU (Metal)

  • Soy usuario de Linux y quería algo similar, así que hice mi propio proyecto llamado TalkType
    Ejecuta Whisper en local para hacer reconocimiento de voz offline
    No quería enviar mi voz a un servidor, así que desde el principio opté por un enfoque local
    Me alegra ver que esta idea también se está extendiendo en Mac

  • Gracias por publicarlo como código abierto
    En macOS 15 se instala, pero se detiene al ejecutarse,
    así que envié un PR para que solo se pueda instalar en macOS 26 (Tahoe) o superior

  • Quiero crear un motor alternativo a Grammarly que subraye errores gramaticales en todas las apps y navegadores
    Sería una herramienta totalmente centrada en la privacidad, sin necesidad siquiera de un LLM

    • Es una muy buena idea
      Si alguien lo hace, definitivamente quiero probarlo