- Usa la librería MLX para ejecutarlo directamente en Mac y servir localmente el potente y más reciente modelo Qwen3-30B-A3B-8bit
- Conéctalo en Localforge con el formato de API de OpenAI para crear un bucle de agente
- Agrega un modelo auxiliar basado en ollama (Gemma3) para separar el rol de apoyo del agente y permitir un uso más eficiente de las herramientas
- Después de configurar el agente en la UI de Localforge, puede ejecutar la "herramienta LS", crear sitios web e incluso ejecutar automáticamente un juego de Snake
- Todo este proceso es gratuito y puede funcionar de forma completamente autónoma en local; si usas Mac, es un proyecto que vale la pena probar
Ejecutar Qwen3 localmente en Mac
Configuración de Localforge
- Sitio oficial: https://localforge.dev
- Después de instalarlo, en la configuración se necesita lo siguiente:
-
Agregar proveedores
- a) Proveedor Ollama (modelo auxiliar)
- Nombre: LocalOllama
- Tipo: ollama
- Instalación requerida: modelo
gemma3:latest (adecuado para procesamiento simple de lenguaje)
-
b) Proveedor Qwen3 (modelo principal)
-
Crear agente
- Nombre: qwen3-agent
- Modelo principal: qwen3:mlx:30b (nombre del modelo:
mlx-community/Qwen3-30B-A3B-8bit)
- Modelo auxiliar: LocalOllama (nombre del modelo:
gemma3:latest)
Conclusión
- En Mac, es posible ejecutar gratis un modelo grande en local y hacer programación automática basada en agentes
- También se pueden lograr resultados más refinados ajustando la selección del modelo o el system prompt
- Localforge + MLX + Qwen3 es una combinación muy útil para experimentos personales con LLM
3 comentarios
¿En local, 30b es bastante excelente, no? Qwen2.5-Coder no me convenció mucho, pero sí parece que vale la pena probarlo.
Qwen3 - El modelo de lenguaje de próxima generación que piensa más a fondo y actúa más rápido
Comentarios de Hacker News
Estoy usando el modelo Qwen3-30B-A3B localmente y me ha impresionado mucho. Parece que podría ser una alternativa para quienes estaban esperando GPT-4. Estoy obteniendo 70 tok/s en una M3 Max, así que es muy cómodo de usar
Ejecutar qwen3 y hacer una llamada a la herramienta
lsno es "vibe coding". Esto parece más bien publicidad de LocalForgeQuiero elogiar a MLX y MLX-LM. Los estoy usando para ajustar finamente modelos Gemma 3 de forma local, y las librerías y herramientas hechas por desarrolladores de Apple están bien armadas
Por accidente hice que Qwen3 entrara en un bucle con un prompt simple
¿Alguien conoce una configuración donde un LLM local pueda colaborar en tareas con MCP, comprimir contexto o cooperar con un agente en la nube?
Quiero compartir un tutorial rápido para ejecutar un agente autónomo real en local y hacer tareas simples
Me alegra haber descubierto LocalForge. Tengo una pregunta sobre LocalForge. ¿Se pueden combinar dos agentes para pasar una imagen a un agente multimodal para que entregue html/css, y que otro agente escriba el resto del código?
Muy impresionante. No necesita ser tan bueno como los modelos de tokens de pago
Se ve bien. Estaba buscando un IDE con asistencia de IA con enfoque local-first para trabajar con Gemma 3 27B de Google
Ejecutar modelos de forma local se está volviendo interesante. En particular, la versión 30B-A3B parece una dirección prometedora. Con 16 GB de VRAM todavía no está al alcance, pero sí bastante cerca