Guía de Llama.cpp: cómo ejecutar LLMs localmente desde cero en cualquier hardware (steelph0enix.github.io) 2 puntos por GN⁺ 2024-11-30 | 1 comentarios | Compartir por WhatsApp Lecturas relacionadas Cómo ejecutar LLM localmente 27 puntos · 0 comentarios · 2024-12-30 ntransformer - motor de inferencia NVMe-a-GPU para ejecutar Llama 3.1 70B en una sola RTX 3090 15 puntos · 1 comentarios · 2026-02-23 Ask HN: ¿Cuál es el mejor LLM que se puede usar en hardware de consumo? 13 puntos · 1 comentarios · 2025-06-01 1 comentarios GN⁺ 2024-11-30 Comentarios de Hacker News Es positivo que aumente la cantidad de blogs, pero la forma de compilar llama.cpp se siente compleja Con el comando ccmake . se pueden configurar parámetros según el hardware y compilar Se comparte la experiencia de haber ejecutado Llama.cpp con éxito en una laptop Dell antigua Funcionó incluso con especificaciones mínimas, y aunque era lento, daba respuestas precisas Le gustaría probar ejecutar modelos más grandes en un hardware mejor Quería instalar Llama.cpp, pero terminó instalando kobold.cpp porque la UX es mejor Se comparte la experiencia de intentar compilar en Windows y AMD Vulkan y MSYS2 fueron lo más fácil de poner en marcha Pregunta sobre las limitaciones de los LLM que soporta Llama.cpp Tiene curiosidad por saber si solo soporta ciertos modelos transformer Se comparte la experiencia de haberse cambiado a Ollama La configuración de servidor y cliente de Ollama funciona de forma sencilla Se enfatiza que Ollama no es solo un wrapper simple de llama.cpp Ollama ofrece varias funciones para la interfaz y el empaquetado de modelos Pregunta por qué usar Llama.cpp en lugar de la interfaz web de ChatGPT Tiene curiosidad por saber si la privacidad es la razón principal Usa ChatGPT y Claude todos los días, pero no encuentra motivos para usar un LLM fuera de otros servicios Discusión sobre Ollama y ejecutar llama.cpp directamente Configurar CUDA no siempre es fácil, y la inferencia local puede ser más rápida Ejecutarlo con PyTorch es más fácil, y los modelos AWQ se pueden instalar fácilmente
1 comentarios
Comentarios de Hacker News
Es positivo que aumente la cantidad de blogs, pero la forma de compilar llama.cpp se siente compleja
ccmake .se pueden configurar parámetros según el hardware y compilarSe comparte la experiencia de haber ejecutado Llama.cpp con éxito en una laptop Dell antigua
Quería instalar Llama.cpp, pero terminó instalando kobold.cpp porque la UX es mejor
Se comparte la experiencia de intentar compilar en Windows y AMD
Pregunta sobre las limitaciones de los LLM que soporta Llama.cpp
Se comparte la experiencia de haberse cambiado a Ollama
Se enfatiza que Ollama no es solo un wrapper simple de llama.cpp
Pregunta por qué usar Llama.cpp en lugar de la interfaz web de ChatGPT
Usa ChatGPT y Claude todos los días, pero no encuentra motivos para usar un LLM fuera de otros servicios
Discusión sobre Ollama y ejecutar llama.cpp directamente