GGML y llama.cpp se unen a Hugging Face
(huggingface.co)Se conoció la noticia de que Hugging Face incorporó a Georgi Gerganov, desarrollador clave de llama.cpp y del motor GGML.
Puntos principales: con llama.cpp (el motor de facto estándar para ejecutar LLM localmente) y la tecnología basada en GGML pasando a formar parte de Hugging Face, se integran en una sola organización dos pilares del ecosistema abierto de IA local.
llama.cpp seguirá siendo 100% open source y mantendrá su enfoque en el rendimiento.
Cambios esperados:
- soporte y conversión automática de modelos en formato GGUF casi con un clic desde la librería transformers
- posibilidad de ejecutar nuevos modelos localmente con alto rendimiento de inmediato, sin optimizaciones manuales
- una clara mejora en las herramientas de IA local y en la experiencia de los usuarios
Significado: se fortalece aún más la infraestructura para que personas y empresas puedan ejecutar libremente LLM de alta calidad en local, sin depender de servidores centrales.
Aún no hay comentarios.