- Ollama Turbo es una nueva solución que permite ejecutar modelos de gran escala de código abierto rápidamente en hardware de centros de datos de alto rendimiento (US$20 al mes)
- Ollama permite usar su app, CLI, API y las librerías de JavaScript/Python sin cambios, y operar modelos grandes de forma rápida y eficiente
- Actualmente está en vista previa y soporta los modelos abiertos de OpenAI gpt-oss-20b y gpt-oss-120b
- Al usar el modo Turbo, el historial de consultas no se guarda en el servidor ni se deja en logs
- El hardware se opera solo en centros de datos de Estados Unidos, con límites de uso por hora y día, y pronto se implementará un sistema de facturación por consumo
Aún no hay comentarios.