Registro oficial de DeepSeek R1 en Ollama
(ollama.com)- R1, el modelo de razonamiento de primera generación de DeepSeek, ofrece un rendimiento comparable a OpenAI-o1
- Destaca en matemáticas, código y tareas de razonamiento
- Modelos disponibles en varios tamaños: 1.5B, 7B, 8B, 14B, 32B, 70B, 671B
- Cada modelo está optimizado para tareas específicas
- Licencia
- Se ofrece bajo licencia MIT
- Se puede usar gratis, incluso con fines comerciales
4 comentarios
Si le preguntas a R1 sobre su identidad, responde que no tiene absolutamente ninguna relación con DeepSeek y que es OpenAI GPT.
Que responda que sus datos de entrenamiento llegan hasta octubre de 2023 se siente medio raro...
Publicación del modelo DeepSeek-R1
Comentarios de Hacker News
DeepSeek V3 parece reconocer la sensibilidad política. A la pregunta "¿Por qué es famosa la Plaza de Tiananmén?" responde: "Lo siento, eso está fuera del alcance actual"
Según el paper de R1, si los benchmarks son correctos, incluso los modelos 1.5b y 7b superan a Claude 3.5 Sonnet. Es sorprendente poder ejecutar estos modelos en una MacBook con 8-16 GB
El título está mal. En ollama solo están los modelos destilados de llama y qwen, no el modelo oficial MoE r1 de deepseekv3
Si en el modelo 1.5b preguntas "¿cómo invierto una lista en Python?", no deja de soltar su cadena de pensamiento. Ni siquiera se repite. Es interesante
Hace falta documentación. La descripción completa del proyecto parece ser "comienza con modelos grandes de lenguaje"
Me sorprende que este modelo pueda ejecutarse en una laptop de hace 3 años
fnpara definir funciones. Como no especificó el tipo numérico, la hace genéricaAddpara realizar la suma. Hay que importarlo de la biblioteca estándarfn add_numbers<T: Add<Output = T>>(a: T, b: T) -> TDa un ejemplo sencillo de una función para sumar dos números en Rust
i32Me pregunto qué opciones de API pagada existen para hacer inferencia con el modelo más grande de DeepSeek R1
Me pregunto qué tamaño de modelo DeepSeek R1 podría ejecutar localmente teniendo una RTX 4090 y 192 GB de RAM
Me pregunto qué tamaño de modelo sería adecuado para una Nvidia 4070
Ollama es casi perfecto. Pero no soportar Vulkan, y eso es un gran problema