DeepClaude: usar el bucle de agentes de Claude Code con DeepSeek V4 Pro por 17 veces menos costo
(github.com/aattaran)- DeepClaude mantiene el bucle de herramientas, la edición de archivos, bash y el flujo de git de Claude Code CLI, pero cambia únicamente el destino de las llamadas API a backends compatibles con DeepSeek V4 Pro, OpenRouter, Fireworks AI y Anthropic
- Claude Code tiene una tarifa mensual de $200 y límites de uso, pero DeepSeek V4 Pro presume una puntuación de 96.4% en LiveCodeBench y un precio de $0.87/M por token de salida
- Funcionan la lectura, escritura y edición de archivos, la ejecución de Bash/PowerShell, las búsquedas con Glob/Grep, los bucles autónomos de herramientas de varios pasos, la creación de subagentes, las tareas de git,
/inity el thinking mode activado por defecto - El backend predeterminado es DeepSeek; OpenRouter se ofrece con servidores en EE. UU. y baja latencia, Fireworks AI con inferencia rápida, y Anthropic como opción para usar Claude Opus en problemas difíciles
- Los precios por backend se presentan así: DeepSeek y OpenRouter con $0.44/M de entrada y $0.87/M de salida, Fireworks AI con $1.74/M de entrada y $3.48/M de salida, y Anthropic con $3.00/M de entrada y $15.00/M de salida
- DeepClaude configura por sesión
ANTHROPIC_BASE_URL,ANTHROPIC_AUTH_TOKEN,ANTHROPIC_DEFAULT_OPUS_MODEL,ANTHROPIC_DEFAULT_SONNET_MODEL,ANTHROPIC_DEFAULT_HAIKU_MODELyCLAUDE_CODE_SUBAGENT_MODEL, y restaura la configuración original al terminar - El caché automático de contexto de DeepSeek guarda el prompt del sistema y el contexto de archivos después de la primera solicitud por $0.004/M, lo que reduce el costo del bucle de agentes en turnos repetidos
- La comparación de uso plantea que, frente a Anthropic Max de $200/mes, DeepClaude cuesta alrededor de $20/mes con uso ligero, $50/mes con uso intensivo y $80/mes incluyendo bucles automáticos
- También hay limitaciones claras: el endpoint Anthropic de DeepSeek no admite entrada de imágenes, Claude Code envía las herramientas secuencialmente por defecto, las herramientas de MCP server no son compatibles a través de la capa de compatibilidad, y
cache_controlde Anthropic se ignora - Soporta live switching para cambiar de backend durante la sesión sin reiniciar, y el proxy en
localhost:3200envía/v1/messagesal backend activo y ofrece los endpoints de control/_proxy/mode,/_proxy/statusy/_proxy/cost - Dentro de Claude Code se pueden usar comandos slash como
/deepseek,/anthropicy/openrouter, o cambiar de backend condeepclaude --switch ds; el proxy también calcula el uso de tokens y el ahorro frente a Anthropic - Puede ejecutarse como perfil de terminal en VS Code/Cursor, y
--remoteabre una sesión de Claude Code en el navegador, pero el puente WebSocket usa Anthropic mientras que las llamadas API del modelo se envían a DeepSeek u otros mediante el proxy local - Para el control remoto se requieren
claude auth login, una suscripción a claude.ai y Node.js 18+ para el proxy; la licencia del proyecto es MIT
1 comentarios
Opiniones de Hacker News
Hacer correr Claude Code con la API de DeepSeek es básicamente posible con un wrapper de shell que solo define unas cuantas variables de entorno
Basta con configurar
ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic,ANTHROPIC_AUTH_TOKEN,ANTHROPIC_MODELy ejecutarclaude $@Eso sí, parece que la API de DeepSeek no permite excluir los datos del entrenamiento, y probablemente mejore cuando aparezca en otros proveedores. OpenRouter por ahora parece estar solo haciendo proxy hacia DeepSeek
Pero en el README, que parece escrito por un LLM, esas funciones quedan demasiado enterradas, y viendo el historial, da la impresión de que se añadieron después y nunca reorganizaron la estructura del README
El autor incluso dejó en un commit un plan de promoción en redes sociales que parece efectivo: https://github.com/aattaran/deepclaude/commit/a90a399682defc...
Solo hay que ejecutar algo como
aivo claude -m deepseek-v4-proNo me queda claro qué significa esto. DeepSeek ya explica cómo usar su API desde varios CLI, incluido Claude Code
https://api-docs.deepseek.com/quick_start/agent_integrations...
Parece que el LLM que escribió el README nunca actualizó la descripción general del proyecto para destacar esas funciones
También quedó committeado el plan de promoción del autor: https://github.com/aattaran/deepclaude/commit/a90a399682defc...
Si estás buscando una alternativa a Claude Code, recomendaría revisar primero pi.dev u opencode como framework de ejecución
En cuanto a modelos, OpenCode Go parece ser el más eficiente en costo en este momento, y también puedes conectarlo directo a OpenRouter o DeepSeek. Personalmente, creo que sería mejor irse por Kimi y pagar la suscripción de kimi.com
En mi proyecto personal mouse.dev estoy combinando partes de OpenCode, Claude Code y Hermes para crear una arquitectura de agentes en la nube que funcione bien también en móvil
Resultó que un bot simplemente estaba cerrando automáticamente todos los issues. De verdad no tengo palabras
Incluso si el precio es de aproximadamente 1 dólar por millón de tokens, es sorprendentemente fácil consumir 200 dólares en tokens
Por más que lo calcule, un plan de codificación sale mejor en costo-beneficio
Si te basta con un rendimiento tipo Sonnet, esto sí suena como una mejora clara
Pero Sonnet comete demasiados errores, así que optimizar costos con un modelo de ese nivel al final no me parece de mucho valor. Aun así, está bueno tener opciones
Si separas diseño con Opus e implementación con DeepSeek, probablemente puedas reducir bastante los costos. Yo personalmente evitaría Anthropic por completo, pero entiendo por qué lo usan
No veo muchas razones para que una empresa o un empleado no use el mejor modelo disponible ahora mismo y el nivel de razonamiento más alto, o el segundo más alto. No es barato, pero tampoco es tan caro
Para crear una buena arquitectura hay que leer muchas especificaciones, código y demás, así que entran y salen muchos tokens; con depuración pasa igual si incluyes logs o hasta Datadog
Una vez que ya encontraste la dirección correcta, los parches son menores, y salvo que estés haciendo refactors o limpieza, lo que ahorras con un modelo barato también es poco
Las pruebas cada vez se vuelven más complejas. Solo viendo opencode go ya aparecen GLM-5.1, GLM-5, Kimi K2.5, Kimi K2.6, MiMo-V2-Pro, MiMo-V2-Omni, MiMo-V2.5-Pro, MiMo-V2.5, Qwen3.5 Plus, Qwen3.6 Plus, MiniMax M2.5, MiniMax M2.7, DeepSeek V4 Pro y DeepSeek V4 Flash
Ahora además hay que correr estos modelos a gran escala y con bugs encima, y no sé si se me está escapando algo. Me pregunto cuál es el uso real de los modelos más baratos
Claude.mdsólido, revisas periódicamente las salidas y haces cumplir buenas prácticas de código con gates básicos de CI, casi nunca hace falta cambiar a OpusDa la impresión de que esto fue un one-shot con IA para algo que normalmente sería solo configurar dos variables de entorno
Me pregunto si Claude Code realmente es el mejor framework de ejecución para programación. ¿Hay algún lugar que haga evaluaciones sobre eso?
En cambio, Claude Code es la herramienta más subsidiada tanto por la suscripción de consumo Max como por el descuento de tokens empresarial. También está fuertemente optimizada para reducir costos con cosas como caché de tokens y menos razonamiento, y eso se paga con menor calidad
Después de probar DeepSeek V4 en varios CLI, Langcli fue el que mejor me encajó. En tareas de programación, la tasa de acierto de caché supera el 95%
Dentro del mismo contexto puedes alternar de forma dinámica y fluida entre DeepSeek V4 Flash, V4 Pro y otros modelos principales, y además es 100% compatible con Claude Code
Me pasé media jornada haciendo que CUDA y LLAMA corrieran en una 5070TI
Pude probarlo con el modo agente de Roo y logré que escribiera un plan antes de detenerse, pero pienso seguir cuando tenga más tiempo
Como DeepSeek puede autoalojarse si tienes suficiente dinero, parece menos probable que lo retiren de golpe, pero aun así me entusiasma más una solución local
Normalmente lo que se necesita es trabajo mecánico simple, no resolver problemas difíciles
Definitivamente se siente como algo coescrito con vibe coding, y además el precio no cuadra