1 puntos por GN⁺ 2 시간 전 | 1 comentarios | Compartir por WhatsApp
  • DeepClaude mantiene el bucle de herramientas, la edición de archivos, bash y el flujo de git de Claude Code CLI, pero cambia únicamente el destino de las llamadas API a backends compatibles con DeepSeek V4 Pro, OpenRouter, Fireworks AI y Anthropic
  • Claude Code tiene una tarifa mensual de $200 y límites de uso, pero DeepSeek V4 Pro presume una puntuación de 96.4% en LiveCodeBench y un precio de $0.87/M por token de salida
  • Funcionan la lectura, escritura y edición de archivos, la ejecución de Bash/PowerShell, las búsquedas con Glob/Grep, los bucles autónomos de herramientas de varios pasos, la creación de subagentes, las tareas de git, /init y el thinking mode activado por defecto
  • El backend predeterminado es DeepSeek; OpenRouter se ofrece con servidores en EE. UU. y baja latencia, Fireworks AI con inferencia rápida, y Anthropic como opción para usar Claude Opus en problemas difíciles
  • Los precios por backend se presentan así: DeepSeek y OpenRouter con $0.44/M de entrada y $0.87/M de salida, Fireworks AI con $1.74/M de entrada y $3.48/M de salida, y Anthropic con $3.00/M de entrada y $15.00/M de salida
  • DeepClaude configura por sesión ANTHROPIC_BASE_URL, ANTHROPIC_AUTH_TOKEN, ANTHROPIC_DEFAULT_OPUS_MODEL, ANTHROPIC_DEFAULT_SONNET_MODEL, ANTHROPIC_DEFAULT_HAIKU_MODEL y CLAUDE_CODE_SUBAGENT_MODEL, y restaura la configuración original al terminar
  • El caché automático de contexto de DeepSeek guarda el prompt del sistema y el contexto de archivos después de la primera solicitud por $0.004/M, lo que reduce el costo del bucle de agentes en turnos repetidos
  • La comparación de uso plantea que, frente a Anthropic Max de $200/mes, DeepClaude cuesta alrededor de $20/mes con uso ligero, $50/mes con uso intensivo y $80/mes incluyendo bucles automáticos
  • También hay limitaciones claras: el endpoint Anthropic de DeepSeek no admite entrada de imágenes, Claude Code envía las herramientas secuencialmente por defecto, las herramientas de MCP server no son compatibles a través de la capa de compatibilidad, y cache_control de Anthropic se ignora
  • Soporta live switching para cambiar de backend durante la sesión sin reiniciar, y el proxy en localhost:3200 envía /v1/messages al backend activo y ofrece los endpoints de control /_proxy/mode, /_proxy/status y /_proxy/cost
  • Dentro de Claude Code se pueden usar comandos slash como /deepseek, /anthropic y /openrouter, o cambiar de backend con deepclaude --switch ds; el proxy también calcula el uso de tokens y el ahorro frente a Anthropic
  • Puede ejecutarse como perfil de terminal en VS Code/Cursor, y --remote abre una sesión de Claude Code en el navegador, pero el puente WebSocket usa Anthropic mientras que las llamadas API del modelo se envían a DeepSeek u otros mediante el proxy local
  • Para el control remoto se requieren claude auth login, una suscripción a claude.ai y Node.js 18+ para el proxy; la licencia del proyecto es MIT

1 comentarios

 
GN⁺ 2 시간 전
Opiniones de Hacker News
  • Hacer correr Claude Code con la API de DeepSeek es básicamente posible con un wrapper de shell que solo define unas cuantas variables de entorno
    Basta con configurar ANTHROPIC_BASE_URL=https://api.deepseek.com/anthropic, ANTHROPIC_AUTH_TOKEN, ANTHROPIC_MODEL y ejecutar claude $@

    • En proyectos no confidenciales lo he estado usando así con DeepSeek v4 durante alrededor de una semana, y como no le he pedido tareas demasiado exigentes, casi no noto diferencia
      Eso sí, parece que la API de DeepSeek no permite excluir los datos del entrenamiento, y probablemente mejore cuando aparezca en otros proveedores. OpenRouter por ahora parece estar solo haciendo proxy hacia DeepSeek
    • Parece que cualquier proyecto que se burle de Claude llega al puesto #1 en Hacker News, aunque sean cuatro líneas de código
    • La parte más interesante de deepclaude es el proxy local que cambia de modelo a mitad de sesión y la función de seguimiento de costos unificado
      Pero en el README, que parece escrito por un LLM, esas funciones quedan demasiado enterradas, y viendo el historial, da la impresión de que se añadieron después y nunca reorganizaron la estructura del README
      El autor incluso dejó en un commit un plan de promoción en redes sociales que parece efectivo: https://github.com/aattaran/deepclaude/commit/a90a399682defc...
    • Por eso hice https://getaivo.dev, y ahí puedes usar el modelo directamente desde agentes de código
      Solo hay que ejecutar algo como aivo claude -m deepseek-v4-pro
    • Esencialmente, este enfoque permite usar cualquier modelo con Claude Code, incluidos modelos locales
  • No me queda claro qué significa esto. DeepSeek ya explica cómo usar su API desde varios CLI, incluido Claude Code
    https://api-docs.deepseek.com/quick_start/agent_integrations...

    • El README de verdad está ocultando por completo funciones nada triviales: corre un proxy de cambio de modelo a mitad de sesión y hace seguimiento unificado de costos al usar Anthropic junto con otros modelos
      Parece que el LLM que escribió el README nunca actualizó la descripción general del proyecto para destacar esas funciones
      También quedó committeado el plan de promoción del autor: https://github.com/aattaran/deepclaude/commit/a90a399682defc...
    • Probablemente no signifique gran cosa. Da la impresión de que alguien tomó su primera idea, la armó de una sola vez sin entender bien ni investigar, y la subió a la portada de HN y a todas las redes
    • Parece una herramienta hecha por un vibe coder para otros vibe coders
    • Vi que el formato de llamadas a herramientas no es exactamente igual. Así que, para conectar cualquier IA a Claude Code, probablemente haga falta transformación de formato
    • Me da curiosidad qué tan bien funciona en la práctica. Probé DeepSeek en Hermes y Opencode, y aunque le dieras instrucciones fuertes en el prompt del sistema, era muy malo usando herramientas básicas como la memoria holográfica de Hermes
  • Si estás buscando una alternativa a Claude Code, recomendaría revisar primero pi.dev u opencode como framework de ejecución
    En cuanto a modelos, OpenCode Go parece ser el más eficiente en costo en este momento, y también puedes conectarlo directo a OpenRouter o DeepSeek. Personalmente, creo que sería mejor irse por Kimi y pagar la suscripción de kimi.com

    • También propongo mi propio framework de ejecución como opción: https://codeberg.org/mlow/lmcli
    • pi.dev y opencode están bien, pero los plugins y skills que yo quiero usar siguen estando más del lado de Claude Code
    • De acuerdo. OpenCode tiene una base sólida y, con algunos ajustes, podría convertirse en un framework de ejecución muy efectivo
      En mi proyecto personal mouse.dev estoy combinando partes de OpenCode, Claude Code y Hermes para crear una arquitectura de agentes en la nube que funcione bien también en móvil
    • Revisé pi.dev y me pareció sospechoso que solo tuviera 7 issues abiertos en GitHub
      Resultó que un bot simplemente estaba cerrando automáticamente todos los issues. De verdad no tengo palabras
    • Ollama Cloud también tiene muy buena relación costo-beneficio. En un mes de uso solo choqué una vez con el límite de 5 horas, y fue cuando corrí 8 agentes al mismo tiempo durante 2 horas
  • Incluso si el precio es de aproximadamente 1 dólar por millón de tokens, es sorprendentemente fácil consumir 200 dólares en tokens
    Por más que lo calcule, un plan de codificación sale mejor en costo-beneficio

  • Si te basta con un rendimiento tipo Sonnet, esto sí suena como una mejora clara
    Pero Sonnet comete demasiados errores, así que optimizar costos con un modelo de ese nivel al final no me parece de mucho valor. Aun así, está bueno tener opciones

    • Mucha gente está obteniendo buenos resultados usando Opus para diseño y qwen3.6 hospedado localmente para implementación
      Si separas diseño con Opus e implementación con DeepSeek, probablemente puedas reducir bastante los costos. Yo personalmente evitaría Anthropic por completo, pero entiendo por qué lo usan
    • Todavía no estamos en un punto de saturación donde toda la inteligencia de los modelos de frontera sea más o menos igual y puedas elegir por otros factores como velocidad o ventana de contexto efectiva
      No veo muchas razones para que una empresa o un empleado no use el mejor modelo disponible ahora mismo y el nivel de razonamiento más alto, o el segundo más alto. No es barato, pero tampoco es tan caro
    • El punto clave no es un buen modelo, sino el mejor modelo
      Para crear una buena arquitectura hay que leer muchas especificaciones, código y demás, así que entran y salen muchos tokens; con depuración pasa igual si incluyes logs o hasta Datadog
      Una vez que ya encontraste la dirección correcta, los parches son menores, y salvo que estés haciendo refactors o limpieza, lo que ahorras con un modelo barato también es poco
      Las pruebas cada vez se vuelven más complejas. Solo viendo opencode go ya aparecen GLM-5.1, GLM-5, Kimi K2.5, Kimi K2.6, MiMo-V2-Pro, MiMo-V2-Omni, MiMo-V2.5-Pro, MiMo-V2.5, Qwen3.5 Plus, Qwen3.6 Plus, MiniMax M2.5, MiniMax M2.7, DeepSeek V4 Pro y DeepSeek V4 Flash
      Ahora además hay que correr estos modelos a gran escala y con bugs encima, y no sé si se me está escapando algo. Me pregunto cuál es el uso real de los modelos más baratos
    • Sigo reaprendiendo esta lección. Vas bien con un modelo más modesto, le tiras un problema demasiado complejo, pruebas varios modelos, al final te rindes y llamas a Opus 4.6 para que arregle todo
    • Con Sonnet no me pasa eso para nada. Si tienes un Claude.md sólido, revisas periódicamente las salidas y haces cumplir buenas prácticas de código con gates básicos de CI, casi nunca hace falta cambiar a Opus
  • Da la impresión de que esto fue un one-shot con IA para algo que normalmente sería solo configurar dos variables de entorno

  • Me pregunto si Claude Code realmente es el mejor framework de ejecución para programación. ¿Hay algún lugar que haga evaluaciones sobre eso?

    • En mi experiencia personal, no. Incluso con el mismo modelo Opus, frameworks de ejecución de terceros como Factory Droid o Amp funcionan mejor
      En cambio, Claude Code es la herramienta más subsidiada tanto por la suscripción de consumo Max como por el descuento de tokens empresarial. También está fuertemente optimizada para reducir costos con cosas como caché de tokens y menos razonamiento, y eso se paga con menor calidad
  • Después de probar DeepSeek V4 en varios CLI, Langcli fue el que mejor me encajó. En tareas de programación, la tasa de acierto de caché supera el 95%
    Dentro del mismo contexto puedes alternar de forma dinámica y fluida entre DeepSeek V4 Flash, V4 Pro y otros modelos principales, y además es 100% compatible con Claude Code

  • Me pasé media jornada haciendo que CUDA y LLAMA corrieran en una 5070TI
    Pude probarlo con el modo agente de Roo y logré que escribiera un plan antes de detenerse, pero pienso seguir cuando tenga más tiempo
    Como DeepSeek puede autoalojarse si tienes suficiente dinero, parece menos probable que lo retiren de golpe, pero aun así me entusiasma más una solución local
    Normalmente lo que se necesita es trabajo mecánico simple, no resolver problemas difíciles

  • Definitivamente se siente como algo coescrito con vibe coding, y además el precio no cuadra

    • De ahora en adelante, de verdad va a ser difícil encontrar títulos que no estén hechos con vibe coding
    • Es vibe coding bastante mediocre. Las máquinas pueden verificar detalles fácilmente, así que deberían usarse para eso