15 puntos por GN⁺ 2026-01-25 | 1 comentarios | Compartir por WhatsApp
  • Swarms es una función de orquestación multiagente que existe dentro de Claude Code, pero que no había sido publicada
  • Los usuarios ya no interactúan con un único programador de IA, sino con una IA en el rol de líder de equipo
  • El líder de equipo no escribe código directamente; en cambio, planifica, distribuye tareas y sintetiza resultados, asignando roles a agentes subordinados
  • Tras aprobarse el plan, agentes trabajadores especializados se ejecutan en paralelo y se encargan de la implementación real
  • Muestra cómo Claude Code se expande más allá de una sola herramienta hacia un proceso de desarrollo por equipos

Cómo funciona

  • Cuando el usuario aprueba el plan, cambia a Delegation Mode
  • Se crean múltiples agentes trabajadores especializados que operan en paralelo
  • Cada trabajador se encarga de tareas reales de implementación, como escribir código, analizar y corregir
  • Mediante mensajes entre trabajadores, coordinan el progreso y las dependencias
  • Todos los resultados se consolidan en el líder de equipo y se devuelven como respuesta final

Herramienta claude-sneakpeek

  • El repo de claude-sneakpeek ofrece una compilación paralela de Claude Code con los feature flags habilitados
  • Permite probar funciones no publicadas, incluido el modo Swarms, y se ejecuta en un entorno completamente separado de la instalación existente de Claude Code
    • Usa configuración, sesiones, servidores MCP y credenciales independientes
  • Ofrece funciones adicionales integradas en Claude Code, pero aún no publicadas
    • Compatibilidad con ejecución multiagente nativa mediante Swarm mode
    • Creación de agentes en segundo plano mediante Delegate mode
    • Funciones de mensajería entre integrantes del equipo y gestión de propiedad de tareas
  • Soporte para modelos y proveedores adicionales
    • Compatible con Z.ai, MiniMax y OpenRouter, y permite conectar modelos locales mediante cc-mirror

1 comentarios

 
GN⁺ 2026-01-25
Comentarios en Hacker News
  • Honestamente, puede sonar a locura, pero fue la vez que obtuve el código de mayor calidad
    Costó como 10 veces más, pero hice que un solo instance de Opus administrara todo un “equipo de proyecto” con varios subagentes
    La tarea era portar un servidor Java legacy a C# .NET 10, y usé 9 agentes, un Kanban de 7 etapas y una estructura separada de Git Worktree
    Cada rol era el siguiente —
    Manager (Claude Opus 4.5): bucle global de eventos que despierta agentes según el estado del Kanban
    Product Owner (Claude Opus 4.5): a cargo de la estrategia, evitando el scope creep
    Scrum Master (Opus 4.5): priorización del backlog y asignación de tickets
    Architect (Sonnet 4.5): dedicado exclusivamente al diseño, no implementa
    Archaeologist (Grok-Free): solo lee decompilaciones del Java legacy cuando hace falta
    CAB (Opus 4.5): gatekeeper que rechaza funcionalidades en la etapa de diseño y código
    Dev Pair (Sonnet 4.5 + Haiku 4.5): ciclo AD-TDD, el junior escribe tests que fallan y el senior los corrige
    Librarian (Gemini 2.5): gestión de documentación y disparador de retrospectivas
    Si me preguntas “¿de verdad era necesario?”, probablemente diría que “no”, pero fue divertidísimo ver a los agentes de IA colaborar
    La versión inicial del proceso está en esta imagen

    • Me pregunto si podrías compartir más detalles técnicos
      Quisiera saber si es algo basado solo en prompts, si es un plugin o si la estructura consiste en llamadas repetidas vía script
      También me da curiosidad dónde existe el Kanban
    • Yo también uso una estructura parecida
      Consiste en un coordinador y algunos agentes especializados, como expertos en backend, frontend y DB
      La clave es el coordinador. Reduce mi carga cognitiva y sigue muy bien el progreso general
    • En general, un Scrum Master no asigna tickets directamente
    • Creo que el siguiente paso es convertir en servicio lo que hiciste
      Como esa idea de “no quiero hablar con el mono, quiero hablar con el organillero”, probablemente empezará con entrevistas con el manager y el program manager, y después ellos seguirán por su cuenta mientras solo se les piden demos y actualizaciones. Qué risa
    • Me pregunto si esto es sátira o si va en serio
  • En realidad esto usa la función de subagentes integrada en Claude
    No hace falta construir algo tipo abstracción de tmux de 300 mil líneas en Go
    Solo hay que pedirle a Claude que ejecute trabajo en paralelo con subagentes en segundo plano
    Conviene tener archivos para pasar prompts, seguir el progreso y reportar, y recomiendo limitar cada agente a un worktree separado
    Estoy organizando este patrón en workforest.space
    La mayoría está construyendo un orquestador aparte, pero en realidad Claude mismo es el mejor orquestador

    • Esto no es simplemente un subagente
      La diferencia frente a las herramientas existentes es que la abstracción es por tareas, no por conversaciones
      Claude Code tenía límites porque estaba centrado en conversaciones por el tema de las apps de terceros, pero Claude Code Web fue el primero en ampliar eso
      Este enfoque deja que la IA coordine tareas por sí sola, sin que el usuario tenga que seguir lanzando prompts
      Es complejo, pero está evolucionando hacia una estructura en la que una IA administra a otras IA
    • En realidad no es tanto una función nueva, sino una forma de aprovechar en implementaciones reales los subagentes que Claude Code ya tenía
      Aun así, como faltan detalles de planificación, la confiabilidad todavía es baja
    • Es distinto a los subagentes anteriores
      El agente principal cambia a un modo de contexto centrado en delegación, y se integra con un sistema de tareas en equipo y un sistema de mailbox
      Es un nivel de integración que no se puede lograr con un plugin
    • Gracias a la visualización de stacked PR entendí el concepto de inmediato
      Yo suelo apilar commits como si fueran PRs y luego ordenarlos con rebase, y eso era bastante doloroso
      Ahora creo que podría mejorarlo dividiendo el trabajo en 2 o 3 ramas y manejándolo de forma que minimice conflictos
    • Yo también dejo a la instancia principal de Claude en rol de manager para que administre a los agentes de implementación
      Ayuda a mantener el contexto limpio y a obtener resultados de alta calidad
  • Quiero que el código evolucione hacia algo más corto y de mayor calidad
    Pero siento que la tendencia actual va en la dirección opuesta
    Será útil cuando los modelos sean más robustos y se fortalezcan el sentido común y los ciclos de retroalimentación, pero por ahora más bien agrava el problema con esa lógica de que “mientras más código, mejor”
    Se pueden hacer demos impresionantes, pero en producción real esto probablemente termine en código 10 a 100 veces más complejo

    • A mí me pasó algo parecido
      Le pedí a Claude que agregara estadísticas de cobertura de tests al CI, y como nyc no estaba instalado, intentó reimplementar Istanbul en bash
      Al final tuve que decirle “solo instala nyc”
    • Si esta función todavía no se ha publicado, da la impresión de que Anthropic también cree que el modelo aún no está listo
      Aun así, este tipo de experimentos probablemente ayude a ampliar los límites del modelo
      Tal vez no ahora, pero quizá para 2026 sí sea posible
  • Me gustaría que en HN hubiera una votación periódica para medir la popularidad de los agentes de IA para programar
    Algo como el índice TIOBE por lenguaje, para ver la tendencia de qué modelos se están volviendo populares

    • Solo elige uno que te guste y úsalo
      Esa competencia de rankings al final es un ciclo de hype que va y viene
    • Justo acabo de empezar una encuesta parecida. Bienvenidos a participar → agentic-coding-survey.pages.dev
    • No es opinión de la comunidad, pero yo consulto seguido el leaderboard de lmarena
      Me pareció interesante que MiniMax 2.1 esté por encima de la mayoría de los GPT
      En openrouter.ai también puedes darte una idea aproximada del rendimiento y costo del modelo
    • Yo sigo las novedades con el newsletter de Zvi Mowshowitz
      Gracias a eso empecé a usar Opus 4.5 como principal apenas una semana después de su lanzamiento
    • Mi skill de agente está dentro del top 10 del directorio skills.sh
      Aproximadamente el 80% de esa base de usuarios usa Claude Code, y el 75% está en entorno darwin-arm64
  • Claude genera demasiado código y eso hace que sea difícil revisarlo
    Algunos dicen “si pasa los tests, ya estuvo”, pero en proyectos de mantenimiento a largo plazo eso da inseguridad
    Me da curiosidad la experiencia de quienes han probado una generación de código estilo YOLO en proyectos de operación prolongada

    • En entornos profesionales reales basta con tratar con un solo agente a la vez
      La calidad del código todavía es baja y también se equivoca seguido al depurar
      Aun así, sirve para buscar, entender y ampliar ideas
      Para proyectos experimentales personales, un enfoque YOLO puede estar bien
    • Trabajo en Graphite/Cursor, pero si haces que CC administre los cambios en forma de stack y le agregas un agente de revisión automática, incluso cambios grandes se vuelven fáciles de entender
      Así puedes automatizar la generación de código sin perder comprensión del sistema
    • Cuando Claude Code escribe código, hago que revise el último commit con una skill que hice llamada “codex-review”
      Hago que Codex sugiera puntos de revisión, y luego verifico en la revisión real qué tan precisos fueron
    • Todavía es muy pronto para ver resultados claros, pero hacia fin de año probablemente veremos qué pasa con proyectos que son como castillos construidos sobre arena
  • Había una frase que decía: “ahora ya no hablas con un coder de IA, sino con un team lead”,
    pero da risa porque hasta ese tuit parece escrito por IA

    • Sí, este tipo de expresiones retóricas se repiten demasiado en la IA
  • Creo que en 2026 los orquestadores de agentes serán una tendencia principal
    Usar tal cual la terminología del software existente (team lead, team member, etc.) va a mejorar la comprensión y la aceptación

    • De acuerdo. Conceptos complejos como Gas Town son solo rodeos para corregir comportamientos anómalos del modelo
      Si Anthropic puede coordinar sus propios modelos, esas capas dejarán de ser necesarias
      Al final, lo esencial es la mensajería y la gestión de tareas
    • Pero yo sí creo que conceptos como Polecats ayudan a evitar una antropomorfización excesiva
  • Me dio risa eso de “decirle al team lead y al equipo completo que hagan este botón rojo”

    • “¡Ingeniería principal! ¡Necesitamos arquitectura! ¡Equipo de marketing, campaña con celebridades! ¡Equipo de producto, roadmap! ¡Equipo de ML, incorporen datos de entrenamiento! ¡Finanzas, calculen el ROI! ¡Operaciones, cobertura 24/7!”
      Y al final la conclusión fue: “Perfecto, ¡ahora hagan el botón rojo!”. Sátira perfecta
    • Aunque Claude pudiera hacerlo solo con prompts, no vamos a aceptar que eso sea suficiente
      Si ves este video, se entiende la sensación
    • El prompt de sistema base está hecho para decidir bastante bien cuándo conviene usar el modo swarm
      Si agregas instrucciones adicionales en CLAUDE.md, puedes ajustar para que no use swarm mode en tareas pequeñas
  • En la versión 2.1.9 reciente cambió por completo la forma en que el loop principal orquesta los subagentes
    Aparecen logs como “FTSChunkManager agent todavía sigue ejecutándose, pero está avanzando, así que esperemos”, junto con stack traces y salida JSON

  • Vi este comportamiento directamente en la app de escritorio de Claude Code
    Debajo de una tarea maestra, muchísimos agentes worker-leader exploraban el codebase y escribían reportes y listas de TODO
    Otro sistema sintetizaba eso para crear el esquema maestro y el plan
    Yo hago chats separados de devops, frontend, architecture y security, y cuando termina cada chat deja logs y se intercambian actualizaciones
    Si lo conectas por SSH a un droplet para que use la terminal, Claude repite por su cuenta construir, corregir, probar y verificar
    Así terminé este proyecto en solo 3 días

    • En realidad esto es solo la función básica de lanzar varios agentes de exploración en paralelo y combinar los resultados
    • Es muy parecido al comportamiento de oh-my-opencode