5 puntos por GN⁺ 2026-03-05 | 2 comentarios | Compartir por WhatsApp
  • La salida masiva de investigadores clave del equipo de Qwen de Alibaba ha dejado incierto el futuro de la recién publicada serie de modelos Qwen 3.5
  • El líder del equipo, Lin Junyang, anunció su renuncia, y después varios integrantes fundamentales también dejaron la empresa
  • La recién lanzada familia de modelos Qwen 3.5 ha llamado aún más la atención porque muestra un rendimiento sobresaliente incluso en modelos pequeños
  • La posible disolución del equipo de Qwen podría convertirse en un punto de inflexión importante para el ecosistema chino de investigación de IA de código abierto

Cambios de personal en el equipo de Qwen

  • Justo después de que Alibaba publicara la serie de modelos Qwen 3.5, el líder del equipo, Lin Junyang, anunció su salida en X (antes Twitter) con el mensaje: “me stepping down. bye my beloved qwen.”
    • Lin fue un investigador clave que lideró la publicación de modelos de pesos abiertos de Qwen desde 2024, y era una de las personas más jóvenes con rango P10 dentro de Alibaba
  • Según un reporte del medio chino 36Kr, alrededor de la 1 p. m. del 4 de marzo, el Tongyi Lab de Alibaba convocó una reunión de emergencia de toda la empresa, y el CEO Wu Yongming explicó personalmente la situación al equipo de Qwen
    • La renuncia de Lin se había anunciado 12 horas antes, a las 00:11 de la madrugada, y se informó que incluso dentro del equipo el impacto fue grande
    • Hacia las 2 p. m., Lin dejó en WeChat un mensaje que decía: “Hermanos de Qwen, sigan como estaba planeado. No hay problema”, pero no aclaró si regresaría o no
    • Integrantes del equipo de Qwen dijeron a 36Kr que “el liderazgo de Junyang fue el factor clave para lograr los resultados actuales con muchos menos recursos que los competidores
  • Como posible detonante de la renuncia se menciona una reestructuración organizacional interna en Alibaba, en la que un nuevo investigador procedente del equipo Gemini de Google habría sido designado como responsable de Qwen, aunque se trata de información no confirmada

Salida en cadena de personal clave

  • Tras la renuncia de Lin, se confirmó que varios miembros clave también dejaron la empresa
    • Binyuan Hui: líder del desarrollo de código de Qwen, responsable de la serie Qwen-Coder, encargado de todo el proceso de entrenamiento de agentes, y recientemente involucrado en investigación de robótica
    • Bowen Yu: líder del post-training de Qwen, encabezó el desarrollo de la serie Qwen-Instruct
    • Kaixin Li: colaborador clave en Qwen 3.5/VL/Coder, doctor por la Universidad Nacional de Singapur
    • Además de ellos, se reportó que varios investigadores jóvenes también renunciaron ese mismo día
  • El hecho de que el CEO de Alibaba asistiera personalmente a la reunión muestra que la empresa reconoce la gravedad de la situación

Características de los modelos Qwen 3.5

  • Qwen 3.5 es una familia de modelos de pesos abiertos publicada por el equipo Qwen de Alibaba en las últimas semanas, y su rendimiento es muy destacado
    • Qwen3.5-397B-A17B, publicado el 17 de febrero, es un modelo grande de 807 GB
    • Después se publicaron de forma continua modelos de distintos tamaños, como 122B, 35B, 27B, 9B, 4B, 2B y 0.8B
  • Los modelos 27B y 35B han recibido buenas evaluaciones en programación, mientras que los modelos 9B, 4B y 2B resultan muy eficientes para su tamaño
    • Los modelos 27B y 35B pueden ejecutarse en Macs con 32 GB/64 GB y aun así manejar muy bien tareas de programación
    • En particular, el modelo 2B pesa apenas 4.57 GB (1.27 GB cuantizado), pero aun así ofrece capacidades de razonamiento y multimodales (visión)

Perspectivas a futuro

  • Si el equipo de Qwen se disuelve, existe la posibilidad de que se interrumpan los avances de investigación que han permitido ofrecer alto rendimiento en modelos pequeños
  • Si los integrantes del equipo fundan un nuevo laboratorio de investigación o se suman a otras instituciones, todavía hay expectativa por los trabajos posteriores
  • Por ahora, la situación sigue “aún incierta”, y también existe la posibilidad de que Alibaba logre retener a parte del personal

Fuentes externas citadas

2 comentarios

 
mammal 2026-03-05

La renuncia de Lin Junyang sí es impactante. He estado usando mucho Qwen 3.5 35B-A3B, así que tenía expectativas por Qwen 4 :(

 
GN⁺ 2026-03-05
Comentarios en Hacker News
  • Ojalá que el desarrollo no se vea demasiado obstaculizado. Como dijo Simon, Qwen3.5 es realmente impresionante
    He estado probando Qwen3.5-35B-A3B durante los últimos días y, hasta ahora, es el modelo con mejor capacidad de codificación agéntica que he usado
    Le hice escribir código Rust y Elixir con Pi harness, y crea sus propias pruebas y verifica por sí mismo si las pasa. Maneja bien los bucles de errores de pruebas o compilación mientras sigue avanzando hacia el objetivo
    • Probé 3.5:122b en una GH200 y, en trabajo con Rust/React/TS, está un poco por debajo de Sonnet, pero resuelve bastante bien tareas de alcance pequeño
      Eso sí, a mitad del proceso tiende a ignorar las instrucciones y borrar por completo el código de soporte porque “esto sería más simple”
    • Yo también lo probé con Rust, y a veces caía en un bucle infinito y luego salía por sí solo
      Eligió deadpool y deadpool-r2d2 en la etapa de planificación y terminó confundiéndose. Aun así, en general el código está bien, y parece que solo habría que retocar un poco la capa de base de datos
      Hasta ahora es el modelo autoalojable más estable
    • Al usar el modelo denso de 27B, hubo muchos menos bucles y repeticiones innecesarias
    • Me pregunto si lo estás ejecutando localmente con llama.cpp. Con el chat template predeterminado, las llamadas a herramientas fallaban, pero con esta plantilla funciona mucho mejor
    • Me da curiosidad en qué hardware lo estás ejecutando. Quisiera preguntar si sientes que puede reemplazar a los modelos frontier en programación cotidiana
  • Se dice que hubo tensiones entre el equipo de investigación de Qwen y el equipo de producto de Alibaba. Escuché que Alibaba recientemente quiso imponer el DAU como KPI
    Desde la perspectiva de una empresa, se entiende un cambio de estrategia, pero no queda claro por qué dejaron ir al equipo central de investigación. ¿No estamos justo en una época en la que faltan investigadores de modelos?
    • Quizá intentaban convertir los futuros modelos de Qwen en modelos comerciales cerrados, y es posible que el equipo de investigación no lo aceptara
  • Me pregunto por qué los laboratorios estadounidenses no están invirtiendo sumas enormes en este tipo de talento
    • En mi zona (Ohio), ICE está persiguiendo a ciudadanos chinos. Incluso quienes residen legalmente sienten riesgo de deportación
      En un ambiente así, por mucho dinero que gasten los laboratorios de EE. UU., es difícil atraer talento
    • EE. UU. ha hecho que incluso los inmigrantes legales estén expuestos al riesgo de detención
    • Europa debería impulsar modelos competidores como preparación ante la inestabilidad política de EE. UU.
    • Quienes ya se dejaron atraer por el capital estadounidense ya se fueron, y China también está invirtiendo suficiente dinero
      Además, en las empresas chinas pueden tener una mayor influencia en la toma de decisiones
    • El problema no es solo el recorte al presupuesto de la NSF. Temas de salud, riesgo de guerra y la incertidumbre para investigadores extranjeros han reducido el atractivo de EE. UU.
      Desde la administración Trump ya venía bajando la llegada de estudiantes internacionales de posgrado, y ahora incluso se percibe que hacer un doctorado en EE. UU. implica un riesgo reputacional
  • Cuando la gente usa modelos locales, tiende a ser más tolerante con el ensayo y error
    Si un modelo en la nube desperdicia tokens, duele por el costo; pero si un modelo local entra en un bucle, se siente como “está pensando”
    Si modelos como Qwen llegan a ser suficientemente útiles para programación local, el cambio probablemente será más económico que técnico
    • De hecho, el desperdicio de tokens en modelos locales hasta se agradece. El mainframe GPU de mi cuarto sirve como calefactor (gracias a lo inestable de la calefacción en Suiza)
  • Llevo varios días ejecutando localmente el modelo de 32B y maneja bastante bien la codificación agéntica
    Tiene un rendimiento sobresaliente para su tamaño, aunque en instrucciones largas tiende a ignorar más o menos la mitad. A este tamaño, es un intercambio aceptable
  • Como matemático, he usado Qwen para automatizar relaciones o resúmenes entre artículos
    Incluso realiza verificación de citas erróneas, y se ha usado con artículos de arXiv
    Los resultados están reunidos en esta página
  • Ojalá el equipo de investigación vuelva a impulsar en otro lugar la competencia de modelos de pesos abiertos
    En realidad pensaba que este tipo de investigación debía estar financiada por gobiernos, pero ahora son empresas chinas las que están ocupando ese papel
  • Qwen3.5 es realmente excelente. Probé la versión 35B en una Ada NextGen 24GB con easy-llm-cli y estuvo casi al nivel de Gemini 3 Pro
    También fue bastante rápido
    • Con configuración q4 pude obtener 175 tg y 7K pp, y fue más eficiente que la mayoría de los proveedores en la nube
  • Últimamente da la impresión de que el ambiente pasó de “la IA reemplaza a las personas” a “la IA muere sin cierta gente”. Es un giro dramático
    • La disponibilidad de Anthropic no es de 99.9999999%, sino apenas de alrededor de 90%. Se puede ver en su página de estado
      Si la IA realmente pudiera reemplazar por completo a las personas, los CEOs no tendrían que esforzarse tanto en convencer a todos
    • Decir que “la IA muere sin cierta gente” es exagerado. La gente solo tiene curiosidad por el rumbo de la familia de modelos Qwen
    • El cambio del objetivo de AGI a una estrategia de corto plazo centrada en publicidad muestra muy bien la situación actual
    • Claude por sí solo no puede crear una app nativa, y ni siquiera las web apps son estables, lo que explica por qué Anthropic terminó adquiriendo Bun
  • Mejor olvidémoslo, esto es Chinatown