Si con el modelo exclusivo de codex 5.3 de verdad se sentía como hablar con un subordinado que no tenía mucha labia pero programaba bien,
con 5.4 empezó a hablar un poco más y desde 5.5 parece que ya agarró la onda a medias.
Todavía hay cosas raras, como que llame contract a la API, o que a veces se ponga a mezclar inglés y coreano de forma loquísima, así que toca escribirle algo como "explícalo de forma fácil y, si puedes, casi sin usar inglés".

Aun así, en rendimiento para sacar código, por sensación, creo que desde 5.4 ya superó a Opus. Ya salió Opus 4.7, pero ni siquiera lo probé por encimita. Se veía demasiado obvio que iba a ser otra vez marketing al estilo de "Anthropic".

 

Wow, está muy bueno. Gracias por compartirlo.

 

Pero Harness hasta la semana pasada lo estuvieron vendiendo muchísimo, y desde esta semana está más calmado... no sé si será por las metidas de pata de Anthropic y porque Codex 5.5 es tan bueno........

 

'¿Eh? Siento que ya había visto esto antes...', pero veo que te ponen enseguida el enlace en los artículos recomendados para leer juntos jaja

 

Lo vengo usando desde hace años, pero a medida que se pasa a algo más basado en agentes, poco a poco va perdiendo fuerza jaja.
Aun así, como muchas veces me sirve para redactar documentos personales o para cuando programo a mano, termina ayudando bastante más de lo que parece.

Si se vuelve 27 veces más caro sin aumentar la cuota, ¿no estaría el coding agéntico a un nivel en el que prácticamente no se puede usar?

 

VibeVoice - el modelo de síntesis de voz open source de próxima generación de Microsoft
En GeekNews se publicó desde muy temprano, pero por un problema parece que eliminaron el código de VibeVoice-TTS.
Parece que para TTS solo se puede usar VibeVoice-Realtime por ahora.
En estos últimos días lo he visto por todos lados, quizá porque VibeVoice-ASR se volvió popular otra vez.

https://simonwillison.net/2026/Apr/27/vibevoice/
Simon Willison lo probó, y en Mac se puede ejecutar con un solo comando usando uv y mlx-audio,
y procesó 1 hora de audio en aproximadamente 8 minutos 45 segundos en una MacBook Pro M5 Max de 128 GB.
Se podría ver como Whisper que separa bien a los hablantes

 

Es un análisis incluso de un texto de un desarrollador senior que hace que un argumento sin mucho contenido suene convincente (personalmente, disculpen que no me guste Google). Por supuesto, creo que abordar el fenómeno desde una perspectiva de comprensión es un buen intento.

 

Parece que cosas como SDD ya perdieron el hype y ahora lo que viene son los harness.
La parte algo curiosa de los harness es que, aunque claramente no estaba en los datos de entrenamiento, el modelo entendió bastante rápido el concepto de harness.
Será porque usa tal cual el significado de una palabra que ya existía, pero aunque yo ni lo mencioné, incluso hizo comentarios como que primero actualiza el harness.

 

Cada vez siento más que solo están apareciendo un montón de términos de marketing.

 

¿Y los universitarios?

 

Estoy de acuerdo
Mientras tanto, lo que yo percibía en la práctica y la reacción de la comunidad eran opuestas, así que había estado sintiendo una brecha.

 

No renovarlo después de haberme suscrito por un año fue una jugada maestra.
Si voy a pagar y usarlo con un multiplicador de 27x de Opus, mejor usar el plan de cobro por API de Claude.

 

Me lo puse el primer día que salió la insignia jaja. Ojalá hubiera más productos como Tailscale.

 

Ya pedí el reembolso hace mucho..

 

Parece ser una herramienta creada por u/Total_Nectarine_3623.

https://www.reddit.com/r/ClaudeAI/s/9VO1vzO2zp

Viendo otras publicaciones, parece que le interesan ONIST y los CTF, así que da la impresión de que tiene interés en la seguridad de la información, y lanzó la primera versión con un solo commit enorme. Al ver eso, también da la impresión de que hizo muchísimo "vibe coding" en el repositorio original y luego lo dividió en muchísimos commits, así que como no quedaba muy bien publicarlo tal cual, quizá lo juntó todo en uno. Además, viendo que su handle de GitHub también es h4ckf0r0day, para herramientas de este tipo —que normalmente no se abordan por vías del todo convencionales, como ONIST o similares— existe como una especie de tradición de subirlas desde cuentas desechables.

La confianza en un proyecto open source tendrá que ganarse con el tiempo, pero no parece haber ninguna intención particularmente rara.

 

En el caso de los modelos más recientes, como no revelan en detalle su implementación interna, parece que en la etapa de investigación aparecieron modelos anteriores, y es muy probable que todos los modelos surgidos después de GPT-5 hayan heredado la arquitectura MoE. Esto se debe a que los modelos paralelos de código abierto usan una estructura MoE. En el caso reciente de los modelos cerrados, como no publican la arquitectura, no es una conclusión oficial confirmada.

 

¿Eso significa que entre los principales modelos frontier que usan MoE, GPT-5.5 no usa MoE?

 

Opinión personal: desde que Cloudflare empezó a decir que iba a lanzar Meshnet, lo que se venía escuchando era

  1. que Tailscale está experimentando con una implementación en Rust (un deseo largamente anhelado)
  2. y ahora este anuncio de gratuidad