¿Los registros de ChatGPT entran dentro del alcance que se puede obtener mediante una solicitud de acceso a la información pública?

 

¡Parece que también me voy a sumar!

 

https://code.claude.com/docs/ko/model-config#opusplan-model-config

Yo también lo tengo configurado con opusplan de Claude y lo estoy usando.

 
kgcrom 2026-03-17 | comentario padre | en: Codex comienza a admitir subagentes (developers.openai.com)

Como el agente solo usa el modelo GPT-5.1-Codex-Mini,
en las Custom instructions de Codex App
si agregas el siguiente prompt, el agente funciona con GPT-5.3-Codex-Spark.

"- when it spawns agents, use models "GPT-5.3-Codex-Spark" or higher."

O también es bastante entretenido poder especificar el modelo al crear un agente,
y me gusta que en Codex App lo muestre con estructura de subcarpetas.

 

En el proceso de escribir código a mano, el desarrollador de forma natural también planifica, diseña, explora, comprende, prueba y hace una auto-revisión, y al mismo tiempo, de manera implícita y en paralelo, anticipa cómo responder después cuando surgen problemas, por lo que cada aspecto termina ajustándose de manera orgánica. Por eso creo que, incluso si faltaban pruebas o revisión, de alguna manera igual funcionaba hasta cierto punto.
Pero si eliminamos el proceso de escribirlo a mano, hay que trazar límites explícitos para esos procesos que antes existían de forma implícita. Como quien escribe el código y quien lo revisa quedan mucho más separados, aumenta la ineficiencia en la comunicación. Como también cae más la confianza en quien produce el código, el costo de revisión igualmente aumenta.
Creo que es algo parecido al concepto de doorman's fallacy.

 

Yo usaba mucho auditlog, qué tristeza..

 
mammal 2026-03-17 | comentario padre | en: Por qué amo FreeBSD (it-notes.dragas.net)

Es algo menor, pero desde el nombre del gestor de paquetes, pkg, ya se siente elegante y en sintonía con la filosofía de nombres de las herramientas UNIX.

 

¿No sería lo mismo si ejecutas el CLI en el servidor?

 

Así como hace unos 20 años, con la moda de los editores web y los blogs hechos en serie, se produjeron en masa páginas personales o posts que nadie iba a ver, en la era de la inteligencia artificial está ocurriendo algo parecido; aun así, creo claramente que crear apps personalizadas y compartir ese proceso o esa rutina es un recurso excelente y muy valioso. Personalmente, pienso que en esta época no se trata de crear con IA una app o un servicio que genere dinero, sino de hacer fácilmente las herramientas personalizadas que uno necesita para aumentar la productividad.

 

En la configuración básica de Oh my opencode, la planificación la hace opus y la implementación la realiza un modelo más liviano.

 

Sí, confieso que comenté sin siquiera leer el artículo;;

 

Parece que incluso en Namu Wiki hay un documento relacionado jajaja
https://namu.wiki/w/…diste en el clavo.

 

Como es un modelo de lenguaje, tiene sentido que un modelo caro se encargue de la planificación.

 

A mi alrededor, suelen planificar/diseñar con Sonnet y luego escribir el código con GLM-5..

 

Como ahora pasó de ejecutarse solo en el navegador a ejecutarse directamente en el servidor, creo que era un paso inevitable.

 

Si también hiciera de proxy como quotio, se podría usar de inmediato... pero no parece tener esa función.

 

Al contrario, había análisis que decían que la inferencia sí deja ganancias...

Dicen que el problema real es que al bucle de entrenamiento se le suma además el cómputo de inferencia para RL, y eso es lo que aumentó la complejidad.