> En Codex, al activar el modo /fast, la velocidad de tokens es hasta 1.5 veces más rápida, manteniendo el mismo modelo y el mismo nivel de inteligencia. En la API, esto corresponde a Priority Processing.
> Priority Processing cuesta el doble que el estándar
> Las solicitudes que superen la ventana de contexto estándar de 272K se cobran al doble de la tarifa
¿Qué es esto? Ya se me está empezando a acabar el vocabulario.
Aquí estoy sentado buscando "emergente, slop, atribución de fuentes, efecto de encuadre, explosión cámbrica".
Estaba pensando en probar qmd, así que le pedí a una IA que investigara; me dijo que en la parte de embeddings está bastante bien, pero que no lo recomienda porque el soporte para coreano en BM25 y expansión de consultas no es bueno...
La vez pasada, cuando probé a correr fine-tuning con un agente, parecía que el problema de sobreajuste ocurría con frecuencia según los datos; en este notebook me da curiosidad saber si será posible con la combinación de LoRA/QLoRA.
Ni siquiera espero que valoren positivamente la simplicidad. La realidad es que hasta ascienden a gente por arreglar el desastre que ellos mismos causaron al hacerlo todo más complicado.
Si hubiera gente en puestos altos capaz de evaluar ese tipo de cosas, todo estaría bien, pero como desde el principio eso no funciona, este tipo de aportes no reciben una evaluación justa, y por eso esa clase de personas no puede subir...
Es un círculo vicioso...
Desde la perspectiva de la empresa, parece que para poder llegar arriba con éxito como un ingeniero equilibrado, también hay que poder defender buenos principios de ingeniería y de los ingenieros.
Tuve la experiencia de que la versión para Mac, codex.app, quizás por las características de su GUI, consumía fácilmente más de 1.5 GB de RAM y se ponía lenta; así que supongo que en Windows será parecido.
Originalmente, la parte de datos de usuario en Google Maps no tiene API. Así que eso simplemente tendrías que sacarlo con Takeout y trabajarlo por separado... jaja
> En Codex, al activar el modo
/fast, la velocidad de tokens es hasta 1.5 veces más rápida, manteniendo el mismo modelo y el mismo nivel de inteligencia. En la API, esto corresponde a Priority Processing.> Priority Processing cuesta el doble que el estándar
> Las solicitudes que superen la ventana de contexto estándar de 272K se cobran al doble de la tarifa
jajajaja
¿Qué es esto? Ya se me está empezando a acabar el vocabulario.
Aquí estoy sentado buscando "emergente, slop, atribución de fuentes, efecto de encuadre, explosión cámbrica".
Últimamente, ¿por qué se está muriendo tanto?
Estaba pensando en probar qmd, así que le pedí a una IA que investigara; me dijo que en la parte de embeddings está bastante bien, pero que no lo recomienda porque el soporte para coreano en BM25 y expansión de consultas no es bueno...
La vez pasada, cuando probé a correr fine-tuning con un agente, parecía que el problema de sobreajuste ocurría con frecuencia según los datos; en este notebook me da curiosidad saber si será posible con la combinación de LoRA/QLoRA.
Ni siquiera espero que valoren positivamente la simplicidad. La realidad es que hasta ascienden a gente por arreglar el desastre que ellos mismos causaron al hacerlo todo más complicado.
Si hubiera gente en puestos altos capaz de evaluar ese tipo de cosas, todo estaría bien, pero como desde el principio eso no funciona, este tipo de aportes no reciben una evaluación justa, y por eso esa clase de personas no puede subir...
Es un círculo vicioso...
Desde la perspectiva de la empresa, parece que para poder llegar arriba con éxito como un ingeniero equilibrado, también hay que poder defender buenos principios de ingeniería y de los ingenieros.
Si al menos hubiera tenido 16 GB de RAM, lo habría comprado. Qué lástima.
DoD: Departamento de Defensa
..W: ..Guerra
Pero, ¿por qué es más seguro? Me parece que no hay mucho más aparte de que es más eficiente porque se elimina
bash+curl.Ahora podremos ver Macs en más lugares.
Lo estoy usando muchísimo y me está funcionando muy bien. La eficiencia de tokens también es buena.
Pero entonces, ¿por qué bloquearon opencode?.. snif..
Creo que no había llegado a presentar
agent-browser. Últimamente hay tantas cosas que seguramente se me pasó jaja.Ahora se agregó de forma experimental el argumento
--native, así que quedó más pequeño y más rápido.https://x.com/ctatedev/status/2028960626685386994
Es otro proyecto de Chris Tate, creador de portless - una herramienta que reemplaza los números de puerto por URLs
.localhostbasadas en nombres.diseño impulsado por el currículum...
Tuve la experiencia de que la versión para Mac,
codex.app, quizás por las características de su GUI, consumía fácilmente más de 1.5 GB de RAM y se ponía lenta; así que supongo que en Windows será parecido.Abunda la sobreingeniería no para el servicio, sino para inflar capacidades.
Originalmente, la parte de datos de usuario en Google Maps no tiene API. Así que eso simplemente tendrías que sacarlo con Takeout y trabajarlo por separado... jaja
¡Parece que el enlace al flujo de trabajo del creador de Claude Code estaba roto!!
Gracias por avisar jaja