Las personas tampoco son buenas eligiendo cosas al azar. No debería haber patrones, pero intentar evitarlos deliberadamente también puede considerarse un patrón.
No hay resultados de medición del uso real de tokens para una sola tarea; más bien, parece ser solo una suposición de cuánto se reducirían los reintentos al usar magpie.
El campo en el que trabajo tampoco es así de extremo, pero hago investigación y desarrollo en el área de IA.
Además de los frameworks que se usan comúnmente, a veces el entorno objetivo donde realmente se despliega el modelo es distinto del entorno en el que se entrenó.
También hay casos en los que ciertas operaciones no están soportadas, así que hay que crear operaciones personalizadas para cada plataforma. En esos casos, muchas veces ni siquiera se puede probar directamente en el entorno de desarrollo.
A veces también modelamos directamente el modelo; aunque se puede escribir código de prueba con ciertos datos, según el dataset los valores cambian de forma probabilística, y fenómenos como que los valores exploten en cierto momento son difíciles de cubrir con código de prueba.
Imagino que debe haber bastantes entornos donde probar sea incluso más difícil que en mi caso.
El enfoque de SQLite es realmente impresionante. Mantener privado un paquete de pruebas que equivale a 590 veces el código significa, al final, que el "verdadero valor del software está en la especificación de su funcionamiento".
De hecho, si hoy en día intentas crear un proyecto con herramientas de programación con IA, con solo el README + la documentación de la API + el código de pruebas de un proyecto existente, puedes replicar sus funciones principales con una rapidez sorprendente. Lo he sentido operando directamente 7 proyectos: paradójicamente, mientras mejor están probados, más fáciles son de copiar.
Sin embargo, hay una parte que se pasó por alto en el caso Cloudflare vs Vercel: "copiar" y "operar" son problemas completamente distintos. Para reproducir los casos límite de Next.js, el ecosistema de plugins e incluso la dependencia de la comunidad, el código de pruebas por sí solo no basta. Al final, parece que el foso competitivo es una combinación de código de pruebas + comunidad + know-how operativo.
No creo que en este proyecto el GC llegue al punto de ser un problema. Entre "la mayoría de los proyectos recientes", en realidad creo que muchas veces la adopción de un lenguaje de programación cae más en el terreno de las preferencias que en las ventajas o limitaciones de un lenguaje en particular. Aun así, si me preguntaran cuál es la ventaja comparativa que Rust tiene sobre Go como lenguaje de programación de propósito general, yo respondería que es el nivel de abstracción que ofrece Rust y el hecho de que puede detectar varios errores en tiempo de compilación. Por supuesto, Go también tiene ventajas frente a Rust, como la programación asíncrona sencilla, tiempos de compilación rápidos y una sintaxis concisa.
Con Rust, una gran parte de los errores se detectan durante la compilación, así que hasta el hecho de que falle la compilación da la sensación de ayudar a que la IA vaya por el camino correcto.
Bueno, es una suposición, pero creo que podría ser porque ya desapareció la barrera de entrada a Rust.
La mayor dificultad era que escribías código y la compilación seguía fallando, pero ahora la IA lo hace por ti.
DIY, el movimiento maker, lo indie, el punk y el código abierto son todos respuestas en contra de la industrialización, el capitalismo y el consumismo, y resulta que para superar sus límites hay que aceptar el consumismo.
Oh... sí, creo que tiene razón.
Las personas tampoco son buenas eligiendo cosas al azar. No debería haber patrones, pero intentar evitarlos deliberadamente también puede considerarse un patrón.
No hay resultados de medición del uso real de tokens para una sola tarea; más bien, parece ser solo una suposición de cuánto se reducirían los reintentos al usar magpie.
La comparación del tiempo de compilación se ve extraña. ¿Por qué comparan ms/token?
Parece que hace falta ordenar una línea de tiempo sobre esto. También se dice que OpenAI estaba en medio de negociaciones contractuales, ¿no?
Siempre lo sigo con mucho interés, gracias.
Parece que hay casos así porque se volvió un poco complicado para x hacer crawling. Vamos a intentar mejorarlo.
Es la primera vez que veo un error de resumen que dice que no hay contenido..
El campo en el que trabajo tampoco es así de extremo, pero hago investigación y desarrollo en el área de IA.
Además de los frameworks que se usan comúnmente, a veces el entorno objetivo donde realmente se despliega el modelo es distinto del entorno en el que se entrenó.
También hay casos en los que ciertas operaciones no están soportadas, así que hay que crear operaciones personalizadas para cada plataforma. En esos casos, muchas veces ni siquiera se puede probar directamente en el entorno de desarrollo.
A veces también modelamos directamente el modelo; aunque se puede escribir código de prueba con ciertos datos, según el dataset los valores cambian de forma probabilística, y fenómenos como que los valores exploten en cierto momento son difíciles de cubrir con código de prueba.
Imagino que debe haber bastantes entornos donde probar sea incluso más difícil que en mi caso.
El enfoque de SQLite es realmente impresionante. Mantener privado un paquete de pruebas que equivale a 590 veces el código significa, al final, que el "verdadero valor del software está en la especificación de su funcionamiento".
De hecho, si hoy en día intentas crear un proyecto con herramientas de programación con IA, con solo el README + la documentación de la API + el código de pruebas de un proyecto existente, puedes replicar sus funciones principales con una rapidez sorprendente. Lo he sentido operando directamente 7 proyectos: paradójicamente, mientras mejor están probados, más fáciles son de copiar.
Sin embargo, hay una parte que se pasó por alto en el caso Cloudflare vs Vercel: "copiar" y "operar" son problemas completamente distintos. Para reproducir los casos límite de Next.js, el ecosistema de plugins e incluso la dependencia de la comunidad, el código de pruebas por sí solo no basta. Al final, parece que el foso competitivo es una combinación de código de pruebas + comunidad + know-how operativo.
Guau
No creo que en este proyecto el GC llegue al punto de ser un problema. Entre "la mayoría de los proyectos recientes", en realidad creo que muchas veces la adopción de un lenguaje de programación cae más en el terreno de las preferencias que en las ventajas o limitaciones de un lenguaje en particular. Aun así, si me preguntaran cuál es la ventaja comparativa que Rust tiene sobre Go como lenguaje de programación de propósito general, yo respondería que es el nivel de abstracción que ofrece Rust y el hecho de que puede detectar varios errores en tiempo de compilación. Por supuesto, Go también tiene ventajas frente a Rust, como la programación asíncrona sencilla, tiempos de compilación rápidos y una sintaxis concisa.
Aunque sea un contrato del mismo nivel, la confianza o la imagen se sienten muy distintas. Creo que ya voy a cancelar mi suscripción a GPT.
Qué desagradable, perdón
Guau, qué genial. Parece que es posible gracias a RustPython. ¡Ojalá tengas muy buenos resultados!
Con Rust, una gran parte de los errores se detectan durante la compilación, así que hasta el hecho de que falle la compilación da la sensación de ayudar a que la IA vaya por el camino correcto.
Ya lo solicité.
Bueno, es una suposición, pero creo que podría ser porque ya desapareció la barrera de entrada a Rust.
La mayor dificultad era que escribías código y la compilación seguía fallando, pero ahora la IA lo hace por ti.
Parece que era una prueba de Joke.
DIY, el movimiento maker, lo indie, el punk y el código abierto son todos respuestas en contra de la industrialización, el capitalismo y el consumismo, y resulta que para superar sus límites hay que aceptar el consumismo.