Muchas gracias por sus buenos comentarios. El punto que mencionó sobre que se necesita state para reducir la latencia acierta exactamente el trade-off central de nuestra arquitectura.
En primer lugar, con respecto a la latencia de consulta, en nuestros benchmarks el p99 (percentil 99) está alrededor de 130-210 ms. Supongo que cuando comentó que la diferencia era de 100 veces, probablemente se refería al peor caso mencionado en el texto: que durante un cold start puede tardar unos segundos. Como bien señaló, esta parte es claramente una desventaja de nuestra arquitectura, y como se indica en el texto, sucede en producción en menos del 0.01% (P99.99). En la mayoría del resto de consultas, el diseño aprovecha la memoria local y el disco de cada Lambda como caché para ofrecer un rendimiento estable.
Por ello, como usted indicó, puede que esta arquitectura no sea adecuada para sistemas de transacciones financieras de latencia ultrabaja, donde se deba garantizar que todas las consultas sean inferiores a 10 ms. Sin embargo, en la mayoría de las aplicaciones de búsqueda y recomendación basadas en IA, una latencia de 100-200 ms en P99 se considera un rendimiento suficientemente bueno, y creo que la ventaja de reducir en más de un 90% los costos de infraestructura y la carga operativa es mucho mayor.
Los desarrolladores de los que se habla cuando se dice que no están preocupados probablemente se refiere a seniors con cierta trayectoria. De por sí, desde la perspectiva de la empresa ya hay menos razones para contratar recién egresados, y ahora además apareció la IA; y es más que obvio que quienes mejor la van a aprovechar son los seniors....
El problema es que los juniors no logran subirse a la ola y, aun si consiguen meterse a fondo en ella, están a punto de ser arrastrados por la corriente.
La idea es buena, pero para reducir la latencia de consulta se necesita necesariamente estado. En comparación con MySQL, PostgreSQL, etc., el tiempo de latencia de consulta parece ser casi 100 veces mayor. Es casi como escribir y leer en el sistema de archivos.
Leyendo el artículo, me hizo pensar en la app TaskPaper. Está basada en texto plano y funciona con un enfoque de outliner...
Yo llevo usando solo Things desde hace un poco más de 10 años, y al final es la que me resulta más cómoda.
Entre las funciones de Things para macOS, quick entry Autofill me parece demasiado atractiva, así que...
Gracias, seguro que será de mucha ayuda ✌️
Al principio lo armé con n8n, pero luego me cambié a AWS Lambda + @ 🙇♂️
Así lo estoy administrando jaja
Les recomiendo intentar hacer uno, es divertido 👍
Muchas gracias por sus buenos comentarios. El punto que mencionó sobre que se necesita
statepara reducir la latencia acierta exactamente el trade-off central de nuestra arquitectura.En primer lugar, con respecto a la latencia de consulta, en nuestros benchmarks el p99 (percentil 99) está alrededor de 130-210 ms. Supongo que cuando comentó que la diferencia era de 100 veces, probablemente se refería al peor caso mencionado en el texto: que durante un cold start puede tardar unos segundos. Como bien señaló, esta parte es claramente una desventaja de nuestra arquitectura, y como se indica en el texto, sucede en producción en menos del 0.01% (P99.99). En la mayoría del resto de consultas, el diseño aprovecha la memoria local y el disco de cada Lambda como caché para ofrecer un rendimiento estable.
Por ello, como usted indicó, puede que esta arquitectura no sea adecuada para sistemas de transacciones financieras de latencia ultrabaja, donde se deba garantizar que todas las consultas sean inferiores a 10 ms. Sin embargo, en la mayoría de las aplicaciones de búsqueda y recomendación basadas en IA, una latencia de 100-200 ms en P99 se considera un rendimiento suficientemente bueno, y creo que la ventaja de reducir en más de un 90% los costos de infraestructura y la carga operativa es mucho mayor.
Gracias de nuevo por su comentario tan detallado.
Como pesa 65 GB... qué lástima 🥲
Es un servicio que yo también pensé en intentar hacer, pero al final no pude jaja.
¿De casualidad lo configuraste con n8n??
Los desarrolladores de los que se habla cuando se dice que no están preocupados probablemente se refiere a seniors con cierta trayectoria. De por sí, desde la perspectiva de la empresa ya hay menos razones para contratar recién egresados, y ahora además apareció la IA; y es más que obvio que quienes mejor la van a aprovechar son los seniors....
El problema es que los juniors no logran subirse a la ola y, aun si consiguen meterse a fondo en ella, están a punto de ser arrastrados por la corriente.
Pero al final, AEO y GEO también tienen áreas que se traslapan con el SEO....
Ahora tendré algo para ver cada mañana. Me suscribí.
Quien se oponga a la ola o huya será arrastrado por ella; quien la surfee la disfrutará...
Parece que fue hecho con una imagen generada por un LLM, pero se ve bien.
Creo que también voy a probarlo de forma similar.
Gracias 👏
Pensé que con 32 GB sería suficiente...
encoding/jsonv1 vs v2 en Go 1.25: https://gosuda.org/ko/blog/…Primero que nada, no corre en lm studio en una M4 Max de 64 GB :(
¡Lo simple es lo mejor!
Me suscribí. 👍
La idea es buena, pero para reducir la latencia de consulta se necesita necesariamente estado. En comparación con MySQL, PostgreSQL, etc., el tiempo de latencia de consulta parece ser casi 100 veces mayor. Es casi como escribir y leer en el sistema de archivos.
Leyendo el artículo, me hizo pensar en la app TaskPaper. Está basada en texto plano y funciona con un enfoque de outliner...
Yo llevo usando solo Things desde hace un poco más de 10 años, y al final es la que me resulta más cómoda.
Entre las funciones de Things para macOS, quick entry Autofill me parece demasiado atractiva, así que...