Parece que 505studio del enlace de latpeed = mobeah (https://x.com/mobeahmi). Supongo que tampoco habría sido un gran problema si simplemente lo hubiera publicado diciendo que lo tradujo él mismo.
Si no hubiera cosas como React o Vue,
aunque implementes la misma funcionalidad, tendrías que hacerlo con código más complejo, ¿no?
Sobre todo al manejar pop-ups, incluso pasar una sola prop en JavaScript puro hace que el código se vuelva mucho más complejo.
Si incluso algo tan simple termina con código complicado, entonces
las funciones realmente complejas se vuelven difíciles de implementar.
Si es un runtime de CPU que se usa solo para inferencia simple, la cosa está un poco mejor, pero con los servicios de LLM que se piden hoy en día, tanto el tráfico como la capacidad siguen creciendo, así que dan ganas de maldecir cuando haces el cálculo de costos jajaja
Hay muchas cosas con las que es fácil identificarse.
Los comentarios también son buenos, pero cuando alguien lo organiza y lo expresa así, o sea, cuando pone la mesa para la discusión, siento que se vuelve algo más completo a través de las objeciones, el apoyo y los aportes adicionales al respecto.
Posdata: últimamente veo seguido la expresión "tecnología aburrida"; en inglés sería boring technology.
> Por el contrario, si se trata de trabajo de "solo hacer que funcione", usar IA puede ser eficiente.
No solo entre los desarrolladores, pero como hay personas con perfiles muy distintos, siento que entre quienes terminaron siendo desarrolladores por casualidad y no les gusta o incluso les da miedo escribir o revisar código, y tienen una mentalidad de que mientras funcione basta en vez de interpretar las cosas desde una perspectiva de estructura sistemática o mantenimiento, tiende a ser más fuerte la dependencia o la fe ciega en la IA. O quizá no sea así.
Hay paquetes cuyas dependencias de pytorch+cuda solo difieren en la versión... es todo un espectáculo.
Aunque casi no hacen nada, por cada pequeño daemon se terminan instalando cerca de 2 GB de dependencias..
Yo también, por necesidad, estoy armando una solución RAG usando nada menos que 4 GPU H100, de esas tan difíciles de conseguir, pero considerando no solo la inversión directa en hardware sino también la factura de electricidad, los costos de refrigeración y demás, no dejaba de pensar que simplemente llamar a una API sería mucho mejor.
Yo también empecé probando con Ollama al principio, y en cuanto confirmé que ni siquiera podía cubrir bien 3 usuarios concurrentes, pasé enseguida a vLLM y, entre una cosa y otra, armé una solución RAG, pero (asumiendo 10 usuarios concurrentes) solo para esto ya casi tengo que usar 2 GPU H100 prácticamente al máximo. También levanto en vLLM las tareas de embeddings y de búsqueda, así que 4 H100 realmente quedan muy justas. Y eso que cada tarjeta tiene alrededor de 90 GB de VRAM.
Claro, yo en realidad no sé mucho de AI, y como fui ajustando lo necesario para el departamento junto con las políticas internas de seguridad, simplemente lo he estado intentando a la fuerza... pero me pregunto si esto realmente tiene sentido. ¿Era ChatGPT Enterprise? Realmente me parece que tiene un precio increíblemente conveniente.
Yo también tenía una idea parecida, pero me costaba expresarla con claridad.
Modelo mental es un nombre muy acertado. Voy a tratar de usarlo de vez en cuando.
¡Gracias~!
Parece que 505studio del enlace de latpeed = mobeah (https://x.com/mobeahmi). Supongo que tampoco habría sido un gran problema si simplemente lo hubiera publicado diciendo que lo tradujo él mismo.
Si no hubiera cosas como React o Vue,
aunque implementes la misma funcionalidad, tendrías que hacerlo con código más complejo, ¿no?
Sobre todo al manejar pop-ups, incluso pasar una sola
propen JavaScript puro hace que el código se vuelva mucho más complejo.Si incluso algo tan simple termina con código complicado, entonces
las funciones realmente complejas se vuelven difíciles de implementar.
https://godotengine.org/article/godot-showcase-dogwalk/
La entrevista en el blog de Godot y
https://studio.blender.org/blog/our-workflow-with-blender-and-godot/
el artículo sobre cómo el equipo de desarrollo de Blender construyó su flujo de trabajo con Godot y cómo gestionó los recursos son muy interesantes, así que los recomiendo muchísimo.
https://drive.google.com/file/d/…
Míralo aquí sin ingresar ningún número.
¿La persona que escribió este artículo es el director ejecutivo Ahn Kwang-seop de la empresa ThreeBlocks.ai?
¿Cuál es la razón para recopilar números de teléfono?
Quiero verlo, pero me hace dudar el hecho de que tenga que ingresar mi número para poder recibirlo.
Como Estados Unidos es tan grande, supongo que hasta este tipo de iniciativas son posibles. Qué interesante.
Es una buena noticia jaja. ¡Ojalá agreguen compatibilidad con CUDA pronto para que también se pueda entrenar a alta velocidad en Mac!
Al final, termina el desarrollo anticipando con precisión el problema de cómo se van a fusionar las ramas divergentes.
Importa tanto como lo del
prototypesi existe o no...También cómo se referencia la función de orden superior que se crea...
Es una complejidad inevitable. Ya no es como antes, cuando era un HTML de plantilla simple.
Si es un runtime de CPU que se usa solo para inferencia simple, la cosa está un poco mejor, pero con los servicios de LLM que se piden hoy en día, tanto el tráfico como la capacidad siguen creciendo, así que dan ganas de maldecir cuando haces el cálculo de costos jajaja
Hay muchas cosas con las que es fácil identificarse.
Los comentarios también son buenos, pero cuando alguien lo organiza y lo expresa así, o sea, cuando pone la mesa para la discusión, siento que se vuelve algo más completo a través de las objeciones, el apoyo y los aportes adicionales al respecto.
Posdata: últimamente veo seguido la expresión "tecnología aburrida"; en inglés sería boring technology.
> Por el contrario, si se trata de trabajo de "solo hacer que funcione", usar IA puede ser eficiente.
No solo entre los desarrolladores, pero como hay personas con perfiles muy distintos, siento que entre quienes terminaron siendo desarrolladores por casualidad y no les gusta o incluso les da miedo escribir o revisar código, y tienen una mentalidad de que mientras funcione basta en vez de interpretar las cosas desde una perspectiva de estructura sistemática o mantenimiento, tiende a ser más fuerte la dependencia o la fe ciega en la IA. O quizá no sea así.
Hay paquetes cuyas dependencias de
pytorch+cudasolo difieren en la versión... es todo un espectáculo.Aunque casi no hacen nada, por cada pequeño daemon se terminan instalando cerca de 2 GB de dependencias..
Yo también, por necesidad, estoy armando una solución RAG usando nada menos que 4 GPU H100, de esas tan difíciles de conseguir, pero considerando no solo la inversión directa en hardware sino también la factura de electricidad, los costos de refrigeración y demás, no dejaba de pensar que simplemente llamar a una API sería mucho mejor.
Yo también empecé probando con Ollama al principio, y en cuanto confirmé que ni siquiera podía cubrir bien 3 usuarios concurrentes, pasé enseguida a vLLM y, entre una cosa y otra, armé una solución RAG, pero (asumiendo 10 usuarios concurrentes) solo para esto ya casi tengo que usar 2 GPU H100 prácticamente al máximo. También levanto en vLLM las tareas de embeddings y de búsqueda, así que 4 H100 realmente quedan muy justas. Y eso que cada tarjeta tiene alrededor de 90 GB de VRAM.
Claro, yo en realidad no sé mucho de AI, y como fui ajustando lo necesario para el departamento junto con las políticas internas de seguridad, simplemente lo he estado intentando a la fuerza... pero me pregunto si esto realmente tiene sentido. ¿Era ChatGPT Enterprise? Realmente me parece que tiene un precio increíblemente conveniente.
Yo también tenía una idea parecida, pero me costaba expresarla con claridad.
Modelo mental es un nombre muy acertado. Voy a tratar de usarlo de vez en cuando.
¿¿Desde 150 dólares por hora? Hasta el control de variables jajajaja