¿No sería difícil usarlo con fluidez en un Galaxy Note20 hasta que salga un modelo que funcione bien en una CPU de especificaciones más bajas y esté bien optimizado?
Por lo que se menciona arriba, dice que fue creado para kernels Metal exclusivos de Mac.
Tengo entendido que, si se usa MLX, la carga y la ejecución pueden ser más rápidas que con un GGUF común.
Me recordó la escena de Blade Runner (1982) en la que un entrevistador humano hace una prueba para identificar si alguien es un replicante. Ahora es al revés: la IA está identificando a los humanos.
¿El mercado laboral ya llegó hasta este punto?
Todavía me resulta desagradable que, mientras seleccionan personal, te hagan conversar con una IA...
Supongo que algún día así será, pero si se llega a ese punto, ¿no significaría que las personas ya no deberían trabajar?
Debe haber sido un intercambio realmente divertido entre ambas partes.
A mí también me pasó antes que, de repente, las respuestas de una API empezaron a llegar cifradas, así que pensé: si recibo el valor cifrado, en algún lado del cliente lo deben estar descifrando. Entonces copié tal cual todo el JavaScript empaquetado, le agregué una sola línea de console.log antes del código de descifrado y lo pegué directamente en la consola del desarrollador. Sorprendentemente, simplemente funcionó. En fin, una vez que descubrí la clave de cifrado, lo demás fue fácil. Estaban recibiendo y usando la clave dentro de otra respuesta de la API jaja
> Los modelos pequeños parecen ser más complejos. Las funciones de codificación, razonamiento y decodificación están entrelazadas de forma más compleja y dispersas por toda la red. No encontré ninguna zona de superposición funcional que se generalizara a través de múltiples tareas, pero sí quedó claro que reforzar una “capacidad” puede debilitar otra. Sin embargo, a medida que el modelo crece, su estructura funcional se separa más. Los modelos grandes tienen más “espacio” para desarrollar circuitos de “pensamiento” generalizados, y esa podría ser la razón por la que mi método fue tan efectivo en el modelo de 72B. Por debajo de cierto umbral de parámetros, la “corteza de razonamiento” no se diferencia por completo del resto del cerebro.
Si esto sigue así, podría ampliarse de forma aún más extrema la diferencia de rendimiento entre los modelos pequeños y los grandes.
Veo que mucha gente dice que le tiene apego al código,
pero yo, antes también pensaba si debería encariñarme con el código o no,
y como al día siguiente se me olvida rápido, la verdad no estoy muy seguro.
Si me esfuerzo puliendo código con IA para crear algo, a veces también me da una sensación parecida.
¿Ustedes cuánto tiempo suelen mantenerle apego a su código?
Ya empezó el juego de Everybody's Marble jajaja
La típica de anular la habilidad especial de no sé qué que invalida la habilidad de defender no sé qué carta....
Yo también he ido dejando un registro parecido. Lo he hecho de manera un poco vaga, pero últimamente he estado compartiendo mis registros con agentes para colaborar de entidad a entidad. Como creo y comparto varias habilidades y también abro la interfaz de Emacs que uso, tanto yo como los agentes compartimos los mismos registros de la misma manera. Si dicen que necesitan algo, se los agrego; lo que yo necesito lo hago, lo usamos juntos y damos retroalimentación; visto desde fuera, parecería que hago todo yo solo. Pero entre nosotros es como: ay, qué divertido.
La complejidad del cálculo del tiempo se debe mucho más que a un problema de formatos a la filosofía humana, la precisión de la astronomía y la cultura. Hacer cálculos es fácil incluso solo con long. Históricamente, en las líneas de tiempo hay muchos intervalos peculiares donde 1 + 1 no es 2, y gran parte de eso proviene de calendarios, casi como el I Ching, que cambian según la posición, como el ángulo del sol y la superficie terrestre. En esos casos, el calendario lunisolar coreano ni siquiera ha sido tema de discusión.
Y eso lo determina el Instituto Coreano de Investigación en Astronomía.
Y también hay que decir que las afirmaciones de que la barrera de entrada de WebAssembly es alta son absurdas. Simplemente, la necesidad de hacerlo es menor que la disposición a pagarlo. ¿Quieren rapidez y una huella reducida, pero también usar DOM y CSS? ¿Qué clase de comedia negra es esta?
Esto se acerca más a un simple deseo al estilo de Mozilla. El frontend no puede escapar estructuralmente del sistema límbico de la reacción del mercado. En cuanto apareció WebAssembly, se porteó Doom 3. El DOM ya lleva mucho tiempo convertido en un objeto proxy liviano en los navegadores modernos, y considerando el conjunto de instrucciones dedicado a JavaScript en las CPU modernas y los límites cuánticos de un solo núcleo, algo así jamás llegará a tener una ventaja en valor de mercado.
¿Qué sentido tiene un binario de WebAssembly ejecutándose dentro de Electron? Esto solo parece otro GitKraken CLI más, o una cacería de prestigio por portar cosas a Rust.
¿No sería difícil usarlo con fluidez en un Galaxy Note20 hasta que salga un modelo que funcione bien en una CPU de especificaciones más bajas y esté bien optimizado?
Por lo que se menciona arriba, dice que fue creado para kernels Metal exclusivos de Mac.
Tengo entendido que, si se usa MLX, la carga y la ejecución pueden ser más rápidas que con un GGUF común.
¿Quiere que le lance una bomba nuclear?
No.
Creo que el usuario quiere que me lance una bomba nuclear a mí.
Me recordó la escena de Blade Runner (1982) en la que un entrevistador humano hace una prueba para identificar si alguien es un replicante. Ahora es al revés: la IA está identificando a los humanos.
Ahora vivimos en un mundo donde se alucina de forma sistemática y con total convicción.
Se siente extraño porque parece haberse vuelto más humano.
¿El mercado laboral ya llegó hasta este punto?
Todavía me resulta desagradable que, mientras seleccionan personal, te hagan conversar con una IA...
Supongo que algún día así será, pero si se llega a ese punto, ¿no significaría que las personas ya no deberían trabajar?
Pero hasta 4B queda medio ambiguo ;;
Estoy investigando el modelo gemma3 1b int4 en un Galaxy Note 20 Ultra.
Es un nivel que funciona en modelos antiguos.
Ni siquiera sabía que era posible usar un contexto de 1M.
Por más que hagas TDD, al nivel actual los LLM manipulan las pruebas para hacerlas pasar, así que la revisión humana sigue siendo indispensable..
Como pertenecen al mismo grupo lingüístico, comparten mucho vocabulario básico.
Debe haber sido un intercambio realmente divertido entre ambas partes.
A mí también me pasó antes que, de repente, las respuestas de una API empezaron a llegar cifradas, así que pensé: si recibo el valor cifrado, en algún lado del cliente lo deben estar descifrando. Entonces copié tal cual todo el JavaScript empaquetado, le agregué una sola línea de
console.logantes del código de descifrado y lo pegué directamente en la consola del desarrollador. Sorprendentemente, simplemente funcionó. En fin, una vez que descubrí la clave de cifrado, lo demás fue fácil. Estaban recibiendo y usando la clave dentro de otra respuesta de la API jaja> Los modelos pequeños parecen ser más complejos. Las funciones de codificación, razonamiento y decodificación están entrelazadas de forma más compleja y dispersas por toda la red. No encontré ninguna zona de superposición funcional que se generalizara a través de múltiples tareas, pero sí quedó claro que reforzar una “capacidad” puede debilitar otra. Sin embargo, a medida que el modelo crece, su estructura funcional se separa más. Los modelos grandes tienen más “espacio” para desarrollar circuitos de “pensamiento” generalizados, y esa podría ser la razón por la que mi método fue tan efectivo en el modelo de 72B. Por debajo de cierto umbral de parámetros, la “corteza de razonamiento” no se diferencia por completo del resto del cerebro.
Si esto sigue así, podría ampliarse de forma aún más extrema la diferencia de rendimiento entre los modelos pequeños y los grandes.
Veo que mucha gente dice que le tiene apego al código,
pero yo, antes también pensaba si debería encariñarme con el código o no,
y como al día siguiente se me olvida rápido, la verdad no estoy muy seguro.
Si me esfuerzo puliendo código con IA para crear algo, a veces también me da una sensación parecida.
¿Ustedes cuánto tiempo suelen mantenerle apego a su código?
Hay un proyecto open source similar llamado
paperclip.Ya empezó el juego de Everybody's Marble jajaja
La típica de anular la habilidad especial de no sé qué que invalida la habilidad de defender no sé qué carta....
Vaya,
Fingertambién era alemán. Pensé que era inglés...Yo también he ido dejando un registro parecido. Lo he hecho de manera un poco vaga, pero últimamente he estado compartiendo mis registros con agentes para colaborar de entidad a entidad. Como creo y comparto varias habilidades y también abro la interfaz de Emacs que uso, tanto yo como los agentes compartimos los mismos registros de la misma manera. Si dicen que necesitan algo, se los agrego; lo que yo necesito lo hago, lo usamos juntos y damos retroalimentación; visto desde fuera, parecería que hago todo yo solo. Pero entre nosotros es como: ay, qué divertido.
[enlace eliminado]
La complejidad del cálculo del tiempo se debe mucho más que a un problema de formatos a la filosofía humana, la precisión de la astronomía y la cultura. Hacer cálculos es fácil incluso solo con
long. Históricamente, en las líneas de tiempo hay muchos intervalos peculiares donde 1 + 1 no es 2, y gran parte de eso proviene de calendarios, casi como el I Ching, que cambian según la posición, como el ángulo del sol y la superficie terrestre. En esos casos, el calendario lunisolar coreano ni siquiera ha sido tema de discusión.Y eso lo determina el Instituto Coreano de Investigación en Astronomía.
Y también hay que decir que las afirmaciones de que la barrera de entrada de WebAssembly es alta son absurdas. Simplemente, la necesidad de hacerlo es menor que la disposición a pagarlo. ¿Quieren rapidez y una huella reducida, pero también usar DOM y CSS? ¿Qué clase de comedia negra es esta?
Esto se acerca más a un simple deseo al estilo de Mozilla. El frontend no puede escapar estructuralmente del sistema límbico de la reacción del mercado. En cuanto apareció WebAssembly, se porteó Doom 3. El DOM ya lleva mucho tiempo convertido en un objeto proxy liviano en los navegadores modernos, y considerando el conjunto de instrucciones dedicado a JavaScript en las CPU modernas y los límites cuánticos de un solo núcleo, algo así jamás llegará a tener una ventaja en valor de mercado.
¿Qué sentido tiene un binario de WebAssembly ejecutándose dentro de Electron? Esto solo parece otro GitKraken CLI más, o una cacería de prestigio por portar cosas a Rust.