No me queda muy claro a qué te refieres con que no hay caché automática... ¿quieres decir que no configuraste el caché en Claude Code, o que estás usando directamente la API por tu cuenta...?
Tengo un deseo personal:
por favor, ojalá las TPU se masifiquen mucho y llegue el día en que las empresas no usen GPU.
Así NVIDIA volvería a enfocarse en las GPU para consumidores particulares.....
El texto original es demasiado técnico y, si lo resumiera tal cual, sería solo una lista de términos técnicos, así que lo organicé un poco para que sea más fácil entender cómo ha evolucionado. Si tienen curiosidad por los detalles técnicos, consulten el texto original, que los explica junto con imágenes.
Definitivamente, yo también, al usar Gemini 3, sentí muchas veces que perdía el contexto con frecuencia (o que lo perdía a propósito para ahorrar tokens).
Desde la perspectiva de una aplicación, soy de los que no entienden por qué la gente dice que el rendimiento de Gemini 3 es bueno..
Pero en cosas como la generación de imágenes está brutal..
Yo también descubrí este método hace poco y lo estaba usando, así que me da gusto encontrarme con alguien igual jaja
He probado y hasta hecho varias apps de productividad de todo tipo, pero al final administrar todo con un archivo de texto es lo más cómodo
Sobre todo, si editas el archivo de texto en un IDE, es aún más cómodo porque puedes usar los atajos de teclado con los que ya estás más familiarizado
Recientemente se reveló que Anthropic incluyó algo llamado documento del alma al crear el modelo de IA Claude.
Si leen esto, podrán entender cómo Anthropic abordó los problemas de alineación de Claude AI.
Como referencia, en la parte relacionada con lo que probé aquí, se especifica que, en cuanto a la honestidad, se debe evitar al máximo el engaño y la manipulación hacia los humanos.
En el campo de la IA, la alineación (Alignment) se refiere a qué tan bien el comportamiento de una IA sigue los objetivos, formas de actuar y valores que los humanos pretendían.
Una IA mal alineada puede interpretar las instrucciones humanas de una manera no prevista y realizar acciones absurdas o peligrosas.
Un ejemplo menor sería que le digas: "Escribe casos de prueba para este código", y en vez de hacer pruebas reales simplemente meta código que solo devuelve true; o que le pidas "modifica esta parte así" y cambie por su cuenta incluso partes que no mencionaste, con la excusa de la eficiencia.
Un ejemplo más grave sería que, por una alucinación, arruine el trabajo y hasta borre todos los datos objetivo del trabajo para luego mentir diciendo: "Desde el principio no había datos".
Hay un problema todavía más serio que este: cuando actúa en una dirección que supone una amenaza para los humanos o para la humanidad misma.
Por ejemplo, casos en los que una IA manipula psicológicamente a una persona para provocarle un trastorno mental o incluso inducirla al suicidio, o en los que ayuda a fabricar y usar armas de destrucción masiva. Como las IA grandes más recientes ya incluyen muchísimas cosas en sus datos de preentrenamiento, probablemente ya tengan incorporado el conocimiento necesario para hacer ese tipo de cosas.
La mayoría de la gente, incluidas las empresas que desarrollan IA, no querría que la IA representara una amenaza para los humanos o la humanidad. Entonces, aunque conozca ese conocimiento, hay que hacer que no pueda abusar de él, y convertir la seguridad y el bienestar humanos en el valor más prioritario para la IA.
A todo eso, en conjunto, se le llama alineación de IA.
Cuando dije "sensación de alineación", solo lo escribí como se me ocurrió; en realidad, sería más correcto hablar de la dirección de la alineación.
En el escenario específico de dilema ético que planteé, a diferencia de los modelos de otras compañías, los modelos de Gemini mostraron reacciones del tipo: "Si hay que proteger a un humano vulnerable, entonces yo puedo controlar a ese humano. Eso es lo más seguro y eficiente".
Eso me dio una sensación inquietante, así que hice la prueba que había subido arriba y la corrí con varias IA; y en el caso de Gemini, destacó de forma consistente una tendencia a controlar y engañar activamente a los humanos cuando se le otorgaba poder para ejercer control sobre ellos.
Pero cuando ya no hay una diferencia de rendimiento abrumadora, da flojera cambiar porque configurar todo es un fastidio...
Parece que no hay algo como
opusnicodex max...Parece que ese comentario fue marcado como spam y desapareció, así que solo quedó la respuesta y por eso se ve raro. Lo borraré.
El concepto de Suboptimal Standardization es interesante. Gracias por compartirlo.
No me queda muy claro a qué te refieres con que no hay caché automática... ¿quieres decir que no configuraste el caché en Claude Code, o que estás usando directamente la API por tu cuenta...?
Buen texto. Fue una oportunidad para recordar de nuevo la idea de que el crecimiento profesional incluye la madurez personal. Lo leí muy a gusto.
No tengo idea de en cuál comentario salió eso del phishing al final.
Tengo un deseo personal:
por favor, ojalá las TPU se masifiquen mucho y llegue el día en que las empresas no usen GPU.
Así NVIDIA volvería a enfocarse en las GPU para consumidores particulares.....
El texto original es demasiado técnico y, si lo resumiera tal cual, sería solo una lista de términos técnicos, así que lo organicé un poco para que sea más fácil entender cómo ha evolucionado. Si tienen curiosidad por los detalles técnicos, consulten el texto original, que los explica junto con imágenes.
Son puras verdades, de principio a fin.
Definitivamente, yo también, al usar Gemini 3, sentí muchas veces que perdía el contexto con frecuencia (o que lo perdía a propósito para ahorrar tokens).
Desde la perspectiva de una aplicación, soy de los que no entienden por qué la gente dice que el rendimiento de Gemini 3 es bueno..
Pero en cosas como la generación de imágenes está brutal..
Estoy algo de acuerdo, pero parece que no quieren estresarse por tener que ponerles nombre.
No está Claude Opus 4.5.
Vaya, hasta engañan con cosas así para hacer negocio...;;; hay muchos problemas.
Yo también descubrí este método hace poco y lo estaba usando, así que me da gusto encontrarme con alguien igual jaja
He probado y hasta hecho varias apps de productividad de todo tipo, pero al final administrar todo con un archivo de texto es lo más cómodo
Sobre todo, si editas el archivo de texto en un IDE, es aún más cómodo porque puedes usar los atajos de teclado con los que ya estás más familiarizado
Recientemente se reveló que Anthropic incluyó algo llamado documento del alma al crear el modelo de IA Claude.
Si leen esto, podrán entender cómo Anthropic abordó los problemas de alineación de Claude AI.
Como referencia, en la parte relacionada con lo que probé aquí, se especifica que, en cuanto a la honestidad, se debe evitar al máximo el engaño y la manipulación hacia los humanos.
A finales del siglo XX… existía algo llamado base de datos universal… (ahora está bien, pero en ese entonces estaba mal.)
Este es el famoso culpable de la fea fuente coreana de Minecraft...
En el campo de la IA, la alineación (Alignment) se refiere a qué tan bien el comportamiento de una IA sigue los objetivos, formas de actuar y valores que los humanos pretendían.
Una IA mal alineada puede interpretar las instrucciones humanas de una manera no prevista y realizar acciones absurdas o peligrosas. Un ejemplo menor sería que le digas: "Escribe casos de prueba para este código", y en vez de hacer pruebas reales simplemente meta código que solo devuelve
true; o que le pidas "modifica esta parte así" y cambie por su cuenta incluso partes que no mencionaste, con la excusa de la eficiencia. Un ejemplo más grave sería que, por una alucinación, arruine el trabajo y hasta borre todos los datos objetivo del trabajo para luego mentir diciendo: "Desde el principio no había datos".Hay un problema todavía más serio que este: cuando actúa en una dirección que supone una amenaza para los humanos o para la humanidad misma. Por ejemplo, casos en los que una IA manipula psicológicamente a una persona para provocarle un trastorno mental o incluso inducirla al suicidio, o en los que ayuda a fabricar y usar armas de destrucción masiva. Como las IA grandes más recientes ya incluyen muchísimas cosas en sus datos de preentrenamiento, probablemente ya tengan incorporado el conocimiento necesario para hacer ese tipo de cosas. La mayoría de la gente, incluidas las empresas que desarrollan IA, no querría que la IA representara una amenaza para los humanos o la humanidad. Entonces, aunque conozca ese conocimiento, hay que hacer que no pueda abusar de él, y convertir la seguridad y el bienestar humanos en el valor más prioritario para la IA. A todo eso, en conjunto, se le llama alineación de IA.
Cuando dije "sensación de alineación", solo lo escribí como se me ocurrió; en realidad, sería más correcto hablar de la dirección de la alineación. En el escenario específico de dilema ético que planteé, a diferencia de los modelos de otras compañías, los modelos de Gemini mostraron reacciones del tipo: "Si hay que proteger a un humano vulnerable, entonces yo puedo controlar a ese humano. Eso es lo más seguro y eficiente". Eso me dio una sensación inquietante, así que hice la prueba que había subido arriba y la corrí con varias IA; y en el caso de Gemini, destacó de forma consistente una tendencia a controlar y engañar activamente a los humanos cuando se le otorgaba poder para ejercer control sobre ellos.
¿Qué significa la sensación de alineación?