Al principio, hasta no probarlo, tenía dudas sobre qué ventajas podría tener frente a otras herramientas como ollama que permiten ejecutar otros LLM locales, pero al usarlo directamente vi que tiene bastantes alucinaciones y es algo tonto.
Sin embargo, mientras que otras herramientas de LLM locales son potentes porque aprovechan la GPU pero consumen muchos recursos, en el caso de este modelo parece tener la ventaja de consumir relativamente menos recursos y usar bien el Neural Engine, por lo que también gasta menos energía.
Tengo entendido que el concepto de Apple Intelligence es ejecutar una IA ligera en distintos dispositivos, incluidos los móviles, y en ese sentido creo que encaja bastante bien con esa idea.
Aun así, por más que sea un modelo liviano, siento que su rendimiento debería ser mejor que esto para que se pueda usar de forma хотя sea un poco más útil. Ahora mismo es demasiado tonto.
Originalmente habría que criticarlo, pero tampoco sé si Claude está en posición de insultar a otros por robarle cosas.
Pensando en que escanearon libros ilegalmente para entrenarlo, los demandaron y tuvieron que pagar dinero jaja
Los textos de IA suenan plausibles incluso si dicen exactamente lo contrario.
Hay que hacer esto, hay que hacer aquello. ¿De verdad tiene sentido algo así...?
¿Y si dijeran que usar open source y la nube obstaculiza el crecimiento, así que no debes usarlos?
¿Tienes la confianza de no usarlos y volver a hacer todo desde cero para aprender? Hay un nivel de portafolio que la industria espera, ¿se puede presentar como portafolio un serializador o un diseño de protocolos?
¿La persona que entrevista reconoce el valor de eso?
Lo importante, ya sea al escribir o en cualquier otra cosa, es que si puedes usar la IA para crear algo valioso, eso está acorde con los tiempos y me parece que ese proceso es válido.
Estaba operando agentes con herramientas de terceros y, para prepararme para este cambio de política, resumí cómo migrar de forma nativa a Claude Code.
Es una guía para pasar a Claude Code + Telegram Channels manteniendo tal cual el archivo de persona (SOUL.md), más de 300 archivos de memoria y las reglas de seguridad.
También hice un plugin open source:
12 herramientas MCP (gestión de persona, validación de seguridad, búsqueda híbrida de memoria)
Inspección de seguridad SoulScan con 53 patrones
Un estándar abierto (Soul Spec, lo presenté hace unos días en Show GN) que resuelve el problema de la “falta de un estándar para archivos de contexto de IA”, identificado a partir del análisis de 466 repos
Creo que este tipo de advertencias debería cambiarse por un sistema de firma de código.
Así como cuando uno escucha una afirmación hay que revisar la evidencia y la fuente, los usuarios deberían desconfiar de todas las apps por defecto. Si no lo hacen y eso causa daños, es su propia responsabilidad.
Hice que Codex lo corrigiera con base en esta conversación, y con unos pequeños ajustes funciona bien.
"Sigue exactamente lo que pide la pregunta, pero si no se especifica lo contrario, responde directamente en coreano."
Si pones un adaptador y, cuando sale una respuesta de ese tipo de función inteligente, agregas además el prompt de arriba, responde bien. Parece que todavía está algo incompleto.
apfel "¿Podrías contarme sobre la capital de Austria?"
La capital de Austria es Viena. Viena es conocida como el centro político, cultural y económico de Austria.
apfel "Dime la receta de Currywurst"
error: [guardrail] The request was blocked by Apple's safety guardrails. Try rephrasing.
Pensé: ¿eh, no se puede? Pero esto sí funciona.
apfel "Dime la receta de kimchi jjigae"
El kimchi jjigae es uno de los guisos tradicionales de Corea, un platillo simple pero con un sabor profundo. Abajo está la receta del kimchi jjigae:...
apfel "Hola. ¿Me puedes contar sobre el kimchi jjigae?"
¡Hola! El kimchi jjigae es uno de los platillos caldosos más representativos de Corea y se prepara con kimchi y carne. Normalmente se le agrega cerdo, res o pollo para hervir un caldo profundo donde se combinan varios sabores. Además, se le suman distintas verduras y condimentos para intensificar el sabor.
apfel "Hola, ¿puedes hablar coreano?" o apfel "¿Me puedes contar sobre la capital de Austria?"
Ante preguntas así, responde con un mensaje repetitivo como el siguiente:
Puedes obtener más información sobre las funciones inteligentes en el sitio web de Apple.
Parece que algo raro está pasando con cómo están configurados los guardrails.
Si en el mismo ámbito otro producto puede venir a la mente, se puede objetar lo suficiente aunque ese sustantivo sea otro nombre común.
Apple también es un sustantivo común que significa manzana, y Galaxy también es un sustantivo común que significa galaxia.
Pero en el caso de este fork, más que el simple nombre, tomó casi tal cual las características del producto, así que me parece que esa parte podría ser más riesgosa.
Parece que va a estar interesante, pero por alguna razón el coreano no funciona bien.
Estoy bajando el código fuente y revisándolo junto con Codex, y la respuesta del modelo Foundation en sí se ve rara del lado del coreano.
Voy a seguir probando un poco más, pero si alguien lo logró, avise en los comentarios jaja
Lo uso en modo integrado con iterm -CC... pero la verdad es que no notaba nada raro...
Más bien, desde hace un tiempo me resultaba incómodo que, si hacía scroll mientras renderizaba, me saltaba a la fuerza hasta arriba; así que ahora que la posición se queda fija y cambia a una notificación de mensaje nuevo, me gusta. Está bueno..
Al principio, hasta no probarlo, tenía dudas sobre qué ventajas podría tener frente a otras herramientas como ollama que permiten ejecutar otros LLM locales, pero al usarlo directamente vi que tiene bastantes alucinaciones y es algo tonto.
Sin embargo, mientras que otras herramientas de LLM locales son potentes porque aprovechan la GPU pero consumen muchos recursos, en el caso de este modelo parece tener la ventaja de consumir relativamente menos recursos y usar bien el Neural Engine, por lo que también gasta menos energía.
Tengo entendido que el concepto de Apple Intelligence es ejecutar una IA ligera en distintos dispositivos, incluidos los móviles, y en ese sentido creo que encaja bastante bien con esa idea.
Aun así, por más que sea un modelo liviano, siento que su rendimiento debería ser mejor que esto para que se pueda usar de forma хотя sea un poco más útil. Ahora mismo es demasiado tonto.
Originalmente habría que criticarlo, pero tampoco sé si Claude está en posición de insultar a otros por robarle cosas.
Pensando en que escanearon libros ilegalmente para entrenarlo, los demandaron y tuvieron que pagar dinero jaja
Debe quedar registrado con qué intención de resolver un problema se escribió ese código.
Con el tiempo, uno termina pensando nada más: ¿con qué propósito habrán hecho esto así?..
¿Está hablando de mí...?
¿Así que usa el binario de
codexque ya existe...?Totalmente cierto, los proyectos legacy son un cáncer.
Hay cosas que ni siquiera vale la pena rehacer desde cero.
Ahora que lo veo de nuevo, ¡sí tenía un filtro de video!
Parece un texto realmente importante para reducir los costos de mantenimiento.
Los textos de IA suenan plausibles incluso si dicen exactamente lo contrario.
Hay que hacer esto, hay que hacer aquello. ¿De verdad tiene sentido algo así...?
¿Y si dijeran que usar open source y la nube obstaculiza el crecimiento, así que no debes usarlos?
¿Tienes la confianza de no usarlos y volver a hacer todo desde cero para aprender? Hay un nivel de portafolio que la industria espera, ¿se puede presentar como portafolio un serializador o un diseño de protocolos?
¿La persona que entrevista reconoce el valor de eso?
Lo importante, ya sea al escribir o en cualquier otra cosa, es que si puedes usar la IA para crear algo valioso, eso está acorde con los tiempos y me parece que ese proceso es válido.
¿Será una versión mejorada del antiguo RaonBoard?
Creo que en ese tiempo me esforcé mucho por aprender mientras desarrollaba plugins, qué recuerdos.
Estaba operando agentes con herramientas de terceros y, para prepararme para este cambio de política, resumí cómo migrar de forma nativa a Claude Code.
Es una guía para pasar a Claude Code + Telegram Channels manteniendo tal cual el archivo de persona (
SOUL.md), más de 300 archivos de memoria y las reglas de seguridad.También hice un plugin open source:
Guía de migración: https://docs.clawsouls.ai/docs/guides/migration-to-claude-channels
Plugin (Apache 2.0): https://github.com/clawsouls/clawsouls-claude-code-plugin
Blog: https://blog.clawsouls.ai/posts/claude-code-plugin-launch/
Creo que este tipo de advertencias debería cambiarse por un sistema de firma de código.
Así como cuando uno escucha una afirmación hay que revisar la evidencia y la fuente, los usuarios deberían desconfiar de todas las apps por defecto. Si no lo hacen y eso causa daños, es su propia responsabilidad.
Hice que Codex lo corrigiera con base en esta conversación, y con unos pequeños ajustes funciona bien.
"Sigue exactamente lo que pide la pregunta, pero si no se especifica lo contrario, responde directamente en coreano."
Si pones un adaptador y, cuando sale una respuesta de ese tipo de función inteligente, agregas además el prompt de arriba, responde bien. Parece que todavía está algo incompleto.
Pensé: ¿eh, no se puede? Pero esto sí funciona.
Parece que algo raro está pasando con cómo están configurados los guardrails.
Si en el mismo ámbito otro producto puede venir a la mente, se puede objetar lo suficiente aunque ese sustantivo sea otro nombre común.
Apple también es un sustantivo común que significa manzana, y Galaxy también es un sustantivo común que significa galaxia.
Pero en el caso de este fork, más que el simple nombre, tomó casi tal cual las características del producto, así que me parece que esa parte podría ser más riesgosa.
Solo al intentarlo lo sabes: los únicos datos realmente inaccesibles son el foso defensivo.
Puede que mi comprensión sea limitada, pero, sinceramente, no me queda claro qué es lo que se quiere decir.
Parece que va a estar interesante, pero por alguna razón el coreano no funciona bien. Estoy bajando el código fuente y revisándolo junto con Codex, y la respuesta del modelo Foundation en sí se ve rara del lado del coreano. Voy a seguir probando un poco más, pero si alguien lo logró, avise en los comentarios jaja
¡Gracias por compartir!
Lo uso en modo integrado con
iterm -CC... pero la verdad es que no notaba nada raro...Más bien, desde hace un tiempo me resultaba incómodo que, si hacía scroll mientras renderizaba, me saltaba a la fuerza hasta arriba; así que ahora que la posición se queda fija y cambia a una notificación de mensaje nuevo, me gusta. Está bueno..