Por fin salió este tema también. Llevo mucho tiempo cultivando un jardín y creando un arnés sobre este tema, así que para mí es algo muy bienvenido. El know-how del profesor Kaparthy es interesante. Parece que, más que la dificultad técnica del PKM en sí, lo importante es cómo cada persona acumula conocimiento a largo plazo, lo estructura y lo comparte con una inteligencia ajena, mientras el ser humano va encontrando un modelo de coevolución mutua en ese proceso. Es decir, ¿será que la pregunta ha vuelto al ser humano? Algo así como: ¿está el ser humano preparado para estar con nosotros? No hay una respuesta correcta como tal; cada quien tendrá que ir construyéndola con sus propias preguntas. Me entusiasma. Gracias a GeekNews por esta noticia.
Personalmente, lo que me parece curioso es que incluso los youtubers que hacen entrevistas o comentarios en YouTube también son muy favorables al respecto.
Hace poco parece que en Reddit, en r/programming, implementaron una política para prohibir publicaciones relacionadas con LLM.
Creo que al ver textos como este se puede entender un poco por qué la adoptaron.
Ni siquiera crean un servicio real y se dedican a hypear sitios web PoC que usan Supabase, tratan a las empresas tecnológicas y a los desarrolladores profesionales como si fueran idiotas, y hasta muestran una ética de querer, como sea, ganar algo de influencia filtrando tecnología.
Me parece un desastre total.
Está bien ordenado, pero al final el trabajo sigue siendo el mismo y no ha cambiado nada; termina convergiendo en compartamos conocimiento para que yo también pueda trabajar con IA.
Todos saben que poner en orden el codebase es el camino para ganar velocidad a largo plazo,
pero es el mismo tipo de idea que decir que comer bien, hacer ejercicio y dormir bien te hace más saludable.
Después de inicializar el Vault base, que no tenía gran cosa, y hacer que leyera ese único archivo, le comenté que quería desarrollar esta idea con más detalle, y con la skill de lluvia de ideas de superpowers armó toda la estructura general y hasta dejó lista la configuración de CLAUDE.md y del plugin de Obsidian.
Apple ignora el soporte legado de forma (patológica), pero si no hay soporte legado eso al final significa que hay menos factores de los que preocuparse; aun así, ¿por qué sigue apareciendo inestabilidad de manera constante?
No critican por criticar, sino porque hay demasiada gente que realmente está sintiendo inconvenientes. (Si comparáramos a Apple con una religión, sería como para que hasta se te enfríe la fe)
Entiendo lo que se quiere decir, pero el objeto de comparación es incorrecto.
Yo también coincido en parte con el problema de la rentabilidad y de las pérdidas crónicas de las empresas basadas en LLM,
pero, salvo que se hablara del costo de ventas de las big tech, no es un argumento válido comparar 1:1 la situación financiera de una empresa multinacional de LLM con la de un local de kimbap.
Es un agente que ya habían publicado hace como un año. Goose - 오픈소스 AI 코딩 에이전트
Lo han ido actualizando poco a poco para ponerse al día con los avances recientes, así que parece que ahora ya está bastante bien.
Como @jack, quien fue fundador de Twitter y ahora es CEO de Block, lo estaba presumiendo, lo vuelvo a compartir una vez más. https://x.com/jack/status/2039897468775604711
Usando LLM, generó automáticamente 400 documentos wiki detallados a partir de 2,500 elementos de diarios, Apple Notes y conversaciones de iMessage como entrada
Incluye amigos, startups, áreas de investigación de interés, anime favorito e incluso su influencia, todo interconectado mediante backlinks
La wiki no está pensada para consulta personal, sino como una base de conocimiento para agentes, diseñada para que la estructura de archivos y los backlinks sean fáciles de rastrear por un agente
Conectó Claude Code a la wiki y usa index.md como punto de entrada, de modo que al hacer una consulta el agente explora directamente las páginas necesarias
Ejemplo de uso: al trabajar en una nueva landing page, si le pides “dame ideas de copy y diseño tomando como referencia imágenes y películas que me han inspirado recientemente”, el agente responde combinando un documento de “filosofía” basado en un documental de Studio Ghibli, un documento de “competidores” con capturas de landing pages de empresas de YC, e incluso imágenes guardadas de merchandising de The Beatles de los años 70
Hace un año construyó un sistema similar basado en RAG, pero el rendimiento no fue bueno, y este enfoque en el que el agente navega directamente por el sistema de archivos resultó mucho más efectivo
Al agregar nuevas entradas (artículos, imágenes de inspiración, notas de reuniones, etc.), el sistema actualiza automáticamente 2 o 3 documentos existentes relacionados o crea uno nuevo
Menciona la Farzapedia anterior como un buen caso práctico del tuit sobre LLM Wiki y resume en 4 puntos las ventajas de este enfoque frente a la personalización tradicional de IA de “mejora sola cuanto más la usas”
Explicitud (Explicit): el resultado de la memoria existe claramente en forma de wiki, y se puede verificar y gestionar directamente qué sabe y qué no sabe la IA; el conocimiento no queda enterrado en el interior de un sistema opaco, sino que existe de forma visible
Propiedad de los datos (Yours): los datos se almacenan en la computadora local y no en el sistema de un proveedor específico de IA, sin quedar encerrados en una forma imposible de extraer, lo que permite mantener el control total sobre la información
Archivo antes que app (File over app): la memoria está compuesta por una colección de archivos en formatos generales como Markdown e imágenes, compatible con múltiples herramientas y CLI; el agente puede aprovechar todo el toolkit de Unix y también puede abrirse en la interfaz que prefieras, como Obsidian
Libertad para elegir IA (BYOAI): puedes conectar libremente la IA que quieras, como Claude, Codex u OpenCode; en principio, incluso sería posible afinar una IA de código abierto con la wiki para ir más allá de solo consultar los datos e incorporar el conocimiento personal en los propios pesos
Este método no es la forma más simple y requiere gestionar directorios de archivos, pero los agentes pueden ayudar bastante en ese proceso
Remarca que “la competencia para usar agentes (agent proficiency) es una habilidad clave del siglo XXI” y recomienda probar por uno mismo esta herramienta que puede encargarse de tareas en la computadora a partir de instrucciones en inglés
Es un contenido interesante, pero me deja un poco mal sabor porque parece que todo el blog fue hecho con IA.
Por fin salió este tema también. Llevo mucho tiempo cultivando un jardín y creando un arnés sobre este tema, así que para mí es algo muy bienvenido. El know-how del profesor Kaparthy es interesante. Parece que, más que la dificultad técnica del PKM en sí, lo importante es cómo cada persona acumula conocimiento a largo plazo, lo estructura y lo comparte con una inteligencia ajena, mientras el ser humano va encontrando un modelo de coevolución mutua en ese proceso. Es decir, ¿será que la pregunta ha vuelto al ser humano? Algo así como: ¿está el ser humano preparado para estar con nosotros? No hay una respuesta correcta como tal; cada quien tendrá que ir construyéndola con sus propias preguntas. Me entusiasma. Gracias a GeekNews por esta noticia.
Personalmente, lo que me parece curioso es que incluso los youtubers que hacen entrevistas o comentarios en YouTube también son muy favorables al respecto.
Hace poco parece que en Reddit, en r/programming, implementaron una política para prohibir publicaciones relacionadas con LLM.
Creo que al ver textos como este se puede entender un poco por qué la adoptaron.
Ni siquiera crean un servicio real y se dedican a hypear sitios web PoC que usan Supabase, tratan a las empresas tecnológicas y a los desarrolladores profesionales como si fueran idiotas, y hasta muestran una ética de querer, como sea, ganar algo de influencia filtrando tecnología.
Me parece un desastre total.
Parece que el enlace tiene la etiqueta
si. https://www.youtube.com/watch?v=RpFh0Nc7RvAEstá bien ordenado, pero al final el trabajo sigue siendo el mismo y no ha cambiado nada; termina convergiendo en compartamos conocimiento para que yo también pueda trabajar con IA.
Parece que en openclaw salió justo lo que yo quería implementar. Lo voy a tomar y usar.
Todos saben que poner en orden el codebase es el camino para ganar velocidad a largo plazo,
pero es el mismo tipo de idea que decir que comer bien, hacer ejercicio y dormir bien te hace más saludable.
claw-code - Proyecto de reescritura clean room en Python basado en el código fuente filtrado de Claude Code
Es una idea que vale la pena considerar, pero parece que todavía predomina la visión de que es demasiado pronto.
Otra vez suben esta basura a GN... qué mundo en el que robar se vuelve viral...
Después de inicializar el Vault base, que no tenía gran cosa, y hacer que leyera ese único archivo, le comenté que quería desarrollar esta idea con más detalle, y con la skill de lluvia de ideas de superpowers armó toda la estructura general y hasta dejó lista la configuración de
CLAUDE.mdy del plugin de Obsidian.Ah, ya veo. Gracias por avisarme. Tendré que estar pendiente de varias cosas.
Si cambio a Claude Code, ¿podré usar agent teams?
Gracias por compartirlo. Lo probé y es sorprendente.
Espero que en la comunidad sigan surgiendo métodos aún más mejorados.
Apple ignora el soporte legado de forma (patológica), pero si no hay soporte legado eso al final significa que hay menos factores de los que preocuparse; aun así, ¿por qué sigue apareciendo inestabilidad de manera constante?
No critican por criticar, sino porque hay demasiada gente que realmente está sintiendo inconvenientes. (Si comparáramos a Apple con una religión, sería como para que hasta se te enfríe la fe)
Entiendo lo que se quiere decir, pero el objeto de comparación es incorrecto.
Yo también coincido en parte con el problema de la rentabilidad y de las pérdidas crónicas de las empresas basadas en LLM,
pero, salvo que se hablara del costo de ventas de las big tech, no es un argumento válido comparar 1:1 la situación financiera de una empresa multinacional de LLM con la de un local de kimbap.
Es un agente que ya habían publicado hace como un año. Goose - 오픈소스 AI 코딩 에이전트
Lo han ido actualizando poco a poco para ponerse al día con los avances recientes, así que parece que ahora ya está bastante bien.
Como @jack, quien fue fundador de Twitter y ahora es CEO de Block, lo estaba presumiendo, lo vuelvo a compartir una vez más.
https://x.com/jack/status/2039897468775604711
Esto aplicado en Farzapedia: una Wikipedia personal creada con 2,500 entradas de diarios, notas y mensajes
index.mdcomo punto de entrada, de modo que al hacer una consulta el agente explora directamente las páginas necesariasLas 4 ventajas de la personalización basada en LLM Wiki, según Karpathy