Es un contenido interesante, pero me deja un poco mal sabor porque parece que todo el blog fue hecho con IA.

 

Por fin salió este tema también. Llevo mucho tiempo cultivando un jardín y creando un arnés sobre este tema, así que para mí es algo muy bienvenido. El know-how del profesor Kaparthy es interesante. Parece que, más que la dificultad técnica del PKM en sí, lo importante es cómo cada persona acumula conocimiento a largo plazo, lo estructura y lo comparte con una inteligencia ajena, mientras el ser humano va encontrando un modelo de coevolución mutua en ese proceso. Es decir, ¿será que la pregunta ha vuelto al ser humano? Algo así como: ¿está el ser humano preparado para estar con nosotros? No hay una respuesta correcta como tal; cada quien tendrá que ir construyéndola con sus propias preguntas. Me entusiasma. Gracias a GeekNews por esta noticia.

 

Personalmente, lo que me parece curioso es que incluso los youtubers que hacen entrevistas o comentarios en YouTube también son muy favorables al respecto.

 

Hace poco parece que en Reddit, en r/programming, implementaron una política para prohibir publicaciones relacionadas con LLM.
Creo que al ver textos como este se puede entender un poco por qué la adoptaron.

Ni siquiera crean un servicio real y se dedican a hypear sitios web PoC que usan Supabase, tratan a las empresas tecnológicas y a los desarrolladores profesionales como si fueran idiotas, y hasta muestran una ética de querer, como sea, ganar algo de influencia filtrando tecnología.
Me parece un desastre total.

 

Está bien ordenado, pero al final el trabajo sigue siendo el mismo y no ha cambiado nada; termina convergiendo en compartamos conocimiento para que yo también pueda trabajar con IA.

 

Parece que en openclaw salió justo lo que yo quería implementar. Lo voy a tomar y usar.

 

Todos saben que poner en orden el codebase es el camino para ganar velocidad a largo plazo,
pero es el mismo tipo de idea que decir que comer bien, hacer ejercicio y dormir bien te hace más saludable.

 

Es una idea que vale la pena considerar, pero parece que todavía predomina la visión de que es demasiado pronto.

 

Otra vez suben esta basura a GN... qué mundo en el que robar se vuelve viral...

 

Después de inicializar el Vault base, que no tenía gran cosa, y hacer que leyera ese único archivo, le comenté que quería desarrollar esta idea con más detalle, y con la skill de lluvia de ideas de superpowers armó toda la estructura general y hasta dejó lista la configuración de CLAUDE.md y del plugin de Obsidian.

 

Ah, ya veo. Gracias por avisarme. Tendré que estar pendiente de varias cosas.

 

Gracias por compartirlo. Lo probé y es sorprendente.
Espero que en la comunidad sigan surgiendo métodos aún más mejorados.

 

Apple ignora el soporte legado de forma (patológica), pero si no hay soporte legado eso al final significa que hay menos factores de los que preocuparse; aun así, ¿por qué sigue apareciendo inestabilidad de manera constante?

 

No critican por criticar, sino porque hay demasiada gente que realmente está sintiendo inconvenientes. (Si comparáramos a Apple con una religión, sería como para que hasta se te enfríe la fe)

 

Entiendo lo que se quiere decir, pero el objeto de comparación es incorrecto.
Yo también coincido en parte con el problema de la rentabilidad y de las pérdidas crónicas de las empresas basadas en LLM,
pero, salvo que se hablara del costo de ventas de las big tech, no es un argumento válido comparar 1:1 la situación financiera de una empresa multinacional de LLM con la de un local de kimbap.

 

Es un agente que ya habían publicado hace como un año. Goose - 오픈소스 AI 코딩 에이전트
Lo han ido actualizando poco a poco para ponerse al día con los avances recientes, así que parece que ahora ya está bastante bien.
Como @jack, quien fue fundador de Twitter y ahora es CEO de Block, lo estaba presumiendo, lo vuelvo a compartir una vez más.
https://x.com/jack/status/2039897468775604711

 

Esto aplicado en Farzapedia: una Wikipedia personal creada con 2,500 entradas de diarios, notas y mensajes

  • Usando LLM, generó automáticamente 400 documentos wiki detallados a partir de 2,500 elementos de diarios, Apple Notes y conversaciones de iMessage como entrada
  • Incluye amigos, startups, áreas de investigación de interés, anime favorito e incluso su influencia, todo interconectado mediante backlinks
  • La wiki no está pensada para consulta personal, sino como una base de conocimiento para agentes, diseñada para que la estructura de archivos y los backlinks sean fáciles de rastrear por un agente
  • Conectó Claude Code a la wiki y usa index.md como punto de entrada, de modo que al hacer una consulta el agente explora directamente las páginas necesarias
  • Ejemplo de uso: al trabajar en una nueva landing page, si le pides “dame ideas de copy y diseño tomando como referencia imágenes y películas que me han inspirado recientemente”, el agente responde combinando un documento de “filosofía” basado en un documental de Studio Ghibli, un documento de “competidores” con capturas de landing pages de empresas de YC, e incluso imágenes guardadas de merchandising de The Beatles de los años 70
  • Hace un año construyó un sistema similar basado en RAG, pero el rendimiento no fue bueno, y este enfoque en el que el agente navega directamente por el sistema de archivos resultó mucho más efectivo
  • Al agregar nuevas entradas (artículos, imágenes de inspiración, notas de reuniones, etc.), el sistema actualiza automáticamente 2 o 3 documentos existentes relacionados o crea uno nuevo

Las 4 ventajas de la personalización basada en LLM Wiki, según Karpathy

  • Menciona la Farzapedia anterior como un buen caso práctico del tuit sobre LLM Wiki y resume en 4 puntos las ventajas de este enfoque frente a la personalización tradicional de IA de “mejora sola cuanto más la usas”
  • Explicitud (Explicit): el resultado de la memoria existe claramente en forma de wiki, y se puede verificar y gestionar directamente qué sabe y qué no sabe la IA; el conocimiento no queda enterrado en el interior de un sistema opaco, sino que existe de forma visible
  • Propiedad de los datos (Yours): los datos se almacenan en la computadora local y no en el sistema de un proveedor específico de IA, sin quedar encerrados en una forma imposible de extraer, lo que permite mantener el control total sobre la información
  • Archivo antes que app (File over app): la memoria está compuesta por una colección de archivos en formatos generales como Markdown e imágenes, compatible con múltiples herramientas y CLI; el agente puede aprovechar todo el toolkit de Unix y también puede abrirse en la interfaz que prefieras, como Obsidian
  • Libertad para elegir IA (BYOAI): puedes conectar libremente la IA que quieras, como Claude, Codex u OpenCode; en principio, incluso sería posible afinar una IA de código abierto con la wiki para ir más allá de solo consultar los datos e incorporar el conocimiento personal en los propios pesos
  • Este método no es la forma más simple y requiere gestionar directorios de archivos, pero los agentes pueden ayudar bastante en ese proceso
  • Remarca que “la competencia para usar agentes (agent proficiency) es una habilidad clave del siglo XXI” y recomienda probar por uno mismo esta herramienta que puede encargarse de tareas en la computadora a partir de instrucciones en inglés