¿65 líneas de texto cambiaron la programación con IA? La historia detrás del archivo que ganó 400 estrellas en un día
(tildeweb.nl)Un simple archivo Markdown de apenas 65 líneas (CLAUDE.md), que busca resolver los problemas de programación con LLM señalados por Andrej Karpathy, se volvió explosivamente popular en GitHub y causó sensación entre los usuarios de Claude Code, con comentarios como: “si agregas solo este archivo, la IA se vuelve mucho más inteligente”.
La popularidad explosiva del archivo
- El archivo CLAUDE.md del repositorio de GitHub (forrestchang/andrej-karpathy-skills)
- Sumó más de 400 estrellas en un solo día → ya se acerca a un total de 4,000
- También fue adaptado como extensión para VS Code / Cursor, por lo que se puede aplicar fácilmente
Contenido del archivo: 4 principios clave (inspirados en las críticas de Karpathy a la programación con LLM)
- Think Before Coding (pensar antes de programar): explicitar supuestos, hacer preguntas si hay incertidumbre, detenerse si hay confusión
- Simplicity First (primero la simplicidad): no agregar funciones, abstracciones ni manejo de errores que no fueron solicitados
- Surgical Changes (cambios quirúrgicos): modificar solo la parte pedida y no tocar el resto
- Goal-Driven Execution (ejecución orientada al objetivo): convertir instrucciones como “agregar una función” en metas concretas como “hacer que pasen las pruebas”
→ Según las experiencias compartidas por usuarios, al inyectar estos principios como prompt, Claude reduce la creatividad excesiva, los supuestos extraños y el refactoring innecesario, y escribe código más estable y predecible.
Lo que hizo Michiel Beijen (autor del blog original)
- Aunque no usa Claude Code, consideró que este archivo era bueno
- Lo convirtió por su cuenta en extensiones para Cursor + VS Code y las publicó
- Tras probarlo, dijo algo como “parece que funciona… o tal vez no…” (es difícil estar seguro porque no es determinista)
- Aun así, reconoce que muchísimas personas sí perciben el efecto
Lo que dejó impactada a la gente
- Se trata de modelos entrenados durante años por grandes empresas de LLM que han invertido billones de wones
- Y aun así, apenas 65 líneas de texto parecen mejorar visiblemente la calidad
- Se interpreta como un caso extremo de que “el prompt puede superar al modelo mismo”
- También muestra que estas pautas simples logran corregir bastante bien problemas crónicos de los LLM que Karpathy había señalado (demasiados supuestos, ignorar la confusión, no presentar trade-offs, etc.)
Conclusión
- No se puede asegurar al 100% que el efecto sea real, pero muchos desarrolladores sienten que “sí hay una diferencia clara”
- Es un caso simbólico que muestra el poder del prompt hacking / context engineering en la era de los LLM
13 comentarios
¿Cómo decirlo...? En realidad, es simplemente la forma en que los desarrolladores siempre han trabajado.
No puedo asegurar al 100% si realmente tiene efecto, pero muchos desarrolladores sienten que “definitivamente cambió”.
jajajaja
¡¿Lo creen...!?
Al probarlo de verdad, es como que “parece que funciona, pero también parece que no…” (al ser no determinista, es difícil asegurarlo)
jajajajajajaja
jajajajajajajajajajajajajajajajajajajajajajajajajajajajajajajajajajaja
Eso es el vibe...! jajaja
¡La confianza gana!
Al final, otra vez se trata de ingeniería de prompts
Ingeniería de prompts
Los prompts también requieren buena redacción. Un hallazgo que puede ayudar a desarrolladores con poca habilidad para escribir (incluidos los vibe coders). Como referencia, saqué nivel 1 en Coreano en el CSAT.
'Como referencia, yo saqué nivel 1 en Lengua Coreana del CSAT' incluido, un comentario impecable
Al final, resulta que el prompt era la respuesta; otra vez la omnipotencia de AGENTS.
Me gusta, me gusta.