142 puntos por davespark 2026-02-13 | 13 comentarios | Compartir por WhatsApp

Un simple archivo Markdown de apenas 65 líneas (CLAUDE.md), que busca resolver los problemas de programación con LLM señalados por Andrej Karpathy, se volvió explosivamente popular en GitHub y causó sensación entre los usuarios de Claude Code, con comentarios como: “si agregas solo este archivo, la IA se vuelve mucho más inteligente”.

La popularidad explosiva del archivo

  • El archivo CLAUDE.md del repositorio de GitHub (forrestchang/andrej-karpathy-skills)
  • Sumó más de 400 estrellas en un solo día → ya se acerca a un total de 4,000
  • También fue adaptado como extensión para VS Code / Cursor, por lo que se puede aplicar fácilmente

Contenido del archivo: 4 principios clave (inspirados en las críticas de Karpathy a la programación con LLM)

  • Think Before Coding (pensar antes de programar): explicitar supuestos, hacer preguntas si hay incertidumbre, detenerse si hay confusión
  • Simplicity First (primero la simplicidad): no agregar funciones, abstracciones ni manejo de errores que no fueron solicitados
  • Surgical Changes (cambios quirúrgicos): modificar solo la parte pedida y no tocar el resto
  • Goal-Driven Execution (ejecución orientada al objetivo): convertir instrucciones como “agregar una función” en metas concretas como “hacer que pasen las pruebas”

→ Según las experiencias compartidas por usuarios, al inyectar estos principios como prompt, Claude reduce la creatividad excesiva, los supuestos extraños y el refactoring innecesario, y escribe código más estable y predecible.

Lo que hizo Michiel Beijen (autor del blog original)

  • Aunque no usa Claude Code, consideró que este archivo era bueno
  • Lo convirtió por su cuenta en extensiones para Cursor + VS Code y las publicó
  • Tras probarlo, dijo algo como “parece que funciona… o tal vez no…” (es difícil estar seguro porque no es determinista)
  • Aun así, reconoce que muchísimas personas sí perciben el efecto

Lo que dejó impactada a la gente

  • Se trata de modelos entrenados durante años por grandes empresas de LLM que han invertido billones de wones
  • Y aun así, apenas 65 líneas de texto parecen mejorar visiblemente la calidad
  • Se interpreta como un caso extremo de que “el prompt puede superar al modelo mismo”
  • También muestra que estas pautas simples logran corregir bastante bien problemas crónicos de los LLM que Karpathy había señalado (demasiados supuestos, ignorar la confusión, no presentar trade-offs, etc.)

Conclusión

  • No se puede asegurar al 100% que el efecto sea real, pero muchos desarrolladores sienten que “sí hay una diferencia clara”
  • Es un caso simbólico que muestra el poder del prompt hacking / context engineering en la era de los LLM

https://aisparkup.com/posts/9225

13 comentarios

 
centell 2026-02-14

¿Cómo decirlo...? En realidad, es simplemente la forma en que los desarrolladores siempre han trabajado.

 
orange 2026-02-14

No puedo asegurar al 100% si realmente tiene efecto, pero muchos desarrolladores sienten que “definitivamente cambió”.

jajajaja

 
penekhun 2026-02-19

¡¿Lo creen...!?

 
cshj55 2026-02-14

Al probarlo de verdad, es como que “parece que funciona, pero también parece que no…” (al ser no determinista, es difícil asegurarlo)
jajajajajajaja

 
roxie 2026-02-25

jajajajajajajajajajajajajajajajajajajajajajajajajajajajajajajajajajaja

 
jw8880 2026-02-14

Eso es el vibe...! jajaja

 
galadbran 2026-02-14

¡La confianza gana!

 
mammal 2026-02-13

Al final, otra vez se trata de ingeniería de prompts

 
onestone 2026-02-13

Ingeniería de prompts

 
alfenmage 2026-02-14

Los prompts también requieren buena redacción. Un hallazgo que puede ayudar a desarrolladores con poca habilidad para escribir (incluidos los vibe coders). Como referencia, saqué nivel 1 en Coreano en el CSAT.

 
cshj55 2026-02-15

'Como referencia, yo saqué nivel 1 en Lengua Coreana del CSAT' incluido, un comentario impecable

 
cshj55 2026-02-14

Al final, resulta que el prompt era la respuesta; otra vez la omnipotencia de AGENTS.

 
kaydash 2026-02-14

Me gusta, me gusta.