Resumen
- Reporte de un experimento (Zero-context, N=5) en el que, tras refactorizar la estructura del código (patrón estrategia y factory, separación de archivos, organización de
.cursorrules) con un prompt de una sola línea, se ejecutó el mismo prompt de agregado de funcionalidad y se observó una gran reducción en el uso de tokens de la IA. Los prompts y el código fuente usados en el experimento están publicados, por lo que es reproducible.
Datos clave
-
Claude-4 Sonnet: promedio de 390,159 → 242,265 tokens (−37.91%)
-
GPT-5: promedio de 315,839 → 233,634 tokens (−26.03%)
-
Referencia: Total Tokens mostrado por Cursor. Comparar valores absolutos entre modelos no tiene sentido (hay diferencias en cómo cada modelo los contabiliza).
Configuración (resumen)
-
IDE Cursor 1.6.6, modelos GPT-5 / Claude-4 Sonnet
-
Todos los prompts en Zero-context, reiniciando por completo el editor en cada ronda
-
Criterio de éxito: se contabilizó como exitoso si el requisito se implementaba con un solo prompt
Por qué importa
-
Una “buena estructura de código” no solo facilita la lectura para las personas, también impacta en los tokens, el costo y el tiempo de la IA
-
La publicación de los prompts y el repositorio asegura reproducibilidad (se puede aplicar de inmediato en trabajo real y en experimentos posteriores)
Opinión personal
- Como usuario de Cursor, propone una metodología excelente que ofrece una forma clave de ahorrar costos.
- Como también se menciona en el texto, resulta un poco decepcionante que el muestreo no sea suficiente.
Aún no hay comentarios.