26 puntos por hexpeek 2025-09-11 | Aún no hay comentarios. | Compartir por WhatsApp

Resumen

  • Reporte de un experimento (Zero-context, N=5) en el que, tras refactorizar la estructura del código (patrón estrategia y factory, separación de archivos, organización de .cursorrules) con un prompt de una sola línea, se ejecutó el mismo prompt de agregado de funcionalidad y se observó una gran reducción en el uso de tokens de la IA. Los prompts y el código fuente usados en el experimento están publicados, por lo que es reproducible.

Datos clave

  • Claude-4 Sonnet: promedio de 390,159 → 242,265 tokens (−37.91%)

  • GPT-5: promedio de 315,839 → 233,634 tokens (−26.03%)

  • Referencia: Total Tokens mostrado por Cursor. Comparar valores absolutos entre modelos no tiene sentido (hay diferencias en cómo cada modelo los contabiliza).

Configuración (resumen)

  • IDE Cursor 1.6.6, modelos GPT-5 / Claude-4 Sonnet

  • Todos los prompts en Zero-context, reiniciando por completo el editor en cada ronda

  • Criterio de éxito: se contabilizó como exitoso si el requisito se implementaba con un solo prompt

Por qué importa

  • Una “buena estructura de código” no solo facilita la lectura para las personas, también impacta en los tokens, el costo y el tiempo de la IA

  • La publicación de los prompts y el repositorio asegura reproducibilidad (se puede aplicar de inmediato en trabajo real y en experimentos posteriores)


Opinión personal

  • Como usuario de Cursor, propone una metodología excelente que ofrece una forma clave de ahorrar costos.
  • Como también se menciona en el texto, resulta un poco decepcionante que el muestreo no sea suficiente.

Aún no hay comentarios.

Aún no hay comentarios.