La repetición del prompt mejora la precisión de los LLM, según un estudio del equipo de Google
(arxiv.org)Un artículo publicado por el equipo de Google Research ("Prompt Repetition Improves Non-Reasoning LLMs") encontró una técnica muy simple pero poderosa:
si se ingresa exactamente el mismo prompt dos veces seguidas, la precisión aumenta de forma significativa en la mayoría de los LLM más recientes (Gemini, GPT-4o, Claude, DeepSeek, etc.).
Puntos clave:
- Debido a la estructura causal (autoregressive) de los LLM, son vulnerables al orden de la información del prompt y a verla solo una vez → suelen fallar cuando la información importante está al final o en tareas que requieren referencia.
- Al ingresar el prompt dos veces repetido → durante la etapa de prefill (análisis de entrada), el modelo procesa el mismo contenido dos veces, por lo que su representación interna se vuelve más precisa y los errores de referencia y memoria se reducen mucho.
- Casi no afecta la etapa de generación (creación de tokens de salida) → casi no aumenta el tiempo de inferencia ni la longitud de salida (con excepciones en contextos muy largos, como Claude).
- Resultados experimentales: en 70 combinaciones de 7 modelos × varios benchmarks, hubo mejora en 47 casos y en ninguno cayó de forma importante.
- Ejemplo extremo: tarea de “¿cuál es el nombre número 25 en una lista de 50 nombres?”
→ precisión base de Gemini 2.0 Flash Lite: 21% → 97% después de repetirlo (casi perfecto) - En tareas de razonamiento complejo como Chain-of-Thought, el efecto es pequeño (cuando ya manejan bien las referencias).
- Desventaja: si el prompt ya es muy largo, puede aumentar el tiempo de prefill o, si se repite tres veces o más, puede chocar con el límite de tokens.
Conclusión
Es un truco para mejorar la precisión sorprendentemente simple y de costo casi nulo, con potencial para volverse tan conocido como “Think step by step”.
Está llamando la atención sobre todo como un consejo práctico que puede aplicarse de inmediato en referencias simples, manejo de listas y preguntas sobre datos estructurados.
Aún no hay comentarios.