72 puntos por GN⁺ 2026-03-28 | 1 comentarios | Compartir por WhatsApp
  • OpenAI publicó documentación oficial con 12 casos de uso para aplicar de inmediato su herramienta de codificación agentic Codex en trabajo real, y cada caso incluye el equipo/categoría recomendados, un prompt inicial e información sobre las Skills que se pueden usar
  • Está organizado en 6 categorías: Engineering, Front-end, Data, Integrations, Mobile y Evaluation

1. Revisar Pull Requests rápidamente (Integration / Automation)

  • Si agregas Codex code review a una organización o repositorio de GitHub, puedes configurar revisiones automáticas para todos los PR
    • O pedirlo manualmente escribiendo @codex review en un comentario del PR
  • Prompt inicial: @codex review for security regressions, missing tests, and risky behavior changes
  • Si encuentra un problema, puedes crear de inmediato una tarea de corrección en la nube y actualizar el PR con el comentario @codex fix it
  • Se puede personalizar agregando una sección de lineamientos de revisión en AGENTS.md
    • Ejemplo: errores tipográficos o gramaticales → P0, falta de documentación o de tests → P1, etc. para definir prioridades
    • Como se aplican las instrucciones del AGENTS.md más cercano a cada archivo, en paquetes específicos se pueden poner reglas aparte en subdirectorios
  • Ideal para: equipos que necesitan una señal adicional de revisión antes de aprobar un merge, y codebases grandes que ya operan en producción
  • Skill útil: Security Best Practices — revisa con foco en zonas de riesgo como secretos, autenticación y cambios en dependencias

2. Construir diseños front-end responsivos (Front-end / Design)

  • Si le das capturas de pantalla, un brief de diseño o imágenes de referencia, Codex los convierte en código de UI responsivo reutilizando componentes y tokens del sistema de diseño existente
  • Requisitos clave del prompt:
    • Reutilizar componentes y sistema de diseño existentes (sin crear en paralelo un sistema nuevo)
    • Hacer que espaciado, layout, jerarquía y comportamiento responsivo coincidan lo más posible con la captura
    • Respetar los patrones de routing, manejo de estado y data fetching del repositorio
    • Si hay ambigüedad, elegir la implementación más simple y dejar explícitas las suposiciones
  • Con la Skill de Playwright puede abrir un navegador real, comparar el resultado con la captura y corregir iterativamente
    • También permite cambiar el tamaño de la ventana para validar el layout en distintos breakpoints
  • Ideal para: iniciar un proyecto front-end nuevo o implementar pantallas diseñadas dentro de una codebase existente
  • Para mejores resultados, se recomienda dar referencias de múltiples estados, como layouts de desktop y móvil, estados hover/selección, pantallas vacías y de carga

Recuperaré las páginas detalladas del resto de casos de uso. La navegación es demasiado larga y recorta el cuerpo del contenido. Cambiaré a un método para extraer solo el cuerpo usando view_range. Voy a traer solo el contenido principal con curl + grep desde bash. Como la página se renderiza con JavaScript, no es posible obtener el cuerpo con curl. Continuaré obteniendo cada página con la herramienta de fetch web, extrayendo solo el contenido después de la navegación. Ya se ve parte del cuerpo. Ahora recuperaré en paralelo las páginas restantes. Ahora también revisaré la página api-integration-migrations que ya fue recuperada. Ya reuní el contenido detallado de todos los casos de uso. Ahora organizaré los 10 casos restantes con el mismo formato de los destacados 1 y 2.

3. Entender una codebase grande (Engineering / Analysis)

Dificultad: Easy | Tiempo estimado: 5 minutos

  • Al entrar a un repositorio desconocido, se puede empezar pidiéndole a Codex que explique toda la codebase
  • Si necesitas contribuir en una zona específica del sistema, mientras más acotes el alcance, más concreta será la explicación
  • Prompt inicial: Explain how the request flows through <name of the system area> in the codebase. Include: which modules own what / where data is validated / the top gotchas to watch for before making changes. End with the files I should read next.
  • Ideal para: ingenieros nuevos en proceso de onboarding a un repositorio, o desarrolladores que necesitan entender cómo funciona algo antes de cambiarlo

4. Iterar sobre problemas difíciles (Engineering / Analysis)

Dificultad: Advanced | Tiempo estimado: Long-running

  • Si se le proporciona un script de evaluación (eval), Codex puede ejecutar un ciclo de mejora automática basado en puntajes
  • Estructura clave del prompt inicial:
    • Leer AGENTS.md → encontrar el script o comando que califica la salida actual
    • Aplicar una sola mejora a la vez → volver a ejecutar el comando eval → registrar el puntaje y los cambios
    • Si la salida es visual, inspeccionarla directamente con view_image
    • Repetir hasta que el puntaje total y el promedio LLM sean ambos de al menos 90%
  • Restricciones: no detenerse en el primer resultado aceptable / no volver a una versión anterior salvo que la nueva sea claramente peor
  • Ideal para: problemas que se pueden calificar en cada iteración, salidas visuales o subjetivas que requieren tanto chequeos deterministas como puntaje de LLM-as-a-judge, y sesiones largas donde hay que seguir el progreso

5. Crear juegos para navegador (Engineering / Code)

Dificultad: Intermediate | Tiempo estimado: Long-running

  • El flujo es: brief del juego → redactar primero un plan concreto en PLAN.md → luego construir el juego real
  • Skills útiles:
    • Playwright: probar el juego en un navegador en vivo, inspeccionar el estado actual y ajustar iterativamente controles, timing, UI y sensación general
    • ImageGen: generar concept art, sprites, fondos y assets de UI, guardando prompts reutilizables para producción por lotes más adelante
    • OpenAI Docs: consultar la guía oficial más reciente antes de conectar funciones de OpenAI al juego
  • Prompt inicial: Use $playwright-interactive, $imagegen, and $openai-docs to plan and build a browser game in this repo. Implement PLAN.md, and log your work under .logs/
  • Ideal para: crear un juego de navegador desde cero o desarrollar juegos que requieren pruebas iterativas de controles, visuales y despliegue

6. Analizar datasets y generar reportes (Data / Analysis)

Dificultad: Intermediate | Tiempo estimado: 1 hora

  • Puede limpiar archivos de datos desordenados, hacer joins, análisis exploratorio y modelado, y luego empaquetarlo como artefactos reutilizables
  • Requisitos del prompt inicial: leer AGENTS.md → cargar el dataset → explicar el contenido de los archivos, las llaves de join y los problemas de calidad de datos → proponer un workflow reproducible desde imports hasta visualización, modelado y reporte
  • Restricciones: preferir scripts y artefactos guardados por encima del estado efímero de un notebook / no inventar valores faltantes ni llaves de merge
  • Skills útiles: Spreadsheet (inspección de CSV, TSV y Excel), Jupyter Notebook (análisis exploratorio), Doc (reporte .docx), Pdf (render del artefacto final en PDF)
  • Ideal para: trabajos analíticos que arrancan con archivos desordenados y deben terminar en gráficos, notas, dashboards o reportes, y equipos que necesitan scripts reproducibles

7. Generar decks de diapositivas automáticamente (Data / Automation)

Dificultad: Easy | Tiempo estimado: 30 minutos

  • Puede editar directamente archivos pptx con código y combinarlos con generación de imágenes para aplicar reglas de layout repetibles en cada diapositiva
  • Skills útiles:
    • Slides: crear y editar decks .pptx con PptxGenJS, incluyendo render y scripts de validación para revisar overflow, superposición y fuentes
    • ImageGen: generar ilustraciones, portadas, diagramas y visuales para diapositivas, manteniendo una dirección visual reutilizable
  • Núcleo del prompt inicial: agregar logo.png en la esquina inferior derecha de todas las diapositivas / mover el texto a la izquierda en ciertas diapositivas y generar una imagen a la derecha / mantener el branding existente / antes de entregar, ejecutar verificaciones de overflow y reemplazo de fuentes
  • Ideal para: equipos que convierten notas o insumos estructurados en presentaciones repetibles, o reconstruyen decks a partir de capturas, PDFs o presentaciones de referencia

8. Iniciar tareas de coding desde Slack (Integrations / Automation)

Dificultad: Easy | Tiempo estimado: 5 minutos

  • La configuración se hace en 3 pasos: instalar la app de Slack → conectar repositorio y entorno → agregar @Codex al canal
  • Al mencionar @Codex en un hilo, se puede iniciar una tarea junto con la solicitud, restricciones y resultado esperado
  • Prompt inicial: @Codex analyze the issue mentioned in this thread and implement a fix in <name of your environment>
  • Se puede abrir el enlace de trabajo para revisar el resultado y, si hace falta, seguir iterando desde Slack
  • Tip: si el hilo no tiene suficiente contexto o propuesta de corrección, conviene incluirlo directamente en el prompt
  • Ideal para: handoffs asíncronos que arrancan en hilos de Slack y equipos que necesitan triage de issues, corrección de bugs o implementaciones acotadas sin cambiar de contexto

9. Crear apps para ChatGPT (Integrations / Code)

Dificultad: Advanced | Tiempo estimado: 1 hora

  • Todas las apps de ChatGPT se componen de 3 partes: servidor MCP (definición de tools) + widget opcional en React + conexión con ChatGPT
  • Skills útiles:
    • ChatGPT Apps: planificación de tools, conexión de recursos MCP y guía del flujo de build
    • OpenAI Docs: consultar la guía más reciente del Apps SDK antes de escribir código
    • Vercel: usar la guía del ecosistema Vercel y el servidor MCP oficial de Vercel
  • Requisitos del prompt inicial: elegir 1 resultado central para el usuario → proponer entre 3 y 5 tools con nombre, descripción, entrada y salida claros → decidir si v1 necesita widget → preferir TypeScript para el servidor MCP y React para el widget → dejar explícitos autenticación, despliegue y pruebas
  • Output esperado: plan de tools / árbol de archivos propuesto / set de prompts Golden / riesgos y preguntas abiertas
  • Ideal para: la planeación inicial de una app para ChatGPT, el scaffolding de un servidor MCP y ciclos rápidos desde pruebas locales con HTTPS hasta validación en modo desarrollador de ChatGPT

10. Construir apps para iOS y macOS (Mobile / Code)

Dificultad: Advanced | Tiempo estimado: 1 hora

  • Desde el scaffolding de un proyecto SwiftUI hasta build y debugging, el flujo prioriza la CLI (xcodebuild o Tuist)
  • Si ya existe un proyecto de Xcode, se puede iterar con XcodeBuildMCP para listar targets, elegir schemes, compilar, ejecutar y capturar screenshots
  • Skill útil: Build iOS Apps — construcción y refactor de UI en SwiftUI, aplicación de patrones modernos de iOS como Liquid Glass, y auditoría/debugging de rendimiento en runtime del simulador
  • Restricciones del prompt inicial: mantener prioridad de la CLI / reutilizar modelos, patrones de navegación y utilidades compartidas existentes / conservar compatibilidad iOS y macOS salvo que el alcance se limite explícitamente / ejecutar pequeños ciclos de validación con cada cambio
  • Output esperado: scaffold de la app o slice de funcionalidad solicitado / scripts de build y ejecución / pasos mínimos de validación ejecutados / detalle de scheme, simulador y checks usados
  • Ideal para: apps SwiftUI greenfield creadas por Codex desde cero, o proyectos existentes en plataformas Apple que necesitan schemes, salida del simulador, screenshots y automatización de UI

11. Convertir diseños de Figma en código (Front-end / Design)

Dificultad: Intermediate | Tiempo estimado: 1 hora

  • A través del servidor MCP de Figma, obtiene contexto de diseño estructurado, variables, assets y variantes exactas, y luego las convierte en código alineado al sistema de diseño del repositorio
  • Skills útiles:
    • Figma: comenzar con get_design_context → luego get_screenshot para obtener el contexto y la captura antes de implementar / usar mapeo de Code Connect para vincular componentes publicados con archivos fuente / generar reglas de sistema de diseño por proyecto para tareas repetibles de Figma-to-code
    • Playwright: validar el comportamiento responsivo en un navegador real y comparar iterativamente con la referencia de Figma
  • Flujo clave del prompt inicial:
    1. Obtener el contexto exacto de nodos y frames con get_design_context
    2. Si la respuesta viene recortada, mapear primero la estructura del archivo con get_metadata y volver a pedir solo los nodos necesarios
    3. Obtener con get_screenshot la captura exacta de la variante a implementar
    4. Descargar los assets y empezar la implementación reutilizando componentes y tokens de diseño existentes, sin crear otro sistema aparte
    5. Si Figma devuelve imágenes localhost o fuentes SVG, usarlas tal cual, sin placeholders ni paquetes nuevos de íconos
    6. Validar la UI en el navegador con Playwright y corregir iterativamente diferencias visuales o de interacción
  • Recomendaciones para preparar el archivo de Figma:
    • Usar variables o tokens de diseño para color, tipografía y espaciado
    • Convertir los elementos de UI repetidos en componentes y evitar repetir capas detached
    • Aprovechar auto layout tanto como sea posible en lugar de posicionamiento manual
    • Nombrar frames y capas de forma que pantalla, estado y variante se distingan claramente
    • Mantener los íconos e imágenes reales dentro del archivo
  • El output del MCP de Figma (en forma de React + Tailwind) debe tratarse como referencia estructural, y el estilo final del código debe traducirse a las utilidades reales del proyecto, wrappers de componentes, sistema de colores, escala tipográfica, tokens de espaciado, routing, manejo de estado y patrones de data fetching
  • Ideal para: implementar en una codebase existente pantallas o flujos ya diseñados en Figma, y equipos que quieren que Codex trabaje a partir de contexto de diseño estructurado

12. Actualizar integraciones de API (Evaluation / Code)

Dificultad: Intermediate | Tiempo estimado: 1 hora

  • Permite actualizar integraciones existentes de OpenAI API a los modelos y funciones de API recomendados más recientes, incluyendo validación de regresiones
  • Skill útil: OpenAI Docs — consultar la guía actualizada de modelos, migración y API antes de modificar el código
  • Requisitos del prompt inicial:
    • Hacer inventario de los modelos, endpoints y supuestos sobre tools que existen hoy en el repositorio
    • Derivar un plan de migración mínimo hacia la ruta compatible más reciente
    • Mantener el comportamiento actual salvo que un cambio sea requerido por la nueva API o modelo
    • Actualizar los prompts según la guía vigente para los modelos más recientes
    • Señalar qué cambios en prompts, tools o formatos de respuesta requieren revisión manual
  • Ideal para: equipos que migran desde modelos antiguos o interfaces viejas de API, y necesitan una migración conservadora del comportamiento con validación explícita

1 comentarios

 
j2sus91 2026-03-28

Pensé que serían ejemplos oficiales de uso,
pero no hay más que contenido obvio.