11 puntos por GN⁺ 2026-01-24 | 2 comentarios | Compartir por WhatsApp
  • El proyecto Ghostty aplica reglas estrictas sobre el uso de IA a los colaboradores externos, y todo uso de IA debe ser divulgado obligatoriamente
  • Los Pull Request generados con IA solo pueden enviarse para issues aprobados, y serán rechazados si corresponden a issues no aprobados o si se sospecha uso no revelado de IA
  • El código escrito con IA debe ser verificado y probado directamente por una persona, y se prohíbe el código generado automáticamente para entornos a los que no se puede acceder
  • Se permite la asistencia de IA en issues o discusiones, pero todo el contenido debe ser revisado y editado por una persona, y el contenido multimedia generado por IA está completamente prohibido
  • Ghostty deja claro que da la bienvenida a la IA en sí, pero afirma que el problema no es la herramienta sino la falta de capacidad del usuario, y mantiene la política para proteger a los mantenedores

Reglas de uso de IA

  • Toda forma de uso de IA debe ser divulgada
    • Se debe indicar el nombre de la herramienta utilizada (por ejemplo, Claude Code, Cursor, Amp) y en qué medida contribuyó la IA
  • Los Pull Request generados con IA solo pueden enviarse para issues aprobados
    • Los PR para issues no aprobados se cierran
    • Si no se declaró el uso de IA pero los mantenedores lo sospechan, el PR será rechazado
    • El código relacionado con issues no aprobados puede compartirse en una discusión (Discussion)
  • El código generado con IA requiere verificación humana obligatoria
    • Se prohíbe enviar código hipotético que no haya sido probado
    • Se prohíbe escribir código para plataformas que no se puedan probar directamente por falta de acceso
  • Se permite asistencia de IA en issues y discusiones, pero una persona debe revisarla y editarla obligatoriamente
    • El contenido extenso o innecesario generado por IA debe ser depurado por una persona
  • Se prohíbe el contenido multimedia generado por IA (imágenes, video, audio, etc.), y solo se permite texto y código
  • Los usuarios inadecuados de IA (bad AI drivers) pueden ser sancionados públicamente
    • Se recomienda a los desarrolladores principiantes aprender por cuenta propia en lugar de depender de la IA

Estas reglas solo se aplican a los colaboradores externos, y los mantenedores son una excepción basada en la confianza

Principios de operación centrados en las personas

  • En Ghostty, todas las discusiones, issues y PR son revisados directamente por personas
    • Como punto de contacto entre humanos, se considera una falta de respeto presentar trabajo de baja calidad y sin verificar
  • Aún no ha llegado un mundo en el que la IA produzca resultados perfectos, y por ahora la calidad depende de la capacidad del usuario de IA (driver)
  • Por eso, se necesitan reglas estrictas para proteger a los mantenedores

Postura de bienvenida hacia la IA

  • Ghostty usa activamente herramientas de IA, y los mantenedores también las utilizan para mejorar su productividad
  • El objetivo de la política no es ser anti-IA, sino evitar el abuso por parte de usuarios sin experiencia
  • El proyecto mantiene transparencia sobre el uso de IA y deja en claro una actitud de bienvenida hacia la IA

2 comentarios

 
darjeeling 2026-01-24

"""La razón por la que aplicamos una política estricta sobre el uso de la IA no es que estemos en contra de la IA en sí, sino porque hay demasiadas personas no calificadas usándola. El problema no es la herramienta, sino las personas."""

 
GN⁺ 2026-01-24
Comentarios en Hacker News
  • Sorprende lo mucho que ha aumentado el spam de contribuciones de baja calidad en el open source
    Yo solo he contribuido a unos pocos proyectos pequeños, pero ese código fue de lo más rigurosamente probado y revisado que he escrito
    Siempre lo abordé con cuidado porque no quería hacer perder el tiempo a otros
    Por eso me desconcierta que haya gente que parece no tener ni un poco de esa vergüenza

    • Antes, la gente sin suficiente capacidad ni siquiera se metía por este camino
      Ahora, con la caja de Pandora que abrió la IA, parece que sienten que recibieron una “segunda oportunidad”
      No es que no tengan vergüenza, es que ni siquiera tienen el marco de referencia para sentirla
      Nosotros pasamos años puliendo nuestras habilidades y entendiendo la profundidad del aprendizaje; ellos nunca han trabajado ni un día en el campo, así que no perciben esa diferencia
    • Una vez un cliente me mandó una captura de pantalla de GPT para rebatir mi opinión
      También veo seguido gente en grupos públicos respondiendo con texto copiado y pegado de GPT
      Al final, lo único que hay es un deseo de apropiarse de una importancia prestada
      Por eso apoyo un code of conduct que ridiculice públicamente a quien haga perder el tiempo a los demás
    • Mucha gente contribuye a grandes proyectos open source solo para el currículum
      Lo hacen para poder poner una línea que diga “contribuí a Ghostty”, no porque realmente quieran ayudar
    • Hay que aceptar que la sociedad cambió
      Vivimos en un mundo sin vergüenza, y si no entiendes eso, vas a terminar confundido y herido
      No hace falta perder la vergüenza, pero sí aprender a entender ese sentimiento
    • Cuando trabajaba en una empresa de open source, la mayoría pensaba que su contribución era un regalo
      Pero en la práctica no lo era
  • Creo que la estructura social de GitHub es la raíz del problema de los PR de baja calidad
    Al instalarse la idea de que “contribuir a muchos proyectos = buen desarrollador”, la gente empezó a explotarlo como si fuera un juego
    La IA solo echó más leña al fuego, y a largo plazo habría que eliminar ese tipo de incentivos
    Irónicamente, gracias a la IA quizá quede más claro que esto ya no sirve como señal de habilidad

    • Incluso sin IA, el problema sigue siendo el mismo
      Antes ya existían los “PR basura para el currículum”; ahora simplemente sale más barato producirlos
    • Los flujos de trabajo basados en listas de correo ayudan a reducir este problema
      Hay una barrera de entrada suficiente como para que solo la gente realmente interesada llegue a enviar parches con git send-email
      Eso sí, el efecto secundario es que también bajan las contribuciones de gente nueva
  • La política de uso de IA de Ghostty parece un enfoque bastante equilibrado
    La clave es que la IA no puede reemplazar el pensamiento, las pruebas ni la refactorización humanas
    Cuando hice funciones con Codex, al final tuve que reescribir muchas partes. El problema más notorio fue el abuso innecesario de abstracciones

    • Salvo la primera cláusula, todo lo demás parece razonable
      La manera de escribir código es asunto de cada quien, siempre que asuma la responsabilidad por el resultado
      Así como nadie exige revelar qué herramientas u OS usas, tampoco habría motivo para obligar a declarar si usaste IA
    • Quiero tomar esto como referencia para la guía interna de IA de nuestra empresa
      Nos hace falta porque el proyecto se está ralentizando por el código terrible de desarrolladores externos
    • Estaría bien que GitHub ofreciera esta política como plantilla
      Sería útil si viniera como sugerencia predeterminada, igual que las guías de contribución o los códigos de conducta
    • La política está equilibrada, pero la frase “la IA no reemplaza a los humanos” resulta interesante
      Si lees el texto de Sam Altman, da por hecho un futuro donde la IA será más inteligente que los humanos
      Al final, se vuelve cada vez más borrosa la frontera de hasta dónde seguirá haciendo falta el ser humano
  • Me gustó la expresión “bad AI drivers”
    La IA no es más que una herramienta, pero los PR indiscriminados se parecen a los malos conductores en la carretera
    Esa gente va a terminar apareciendo en el dashcam subreddit de la programación

    • En realidad, más bien la IA va manejando y nosotros somos quienes van sentados en el asiento del copiloto
      Solo corregimos cuando la IA se mete por el camino equivocado
  • Si uno ve la publicación de Mitchell Hashimoto en X,
    él dice que le gustaría ver el transcript completo de la sesión de IA
    Yo también tengo un proyecto paralelo llamado git-prompt-story que pega sesiones de Claude en notas de GitHub

    • Publicar el historial de sesiones tiene una doble cara
      Me incomoda mostrar tal cual el recorrido enredado de mis pensamientos, y hasta podría implicar tener que “ordenarlo” otra vez
    • Yo también guardé prompts antes, pero su valor práctico no fue gran cosa
      Me pregunto si de verdad vale la pena hacerlo
    • Creo que sería mejor adjuntar el archivo de planificación generado en el modo Plan de Claude
      Eso sí podría convertirse en la verdadera source of truth
    • La IA también podría ayudar a organizar ese tipo de registros
    • En nuestro equipo estamos discutiendo adjuntar las sesiones de Claude a tickets de Jira en vez de GitHub
  • Es interesante la regla de “prohibido el contenido generado por IA (imágenes, audio, etc.), pero se permite texto/código”
    Casi como si texto y código estuvieran libres de controversia
    Pero así como las empresas de IA recopilaron datos artísticos sin permiso, el código y el texto tampoco son la excepción

    • Hubo una gran reacción cuando Microsoft usó repositorios de GitHub como datos de entrenamiento para IA
      Ahora el tema se calmó porque la mayoría de los desarrolladores usan LLM, pero desde la perspectiva de Ghostty,
      si también bloquearan texto/código, terminarían cerrándole la puerta a la mayoría de los contribuidores, así que probablemente sea una decisión práctica
    • No es que el código importe menos que el arte, sino que es una cuestión de autoridad y límites
      Yo contribuí bastante al entrenamiento de IA con código open source, y también sufrí directamente los daños de esa automatización
      Por eso siento que tengo autoridad moral para opinar sobre el uso de IA respecto del código
      En cambio, en el arte no soy yo la víctima, así que me cuesta adoptar exactamente la misma postura
  • En adelante, el código escrito sin IA probablemente solo sobreviva en ámbitos especializados
    “Declarar si se usó IA” puede terminar siendo apenas un trámite formal
    Antes, si algo “funcionaba + tenía código complejo”, se asumía que era el resultado de un desarrollador hábil,
    pero ahora esa señal social desapareció
    De aquí en adelante, la reputación personal y la marca van a importar más, y el mito meritocrático de que “el código habla por sí solo” va a tambalearse

  • En el proyecto Zulip también hubo recientemente una explosión de basura generada por IA (PR)
    Incluso hubo casos con capturas de pantalla falsas hechas por IA
    Nosotros estamos advirtiendo o bloqueando a quienes reinciden
    Queremos ayudar a la gente que de verdad quiere aprender, no pasarnos el tiempo lidiando con contribuidores que copian y pegan de LLM
    Por eso creamos una política de IA parecida a la de Ghostty, pero más específica

    • La política de Zulip es mucho más realista y práctica que la de Mitchell
      Incluso explica cómo usar bien la IA, así que vale mucho la pena tomarla como referencia