1 comentarios

 
GN⁺ 2025-09-23
Opinión de Hacker News
  • Vio un caso en el que simplemente pegó la respuesta de badger en el chat y luego la volvió a enviar al issue con una respuesta que claramente parecía escrita por IA. Envió literalmente algo como esto: "Gracias por la revisión rápida. Tienes razón en que mi PoC no usa libcurl, así que no demuestra un bug de cURL. Retiro la afirmación sobre el desbordamiento de cookies y lamento la confusión. Por favor, cierra este reporte como inválido. Si sirve, puedo enviar por separado un código mínimo de reproducción en C que sí active el parser de cookies de libcurl, y señalar la función/línea exacta en lib/cookie.c si hay un problema."

    • Es una pena que hoy en día este tipo de comportamiento de copiar y pegar de forma tan simple se haya vuelto algo demasiado común

    • Parece que parte de la gente del sector tech actúa así a propósito para presumir que "esta IA contribuyó a un proyecto open source conocido creando un PR". O sea, ahora le están tirando a voluntarios de OSS el trabajo que hizo la IA, consumiendo el tiempo de los maintainers de open source sin siquiera verificar si realmente funciona

    • Me pregunto si desde el inicio todo se hizo solo con IA, sin intervención humana. Preocupa pensar si en el futuro CVS se va a llenar de agentes creando cuentas y subiendo 'bugs' generados por IA tal cual

    • Por expresiones como "gracias", "tienes razón", la gramática perfecta y la abundancia de referencias técnicas, esta respuesta también parece escrita por IA

    • El hecho de que ahora podamos detectar tan rápido estas respuestas de IA me hace pensar si eso no significa que, en la práctica, la IA está reprobando la prueba de Turing

  • "Escuché el rumor de que haces cálculos matemáticos súper rápido" Yo: "Sí, es cierto" Entrevistador: "¿Cuánto es 14 x 27?" Yo: "49" Entrevistador: "Está completamente mal" Yo: "Pero fue rápido"

    • Estaría bueno tener un lenguaje compilado "almost-just-in-time (AIJIT)". Si no alcanza el tiempo, simplemente devuelve una respuesta aleatoria

    • function getRandomNumber() {
        return 4
      }
      

      Un ejemplo así realmente devuelve un número aleatorio

    • Cuando hice pruebas de carga, las respuestas con menor latencia eran cuando algo en la solicitud estaba mal

    • Es como en el video de "Is this your card?": "¿Es esta tu carta?" "No" "¡Pero estuvo realmente cerca! Era la persona que estabas buscando"

  • Me pregunto dónde está el balance entre "cuánto tiempo me ahorré personalmente" y "cuánto tiempo hice perder a todos los demás" en esta supuesta 'revolución' tecnológica

    • A mí también me ha resultado muy útil la ayuda de la IA muchas veces (Claude Code, Gemini Deep Research, etc.). Pero siempre tiene que haber intervención humana, e incluso en entornos corporativos donde todos son responsables siguen ocurriendo estos problemas. Si usas IA, al final la responsabilidad total de subir un PR o un reporte en HackerOne debe recaer en una persona. Por lo que he visto, sobre todo los desarrolladores junior tienden a copiar y pegar tal cual las respuestas de la IA, y como senior creo que hay que frenar esa conducta con firmeza. Está bien recibir ayuda de la IA, pero la validación final y la responsabilidad deben ser humanas

    • De hecho, si uno toma una respuesta escrita por IA y la mete en su propia herramienta de IA para que vuelva a responder, eso sería un modelo de ciclo automático perfecto de 'conversión de energía en dinero'. Nadie realmente usa tiempo; solo se desperdicia energía. Es un modelo de negocio perfecto

    • En realidad, esto pasa no solo con herramientas de IA, sino también con nuevas herramientas para rendición de gastos (buenas para contabilidad, pero con mala experiencia de uso), procesos de revisión de contratos (buenos para legal o infosec, pero engorrosos en SaaS que usa todo el mundo), etc. Siempre hay alguien intentando ahorrarse tiempo pasándole su trabajo a otra persona

    • Si haces perder el tiempo de otros, al final alguien tendrá que entender las tonterías generadas por la IA, así que también hay un efecto de preservación de empleos

    • Si no encontraron ninguna vulnerabilidad real y solo hicieron perder tiempo a los demás, entonces el tiempo que supuestamente ahorraron en realidad no existe

  • Hay un ejemplo mucho más grave de esto
    https://hackerone.com/reports/2298307

    • Resulta realmente absurdo leer frases como "Agradecemos su participación y queremos aclarar la situación", como si la intervención humana misma se tratara como una 'condición experimental'

    • Esa actitud es realmente grosera

    • Dan ganas de que alguien haga un sitio como base.org donde solo se recopilen citas de IA

    • Ver esta situación y al mismo tiempo a desarrolladores o maintainers respondiendo de buena fe y con esmero resulta completamente desmoralizante

    • En 2023 parecía más difícil distinguir las tonterías escritas por IA. Ya ni recuerdo desde cuándo esto empezó a desbordarse así

  • Con el tiempo he podido distinguir enseguida el contenido generado por IA, especialmente imágenes, texto y código. Este texto entero tiene de principio a fin un estilo totalmente de IA. badger manejó esto con mucho profesionalismo, y me da curiosidad cómo habría reaccionado Linus Torvalds

    • Este caso era tan obvio que se podía detectar al instante, pero da escalofríos pensar que con el tiempo se volverá cada vez más sutil

    • Desde otro ángulo, a veces hay gente que etiqueta algo como IA incluso cuando claramente no lo es. Eso me parece una especie de mecanismo de defensa del ego para evitar enfrentarse a información o realidades nuevas que no encajan con su percepción o su forma de pensar. Por ejemplo, hace poco hubo un video donde arrojaban dos bolsas negras desde una ventana de la Casa Blanca, y Trump al verlo enseguida lo descartó como "manipulación por IA". Independientemente de si era real o falso, parece una nueva forma de usar a la IA como chivo expiatorio y herramienta para mentir. En vez de esa reacción automática de "esto es IA", me parece más productivo decir "lo revisaré" y seguir adelante. Al final, culpar a la IA por cosas inocentes termina condicionando cada vez más al público, hasta el punto de ignorar asuntos realmente importantes insistiendo en que son manipulación por IA. Como en la novela 1984, la guerra nunca termina, pero a veces desaparece y al mismo tiempo se presenta como si no existiera. Los medios reales/falsos generados por IA y la manipulación pública alrededor de ellos probablemente se volverán aún más graves en el futuro

  • La actitud de pensar que uno es más inteligente que los viejos desarrolladores de Trilobite solo por "entender la IA" me parece que va a causar más problemas en adelante. Por eso creo que hay razones para que en primaria no dejen usar calculadora al principio

    • Es exactamente la misma mentalidad que decir: "Yo sé React, así que soy más inteligente que los programadores de antes del boom de las web apps"
  • Pienso que estaría bien cobrar por enviar reportes de vulnerabilidades. Sin importar si es IA o humano, los spammers pueden producir su trabajo en masa a costo bajísimo y dejarle la verificación a otros, y de vez en cuando hasta sale algo útil, lo que hace parecer que en conjunto aportan un beneficio social. Pero en general es algo negativo para la sociedad. Este modelo desaparecería si reportar tuviera un costo

    • Creo que eso sería más bien la manera típica de impedir que la gente reporte

    • Pienso que funcionaría bien pedir un depósito, aunque sea pequeño, al momento de reportar. Si de verdad encontraste un bug serio en cURL, pagarías con gusto un depósito de unos $2~5 para reportarlo (además de que la probabilidad de recibir recompensa al final también es alta)

  • Los profesores ya se enfrentan todos los días a situaciones en las que los estudiantes usan IA en casi todas las materias. Esto es exactamente lo mismo

    • Entonces quizá habría que tratarlo igual que siempre han tratado los profesores a los alumnos que rompen las reglas
  • Escuché que "al denunciante lo banearon y hasta borró su cuenta". Preocupa que esto pueda ser un ataque de phishing para probar huecos en los sistemas de protección, similar al hack de XZ utils. cURL también es una utilidad importante. Es una forma de poner a prueba el nivel de alerta, la velocidad de respuesta y la carga de trabajo del equipo, como el spam 419. Al final, esto es parte del problema de DDoS generado por IA, y creo que hará falta una nueva forma de validar PRs, como por ejemplo autenticación basada en una red de reputación tipo Nostr

    • Últimamente yo también he visto mucho en Reddit (en subreddits medianos) cuentas nuevas, desconocidas, publicando preguntas que parecen armadas juntando fragmentos de publicaciones pasadas. El tema encaja justo, pero no tiene la forma en que lo publicaría una persona, y además le meten discretamente elementos de drama humano para provocar respuestas. Casi nunca responden a los comentarios, y cuando lo hacen, queda clarísimo que es IA. Por eso en los últimos meses he dejado de seguir al menos 6 comunidades por esta razón
  • Hace poco probé un parche que supuestamente había corregido un bug de UI de Linux en 15 minutos, pero en realidad era una respuesta que solo rellenaba atributos falsos y sin sentido. Simplemente metieron el issue de GitHub en ChatGPT y enviaron el resultado de inmediato sin ninguna verificación. De verdad no entiendo por qué hacen esto

    • Al final, este tipo de trabajo solo sirve para construirse el currículum de "yo contribuí a los proyectos X, Y, Z". Incluso antes de los LLM ya había muchas contribuciones vacías, como PRs de correcciones de typos que no ayudaban en nada

    • Por eso yo directamente excluyo a los usuarios de IA de cualquier interacción. Tengo que gastar decenas de veces más tiempo revisando los resultados alucinados (erróneos) que generan, así que no tengo ningún motivo para conversar con una computadora

    • Al final, en algún lado siempre hay alguien haciendo esto solo para conseguir un bote más grande