Construir una web de confianza para enfrentar el spam de LLM
(blog.tangled.org)- Tangled incluye de forma nativa una función de vouching que permite a los usuarios avalar o denunciar a otros usuarios con los que han interactuado, y la usa como una señal de confianza para responder al aumento de envíos basados en LLM
- Los usuarios avalados muestran un ícono de escudo verde junto a su foto de perfil, mientras que los usuarios denunciados muestran un ícono de escudo rojo, lo que sirve como pista para decidir si interactuar con ellos
- A medida que las herramientas basadas en LLM reducen la barrera para enviar código a los proyectos, pueden aumentar los envíos de estilo “valle inquietante” que parecen correctos a simple vista pero son sutilmente erróneos, y los mantenedores pueden avalar o denunciar a contribuyentes que abusan de estas herramientas y generan carga de mantenimiento
- Los avales y denuncias incluyen un campo de motivo basado en texto y aplican atenuación, por lo que los usuarios solo pueden ver los juicios emitidos por ellos mismos y por su círculo
- Al avalar o denunciar en Tangled, se crea un registro público en el PDS del usuario, y el appview lo agrega para mostrar un “sombrero” de aval sobre los perfiles en issues, comentarios, pull requests y comentarios de pull requests
Señales de confianza en Tangled
- Tangled incluye de forma nativa una función de vouching que permite a los usuarios avalar o denunciar a otros usuarios con los que han interactuado
- Los usuarios avalados muestran un ícono de escudo verde junto a su foto de perfil, y los usuarios denunciados muestran un ícono de escudo rojo
- Los usuarios también pueden ver los juicios de aval o denuncia emitidos por su círculo, y usarlos como señal para decidir si interactuar o no
- A medida que las herramientas basadas en LLM reducen la barrera para enviar código a los proyectos, pueden aumentar los envíos de estilo “valle inquietante” que parecen correctos a simple vista pero son sutilmente erróneos
- Los mantenedores de la red Tangled pueden avalar o denunciar a contribuyentes que abusan de estas herramientas y generan carga de mantenimiento
Cómo funciona y limitaciones de diseño
-
Diseño cuidadoso
- Los avales y denuncias incluyen un campo de motivo basado en texto
- Se aplica atenuación, por lo que los usuarios solo pueden ver los juicios emitidos por ellos mismos y por su círculo
- Actualmente, los usuarios denunciados no son bloqueados del proyecto; solo se muestra una etiqueta roja de advertencia en partes de la UI
-
Funciones adicionales previstas
- Como con el tiempo los mantenedores y contribuyentes pueden dejar un proyecto, los avales se debilitan con el paso del tiempo y deben renovarse ocasionalmente
- Podría añadirse una función de seguimiento de evidencia en la que, si se avala a un usuario justo después de fusionar un PR, ese PR se agrega como evidencia al registro de aval
-
Registros públicos y dónde se muestran
- Cuando alguien es avalado o denunciado en Tangled, se crea un registro público en el PDS del usuario
- Ese registro incluye si se trata de un aval o una denuncia, junto con un motivo opcional
- El appview de Tangled agrega los datos de aval de toda la red y muestra un “sombrero” de aval sobre los perfiles en los puntos de interacción
- Los lugares donde se muestra son issues, comentarios de issues, pull requests y comentarios de pull requests
-
Visibilidad basada en círculos
- El sombrero solo se muestra sobre un usuario si fue avalado o denunciado directamente por el usuario, o si fue avalado o denunciado por alguien a quien el usuario avaló
- Al hacer clic en el sombrero, se puede ver quién dentro de su círculo avaló o denunció a ese usuario
- Por ahora, el único resultado de una denuncia es la visualización del sombrero; en el futuro eso podría cambiar, pero por ahora se usa como una señal para ayudar a juzgar
1 comentarios
Opiniones en Lobste.rs
Una forma mejor y más simple sería crear una política fuerte anti-LLM y hacerla cumplir bien. También habría que alejarse de plataformas que fomentan el uso de LLM o tienen una postura pro-AI, como GitHub
No sería 100% efectivo, pero incluso cuando alguien intenta ocultar que usó un LLM, por lo general termina notándose, y ahí se le puede bloquear de inmediato. Si una empresa empuja spam con LLM, se puede bloquear a toda la empresa y, si usas una forja autoalojada, incluso bloquear en el firewall la red de esa compañía
Los sistemas improvisados tipo prueba de trabajo perjudican a quienes contribuyen por primera vez y a quienes pasan de vez en cuando, y al final los avales de confianza también son una forma de prueba de trabajo. Es más efectivo golpear rápido a los actores maliciosos que fastidiar a la gente más débil
Incluso en la cita dice que esto sirve para avalar o criticar a personas que abusan de esta herramienta y generan carga de mantenimiento
Hacer que la gente acepte una prohibición a nivel de plataforma solo porque alguien se pone a hacer una cacería de brujas contra los LLM sería contraproducente. Incluso aquí o en HN a veces aparecen sospechas equivocadas de que un texto fue escrito con LLM; si hubiera que lidiar con eso en los PR, sería realmente agotador
Este sistema busca evitar a quienes usan mal las herramientas y generan carga de mantenimiento, y también podría servir con personas que generan esa carga de la manera tradicional. Se parece más a un modelo más avanzado de permisos de commit
Si tienes una política anti-LLM, esto podría servir para aplicarla; si tienes una política contra el acoso, también podría servir para eso
Si no está conectado directamente con la posibilidad de enviar PR, en el mejor de los casos esto parece inútil y, en el peor, un sistema de moderación dañino. Alguien va a empezar a criticar en masa a usuarios que alguna vez usaron LLM, y después podrían empezar ataques colectivos por otros motivos
La web de confianza en sí suena genial, pero este proyecto solo trata la parte técnica y no la social. Si vas a construir un sistema de moderación y no tienes una sección grande donde se refleje en el diseño del sistema “cómo escalar esto sin abusos”, entonces se vienen sorpresas
Es un experimento bastante interesante porque primero le agrega un incentivo social para intentar resolver un problema social, y el diseño se ve ingenioso
Si “los usuarios criticados no sufren ninguna consecuencia; solo reciben sombreros”, entonces, ¿qué sentido tiene? Al final igual hay que seguir procesando los PR
Por ejemplo, cosas como bloquearlos o bajarles la prioridad
¿Hay algún mecanismo que impida crear varios dominios y en cada uno generar un millón de usuarios que se avalen entre sí? Así otras personas podrían comprarme paquetes de reputación difíciles de distinguir de los reales
En comparación, el modelo de árbol de invitaciones de lobste.rs parece mejor. Si alguien empieza a abusar, es fácil cortar todo el subárbol, y además crece más lento, lo cual incluso puede ser una ventaja
En human.json, probablemente nadie avalaría nodos de una red así, o tendrían tan pocas conexiones entrantes que la distancia saldría muy grande. Eso no significa que no se pueda meter un sitio en la red, pero los avales y la desconfianza podrían expulsarlo rápido. Todavía falta ver cómo funcionaría en la práctica
Estaría bueno tener una capa de UI parecida a petnames, donde se pueda ver en línea o al pasar el mouse algo como “avalado por X, Y, Z”
Me pregunto cuánto ayudaría eso a frenar la “granja de reputación”
Al final todos los datos son públicos, así que alguien podría crear tangled2.org y armar un grafo global, pero la UI está diseñada deliberadamente para que los avales se debiliten fuera de tu propio círculo
La idea está buena, pero me pregunto si no sería mejor simplemente comunicarse de forma natural. Hasta la comunicación más trivial está demasiado ordenada y demasiado consistente
Dejar errores de dedo en lo que uno escribe deja una especie de huella más humana
Me gusta esta idea. Me recuerda al tree of trust que usa lobste.rs
Se siente como si estuviéramos recreando rápidamente la investigación sobre métricas de confianza que se hizo casi al mismo tiempo que nació el open source. Me pregunto qué opinaría @raph de esto
No era perfecto, pero sin duda era mucho mejor que no tener nada
Siento que ya existen como seis cosas de este tipo, así que ¿por qué no unirse a una de las ya existentes en vez de hacer otra más?