- Ejecuta por completo en el dispositivo el modelo Gemma 4 de Google basado en WebGPU para usarlo como un asistente personal de IA residente dentro del navegador
- Sin clave de API, sin nube, sin transferencia externa de datos: toda la inferencia se procesa localmente y los datos no salen del dispositivo
- Soporta comportamientos de agente para leer la página visitada, hacer clic en botones, completar formularios, ejecutar JavaScript y realizar preguntas y respuestas sobre el sitio
- Se puede elegir entre dos modelos, Gemma 4 E2B (~500MB) / E4B (~1.5GB), y se almacenan en caché tras la primera ejecución para reutilizarlos
- Soporta cuantización q4f16 y contexto de 128K (
onnx-community/gemma-4-E2B-it-ONNX, onnx-community/gemma-4-E4B-it-ONNX)
- Incluye 6 herramientas integradas
read_page_content: lee texto/HTML de la página o según un selector CSS
take_screenshot: captura la página visible en PNG
click_element / type_text / scroll_page: manipulación del DOM basada en selectores CSS
run_javascript: ejecución de JS con acceso completo al DOM en el contexto de la página
- Arquitectura de 3 capas: Offscreen Document + Service Worker + Content Script
- El offscreen document aloja el modelo con
@huggingface/transformers + WebGPU y ejecuta el bucle del agente
- El service worker se encarga del enrutamiento de mensajes y de las capturas de pantalla y ejecución de JS
- El content script inyecta el ícono de gem y la superposición de chat con shadow DOM
- En la configuración permite cambiar de modelo, activar/desactivar Thinking, límite del bucle de llamadas a herramientas, reiniciar el historial de conversación y desactivación por sitio
- El directorio
agent/ tiene cero dependencias y puede convertirse en una librería independiente basada en las interfaces ModelBackend y ToolExecutor
- Requiere Chrome con soporte para WebGPU / licencia Apache-2.0 / implementación basada en TypeScript
Aún no hay comentarios.