16 puntos por GN⁺ 2025-03-12 | 4 comentarios | Compartir por WhatsApp
  • Potente herramienta de investigación impulsada por IA, que utiliza varios LLM y búsqueda web para realizar análisis iterativos en profundidad
    • Integra funciones de búsqueda de ArXiv, Wikipedia, Google, PubMed, DuckDuckGo, SerpAPI, RAG local, The Guardian y más
  • Puede ejecutarse en local para reforzar la privacidad o configurarse con LLM basados en la nube para mejorar el rendimiento

Funciones avanzadas de investigación

  • Investigación profunda automatizada: generación inteligente de preguntas de seguimiento
  • Rastreo y verificación de fuentes: seguimiento automático de citas y fuentes
  • Análisis iterativo: cobertura integral mediante análisis iterativo de múltiples etapas
  • Análisis del contenido completo de páginas web: análisis basado en el contenido completo, no solo en fragmentos

Soporte flexible de LLM

  • Soporte para modelos locales: procesamiento de IA local basado en Ollama
  • Soporte para modelos en la nube: compatibilidad con LLM en la nube como Claude, GPT y otros
  • Compatibilidad con modelos de Langchain: soporte para varios modelos de Langchain
  • Selección de modelo: posibilidad de configurar modelos según rendimiento, velocidad de respuesta, etc.

Opciones de salida enriquecidas

  • Resultados de investigación detallados: informes detallados con citas incluidas
  • Informe de investigación integral: entrega resultados de investigación completos
  • Resumen rápido: permite resumir los puntos clave
  • Rastreo y verificación de fuentes: soporte para seguimiento y verificación de fuentes

Diseño centrado en la privacidad

  • Ejecución local disponible: al usar modelos locales, todos los datos se almacenan en el dispositivo del usuario
  • Configuración de búsqueda ajustable: refuerza la protección de la privacidad
  • Procesamiento de datos transparente: explica claramente cómo se manejan los datos

Integración de búsqueda mejorada

  • Selección automática del motor de búsqueda: elige automáticamente el motor según el contenido de la consulta
  • Integración con Wikipedia: búsqueda confiable de hechos
  • Integración con arXiv: búsqueda de artículos científicos e investigaciones académicas
  • Integración con PubMed: búsqueda de materiales de investigación médica y biomédica
  • Integración con DuckDuckGo: búsqueda web general centrada en privacidad (puede haber limitación de velocidad)
  • Integración con SerpAPI: proporciona resultados de búsqueda de Google (requiere clave de API)
  • Google Programmable Search: configuración de búsqueda personalizada (requiere clave de API)
  • Integración con The Guardian: búsqueda de noticias y contenido periodístico (requiere clave de API)
  • Búsqueda RAG local: permite buscar en documentos personales (usando embeddings vectoriales)
  • Búsqueda en el contenido completo de páginas web: permite buscar en todo el contenido de una página
  • Filtrado y verificación de fuentes: permite filtrar por fuentes confiables
  • Configuración de parámetros de búsqueda: permite ajustar alcance, periodo y más

Búsqueda de documentos locales (RAG)

  • Búsqueda basada en embeddings vectoriales: permite encontrar contenido en documentos personales
  • Creación de colecciones de documentos personalizadas: permite agrupar documentos por tema
  • Protección de la privacidad: todos los documentos se procesan localmente
  • Fragmentación y búsqueda inteligentes: divide y busca el contenido de los documentos de forma inteligente
  • Compatibilidad con varios formatos de documento: soporte para PDF, texto, Markdown y más
  • Aplicación automática de meta-búsqueda integrada: permite integrar búsqueda local y web

Interfaz web

  • Panel de control: interfaz intuitiva
  • Actualizaciones de progreso en tiempo real: muestra el estado de avance de la investigación en tiempo real
  • Gestión del historial de investigación: acceso y administración de investigaciones anteriores
  • Exportación de informes en PDF: permite descargar los informes de investigación en PDF
  • Gestión de investigaciones: permite detener o eliminar investigaciones en curso

Opciones de motores de búsqueda compatibles

  • Auto: selección automática del motor según la consulta
  • Wikipedia: adecuada para buscar información general y hechos
  • arXiv: adecuada para buscar artículos científicos y académicos
  • PubMed: adecuada para investigación biomédica y médica
  • DuckDuckGo: búsqueda web general centrada en la privacidad
  • The Guardian: búsqueda de noticias y periodismo (requiere clave de API)
  • SerpAPI: proporciona resultados de búsqueda de Google (requiere clave de API)
  • Google Programmable Search: búsqueda personalizada (requiere clave de API)

4 comentarios

 
zxshinxz 2025-03-13
  • Como alguien que trabaja en el área de las ciencias de la vida, quiero compartir brevemente los resultados de mi uso.

El modo de investigación se ofrece en 2 opciones.

  1. Resumen rápido
  • El tiempo requerido es de unos 5~6 minutos (basado en 4070 ti super, 16GB, Mistral y Gemma 3:12b)
  • Hay algo de alucinación, así que genera las referencias por su cuenta, pero las refs que aparecen enlazadas en el documento parecen tener una fuente clara.
  • Parece haber una intención de responder enfocándose en nuevas tecnologías. En particular, intenta relacionarlo con la IA.
  1. Informe detallado
  • El tiempo requerido es de alrededor de 1 hora (4070 ti super 16GB, Gemma 3:12b)
  • Es como si generara un solo artículo de revisión. Pero tiene el problema de que la cantidad de referencias se reduce drásticamente. Aunque supongamos que el contenido es correcto, hace falta cierta mejora porque no se puede respaldar con evidencia. (Parece que hace una especie de refinamiento para mejorar la calidad del texto, y en ese proceso da la impresión de que se pierden los enlaces de las refs.)
  • Aun así, definitivamente ofrece contenido de mayor calidad que el resumen rápido.

En el archivo de configuración se pueden ajustar varias opciones. Se puede limitar la base de datos de búsqueda solo a PubMed para elevar todavía más la calidad del material. También se puede configurar cuántos textos buscar a la vez o cuántos chunks crear al usar RAG.

Considerando que actualmente está en la versión 0.01V, resulta muy sorprendente que pueda generar reportes de este nivel en una máquina local. Especialmente en el área de ciencias de la vida, los chatbots suelen usar descripciones generalizadas, pero los reportes creados con este programa usan una redacción muy científica.

Actualmente este programa no soporta coreano. Aunque se haga la pregunta en coreano, el reporte se genera en inglés.
Además, al recibir la respuesta como archivo PDF mediante la exportación a PDF, existe el problema de que el coreano no se muestra.

Creo que si se resuelven el problema de que las refs desaparecen durante la generación del reporte y el problema de las alucinaciones, sería una herramienta realmente poderosa.

 
zxshinxz 2025-03-14

Tras usarlo más, parece que en Ollama funciona bien entre varios modelos, especialmente con Qwen2.5. Deepseek-r1 arma consultas raras al hacer búsquedas, así que trae mal el contenido que sirve como fundamento, y los modelos de la familia Gemma interpretan el prompt puesto como ejemplo como si fuera el prompt real, e intentan meter a la fuerza contenido de temas relacionados.

 
GN⁺ 2025-03-12
Opiniones de Hacker News
  • Aplaudo el esfuerzo por espacios locales y de baja fidelidad. Sin embargo, al leer los ejemplos del documento, el resultado se siente algo confuso

    • Creo que hace falta uno o más pasos intermedios. Por ejemplo, se podría usar una base de datos de grafos para que el LLM almacene información, verifique interconexiones y se haga preguntas a sí mismo antes de generar el informe final
    • El informe final podría ser un archivo HTML interactivo que el usuario pueda consultar o editar directamente
    • Hay una herramienta similar de investigación profunda abierta llamada Onyx, y su UI/UX parece mejor. El autor podría considerar portar esta herramienta a local
    • No es que este proyecto sea malo, pero me preocupa que muchos proyectos abiertos de deep research desaparezcan. Sería mejor colaborar enfocándose en lo que más le interesa a la gente
  • Este proyecto está genial

    • Si quieres agregar embeddings usando internet como fuente, recomendaría probar exa.ai. Incluye Wikipedia, miles de feeds de noticias, Github y más de 70 millones de artículos académicos
    • Nota: soy uno de los fundadores
  • Lo probé, pero ocurrieron muchos errores y no pude generar un informe. No hay forma de reanudar cuando falla la generación, así que si una llamada a la API falla, hay que empezar de nuevo desde cero

  • También consideraría las APIs de Kagi y Tavily para búsqueda web

  • Se ve muy bien. Me pregunto cómo se compara con la funcionalidad RAG de open-webui

    • Hay métodos de búsqueda web e incrustación de documentos, pero los resultados son insuficientes porque se pierden detalles en los embeddings. Me pregunto si este método es mejor
  • Me pregunto si alguien está usando un LLM local para buscar directamente material relevante en una colección de documentos, sin depender de búsqueda vectorial

  • Buen trabajo

    • Últimamente he pensado que una colección local preprocesada, usando información estructurada y curada para RAG, podría ser un buen complemento para este enfoque de búsqueda dinámica
    • Vi que usaron LangChain; también valdría la pena revisar txtai
  • Me pregunto si existe alguna herramienta que ofrezca una experiencia de búsqueda con IA y mezcle el contenido de tus marcadores para generar informes. Mis marcadores están prácticamente inútiles en este momento. Esto podría hacerlos útiles

    • Un modo de fallo frecuente en el deep research de OpenAI actualmente es que toma respuestas de fuentes de baja autoridad y luego presenta citas como si fueran revistas científicas. Esas fuentes casi no contienen nada valioso, y aunque otras fuentes sean de alta calidad, una fuente mala arruina todo
    • Darle prioridad al contenido que ya curaste (marcadores) podría mejorar mucho la relación señal-ruido (SNR)
  • Creo que quien construya una GUI tipo juego 3D para LLMs será el próximo Jobs/Gates/Musk y ganador del Nobel. Eso permitirá que millones de personas vean el interior de los LLMs y resolverá el problema de la alineación. Las computadoras no se masificaron hasta que aparecieron los sistemas operativos con GUI, y los chatbots actuales se parecen más a una línea de comandos. Empecé un ASK HN para compartir ideas sobre seguridad en IA

 
zhniee 2025-03-13

No se entiende. Ni siquiera llega a un nivel de primaria en programación, mucho menos a un nivel académico; no entiendo por qué comparten esto...