- Ollama lanzó una API con la función de búsqueda de información web actualizada, que ayuda a reducir las alucinaciones del modelo y a mejorar la precisión
- Incluso las cuentas gratuitas incluyen una generosa cuota gratuita de búsquedas, y los usuarios de alta frecuencia pueden acceder a límites más altos mediante Ollama Cloud
- Basada en REST API, se integra con bibliotecas de Python y JavaScript, lo que permite que modelos como OpenAI
gpt-oss realicen tareas de investigación de larga duración
- Con las funciones
web_search y web_fetch, devuelve resultados de miles de tokens y ofrece integración con diversas herramientas como Cline, Codex y Goose mediante servidores MCP
- Esto permite crear directamente agentes de búsqueda, ampliando enormemente la versatilidad con la que los modelos de IA pueden interactuar con datos actualizados
Introducción a la función de búsqueda web de Ollama
- Ollama publicó su API de búsqueda web, ofreciendo un entorno en el que los modelos de IA pueden recibir de inmediato información actualizada de la web
- Gracias a esto, se puede esperar una reducción de las alucinaciones (hallucination) junto con una mejora de la precisión
- Para los usuarios individuales, ofrece una cuota gratuita de búsquedas bastante amplia, y si se necesita un mayor volumen de uso, la cuota puede ampliarse mediante una suscripción a Ollama Cloud
- Se ofrece como REST API y permite una integración avanzada de herramientas mediante bibliotecas de Python y JavaScript
- Gracias a esta estructura, varios modelos como gpt-oss pueden llevar a cabo investigación y búsquedas de largo plazo
Ejemplos de uso de la API
- Con una API key emitida desde una cuenta de Ollama, se pueden hacer llamadas con
cURL, con ollama.web_search() en Python y con client.webSearch() en JavaScript
- Los resultados se devuelven en una estructura JSON que incluye título, URL y resumen del contenido
- Al usar la API
web_fetch, también es posible obtener el contenido de una página por URL, incluyendo texto principal y lista de enlaces
Implementación de un agente de búsqueda basado en web
- La API de Ollama puede combinarse con modelos como Qwen3 y gpt-oss para desarrollar un agente de búsqueda multi-turno automatizado
- En el código de ejemplo, se usa el modelo Qwen3:4B para automatizar el proceso de búsqueda → razonamiento → resumen de resultados
- Con base en los resultados de búsqueda, pasa por un proceso de "Thinking" y reutiliza repetidamente los resultados de llamadas a herramientas de búsqueda/fetch para ejecutar escenarios complejos de investigación o exploración
- La nueva actualización del motor de Ollama incluye gestión precisa de memoria, optimización para GPU/multi-GPU, mejoras de rendimiento y soporte completo para modelos de visión (multimodal)
Modelos recomendados y guía de rendimiento
- Se recomiendan modelos en la nube con gran capacidad de uso de herramientas (por ejemplo,
qwen3:480b-cloud, gpt-oss:120b-cloud, deepseek-v3.1-cloud)
- Dado que las herramientas de búsqueda y fetch pueden devolver datos de miles de tokens, se recomienda ampliar la longitud de contexto del modelo a alrededor de 32000 tokens
Función de fetch de páginas web individuales
- Además de la búsqueda web, también se ofrece una API/función para extraer directamente el texto y la estructura de enlaces de una página web específica
- Con Python, JavaScript o cURL, basta con pasar url como argumento para extraer
title, content, enlaces conectados y más de la página
- Se pueden consultar ejemplos de código más detallados en el repositorio oficial de GitHub
Integración de herramientas y agentes
web_search y web_fetch devuelven miles de tokens de datos, por lo que se recomienda aumentar el contexto del modelo a 32K o más
- Con soporte para servidores MCP, es posible una integración directa con entornos de desarrollo de IA como Cline, Codex y Goose
- El repositorio oficial de GitHub incluye ejemplos de código en Python y JavaScript
Cómo empezar
- La búsqueda web viene incluida de forma predeterminada con una cuenta gratuita de Ollama, y para un mayor volumen de uso se puede acceder mediante una suscripción de pago
- Puedes crear una cuenta en el sitio web de Ollama, obtener una API key y empezar a usar el servicio de inmediato
3 comentarios
Parece que la versión gratuita de ollama no va a estar a un nivel utilizable para uso real..
Ni en la página de precios explican las cuotas, así que no me queda claro si realmente vale la pena.
Opiniones en Hacker News
non-local) y además rinde peor que vLLM. Quiero montar algo como open-webui mediante una API compatible con OpenAI para crear un entorno donde el usuario pueda elegir entre varios LLM, y me pregunto qué alternativa a Ollama serviría bien para aprovechar varias RTX 3090 (entre 1 y 5)gpt-oss-120b,deepseek,qwen3-coder 480b, etc.). Es una forma de monetizar el éxito de Ollama