- Curso gratuito y de código abierto para aprender paso a paso la tecnología de ejecutar modelos de IA directamente en dispositivos edge
- El objetivo es ejecutar modelos de IA directamente en el dispositivo y no en la nube para lograr mínima latencia, protección de la privacidad, reducción de costos y menor dependencia de la red
- Los estudiantes pueden completar proyectos prácticos como despliegue de SLM, construcción de sistemas multiagente, implementación de pipelines RAG locales y model routing, mientras aprenden técnicas de despliegue en entornos Windows, móviles, embebidos e híbridos
- Explica de forma práctica cómo mejorar el rendimiento con herramientas clave de optimización como Llama.cpp, Microsoft Olive, OpenVINO y Apple MLX (hasta 85% de mejora en velocidad y 75% de reducción del tamaño del modelo)
- Currículum (tiempo estimado total: 36–45 horas)
- 0. Introducción a EdgeAI y objetivos de aprendizaje (introductorio: 1–2 horas)
- 1. Conceptos básicos y casos de uso de IA en el edge (básico: 3–4 horas)
- 2. Estructura y familias de modelos SLM (básico: 4–5 horas)
- 3. Prácticas de despliegue local y en la nube (intermedio: 4–5 horas)
- 4. Toolkit de optimización de modelos (Llama.cpp, etc.) (intermedio: 5–6 horas)
- 5. SLMOps y fine-tuning (avanzado: 5–6 horas)
- 6. Agentes de IA y Function Calling (avanzado: 4–5 horas)
- 7. Implementación multiplataforma (avanzado: 3–4 horas)
- 8. Proyecto de ejemplo Foundry Local (experto: 8–10 horas)
Aún no hay comentarios.