Formacion completa para ejecutar modelos de inteligencia artificial en tu propia infraestructura. Desde la seleccion de hardware hasta el despliegue en produccion con Docker, pasando por Ollama, LM Studio, Open WebUI, RAG local y automatizacion con n8n. Privacidad total, sin dependencia de terceros.
10
Clases
~8h
Contenido
40+
Ejercicios
40
Preguntas
Temario del curso
01
Por que IA Local: Ventajas e Inconvenientes
Privacidad, RGPD, costes GPU vs suscripciones, latencia, compliance y cuando tiene sentido
Clase
02
Hardware para IA Local
GPUs NVIDIA, Apple Silicon, VRAM por modelo, configuraciones por presupuesto y VPS como alternativa
Clase
03
Ollama: Tu Primera IA Local
Instalacion, comandos, Modelfile, API REST compatible OpenAI y configuracion avanzada
Clase
04
LM Studio: Interfaz Visual
Explorar Hugging Face, descargar GGUF, parametros, chat, servidor local y comparativa con Ollama
Clase
05
Modelos Open Source: Guia de Seleccion
Llama, Mistral, Qwen, DeepSeek, Phi, Gemma. Cuantizacion GGUF, VRAM y licencias
Clase
06
Open WebUI: Interfaz Profesional para tu Equipo
Docker, gestion de usuarios, RAG integrado, personalizacion y modelos multiples
Clase
07
RAG Local: Tu Base de Conocimiento Privada
Embeddings, ChromaDB, indexar documentos, AnythingLLM y busqueda semantica local
Clase
08
Automatizacion Local con n8n + Ollama
n8n self-hosted, workflows con IA local, procesar documentos y clasificar emails sin cloud
Clase
09
Despliegue en Produccion
Docker Compose, HTTPS, monitoreo GPU, actualizacion de modelos y backup
Clase
10
Estrategia Hibrida: Local + Cloud
Router de modelos, costes comparativos, plan de migracion gradual y futuro de la IA local
Clase
Examen Final
40 preguntas — Certificable
Bonificable FUNDAE
Tu empresa puede bonificar esta formacion.
Solicita acceso a este curso
Contacta con nosotros para acceder al contenido completo.
Solicitar acceso