Curso Integración de LLMs de pesos abiertos en aplicaciones on-premises
16 horas
Presencial / Virtual Class
Precio por alumno: consultar
Precio de grupo: consultar
Requisitos:
Esta acción formativa va dirigida a dirigida a técnicos con experiencia en IA Generativa, administradores de sistemas y desarrolladores back-end / full-stack.
Dirigido a:
Personas que necesiten administrar un Spark en un entorno Hadoop.
Objetivos:
Sentar bases técnicas sólidas para el resto del curso.
Elegir el modelo adecuado en función del caso de uso y los recursos disponibles.
Tener el modelo listo y funcionando localmente.
Integrar LLMs en herramientas reales on-premises.
Proteger las llamadas y el retorno de los LLMs.
Elegir la mejor herramienta de orquestación y automatización en IA.
Contenidos
1. Fundamentos y conceptos clave
1.1. Tokens, embeddings, chunking y ventanas de contexto y su impacto en la inferencia
1.2. Bases vectoriales open source
1.2.1. Arquitectura
1.2.2. Indexado
1.2.3. Consultas Semánticas
1.3. Cuantización de modelos y balance rendimiento vs precisión
1.4. Arquitecturas avanzadas:
1.4.1. RAG, agentes, pipelines
1.4.2. Protocolos de comunicación (MCP, ACP, A2A)
2. Modelos LLM open source y criterios de selección
2.1. Comparativa técnica:
2.1.1. Mistral
2.1.2. LLaMA
2.1.3. DeepSeek
2.1.4. Qwen
2.2. Parámetros, licencias, requisitos de hardware y capacidades multilingües/multimodales
2.3. Modelos especializados por dominio: ventajas, limitaciones y casos de uso
3. Despliegue y optimización on-premises
3.1. Entornos de ejecución
3.2. Configuración avanzada
3.2.1. GPU vs CPU, cuantización, rutas de acceso, logs y monitorización
3.2.2. Benchmark y pruebas de rendimiento para garantizar eficiencia
4. Integración mediante API y ejemplos prácticos
4.1. Exposición de modelos vía REST o WebSocket
4.2. Integración con aplicaciones reales:
4.2.1. Respuestas automáticas de correo
4.2.2. Asistente de escritura y productividad
4.2.3. Generación de contenidos y resúmenes
5. Seguridad, gobernanza y mejores prácticas
5.1. Validación y sanitización de entradas
5.2. Filtrado de respuestas
5.3. Autenticación, autorización y control de acceso en endpoint
5.4. Logging, trazabilidad, auditoría y cumplimiento del AI Act
6. Plataformas y frameworks de integración open-source
6.1. LangChain, n8n, Flowise, LlamaIndex: funcionalidades, limitaciones y
estrategias híbridas
6.2. Casos de uso técnico: orquestación, pipelines y coordinación multi-modelo
Catálogo de cursos
Conoce nuestra oferta formativa para este año:
