Curso Integración de LLMs de pesos abiertos en aplicaciones on-premises

16 horas

Presencial / Virtual Class

Precio por alumno: consultar

Precio de grupo: consultar

Requisitos:

  • Esta acción formativa va dirigida a dirigida a técnicos con experiencia en IA Generativa, administradores de sistemas y desarrolladores back-end / full-stack.

Dirigido a:

  • Personas que necesiten administrar un Spark en un entorno Hadoop.

Objetivos:

  • Sentar bases técnicas sólidas para el resto del curso.

  • Elegir el modelo adecuado en función del caso de uso y los recursos disponibles.

  • Tener el modelo listo y funcionando localmente.

  • Integrar LLMs en herramientas reales on-premises.

  • Proteger las llamadas y el retorno de los LLMs.

  • Elegir la mejor herramienta de orquestación y automatización en IA.

Contenidos

1. Fundamentos y conceptos clave

1.1. Tokens, embeddings, chunking y ventanas de contexto y su impacto en la inferencia

1.2. Bases vectoriales open source

1.2.1. Arquitectura

1.2.2. Indexado

1.2.3. Consultas Semánticas

1.3. Cuantización de modelos y balance rendimiento vs precisión

1.4. Arquitecturas avanzadas:

1.4.1. RAG, agentes, pipelines

1.4.2. Protocolos de comunicación (MCP, ACP, A2A)

2. Modelos LLM open source y criterios de selección

2.1. Comparativa técnica:

2.1.1. Mistral

2.1.2. LLaMA

2.1.3. DeepSeek

2.1.4. Qwen

2.2. Parámetros, licencias, requisitos de hardware y capacidades multilingües/multimodales

2.3. Modelos especializados por dominio: ventajas, limitaciones y casos de uso

3. Despliegue y optimización on-premises

3.1. Entornos de ejecución

3.2. Configuración avanzada

3.2.1. GPU vs CPU, cuantización, rutas de acceso, logs y monitorización

3.2.2. Benchmark y pruebas de rendimiento para garantizar eficiencia

4. Integración mediante API y ejemplos prácticos

4.1. Exposición de modelos vía REST o WebSocket

4.2. Integración con aplicaciones reales:

4.2.1. Respuestas automáticas de correo

4.2.2. Asistente de escritura y productividad

4.2.3. Generación de contenidos y resúmenes

5. Seguridad, gobernanza y mejores prácticas

5.1. Validación y sanitización de entradas

5.2. Filtrado de respuestas

5.3. Autenticación, autorización y control de acceso en endpoint

5.4. Logging, trazabilidad, auditoría y cumplimiento del AI Act

6. Plataformas y frameworks de integración open-source

6.1. LangChain, n8n, Flowise, LlamaIndex: funcionalidades, limitaciones y

estrategias híbridas

6.2. Casos de uso técnico: orquestación, pipelines y coordinación multi-modelo

Descarga este curso:

Catálogo de cursos

Conoce nuestra oferta formativa para este año:

Solicítanos más información y/o como subvencionarte este curso con el siguiente formulario:

Curso: Integración de LLMs de pesos abiertos en aplicaciones on-premises

Política de privacidad:

Comunicaciones:

4 + 7 =