Programa del Curso

Introducción a los Modelos de Código Abierto LLM

  • Qué son los modelos de peso abierto y por qué son importantes
  • Visión general de LLaMA, Mistral, Qwen y otros modelos comunitarios
  • Casos de uso para implementaciones privadas, en premises o seguras

Configuración del Entorno y Herramientas

  • Instalación y configuración de Transformers, Datasets y bibliotecas PEFT
  • Elegir la hardware adecuado para el ajuste fino
  • Carga de modelos pre-entrenados desde Hugging Face u otros repositorios

Preparación y Preprocesamiento de Datos

  • Formatos de conjunto de datos (ajuste por instrucciones, datos de chat, texto solo)
  • Tokenización y gestión de secuencias
  • Creamos conjuntos de datos personalizados y cargadores de datos

Técnicas Fine-Tuning

  • Ajuste fino completo estándar vs. métodos eficientes en parámetros
  • Aplicación de LoRA y QLoRA para un ajuste fino eficiente
  • Uso de la API Trainer para experimentos rápidos

Evaluación y Optimización del Modelo

  • Evaluación de modelos ajustados con métricas de generación y precisión
  • Gestionar el sobreajuste, la generalización y los conjuntos de validación
  • Consejos para el ajuste de rendimiento y registro

Implementación y Uso Privado

  • Guardar y cargar modelos para inferencia
  • Implementar modelos ajustados en entornos empresariales seguros
  • Estrategias de implementación en premises vs. en la nube

Casos de Estudio y Use Cases

  • Ejemplos de uso empresarial de LLaMA, Mistral y Qwen
  • Manejo del ajuste fino multilingüe y específico por dominio
  • Discusión: Trade-offs entre modelos abiertos y cerrados

Resumen y Próximos Pasos

Requerimientos

  • Un entendimiento de los modelos de lenguaje grandes (LLMs) y su arquitectura
  • Experiencia con Python y PyTorch
  • Familiaridad básica con el ecosistema Hugging Face

Publido objetivo

  • Practicantes de IA
  • Desarrolladores de AI
 14 Horas

Número de participantes


Precio por Participante​

Próximos cursos

Categorías Relacionadas