Programa del Curso

Introducción

  • Redes neuronales artificiales frente a algoritmos basados en árboles de decisión

Descripción general de las características de XGBoost

  • Elements de un algoritmo de aumento de gradiente
  • Céntrese en la velocidad computacional y el rendimiento del modelo
  • XGBoost vs Regresión Logística, Random Forest, y Aumento de Gradiente estándar

La evolución de los algoritmos basados en árboles

  • Árboles de decisión, embolsado, Random Forest, boosting, aumento de gradiente
  • Optimización del sistema
  • Mejoras algorítmicas

Preparación del entorno

  • Instalación SciPy y scikit-learn

Creación de un modelo XGBoost

  • Descarga de un conjunto de datos
  • Resolver un problema de clasificación común
  • Entrenamiento del modelo XGBoost para la clasificación
  • Resolver una tarea de regresión común

Supervisión del rendimiento

  • Evaluación e informes de rendimiento
  • Parada temprana

Trazar características por importancia

  • Cálculo de la importancia de la característica
  • Decidir qué variables de entrada mantener o descartar

Configuración del aumento de gradiente

  • Revisión de las curvas de aprendizaje de los conjuntos de datos de entrenamiento y validación
  • Ajuste de la tasa de aprendizaje
  • Ajustar el número de árboles

Ajuste de hiperparámetros

  • Mejorar el rendimiento de un modelo XGBoost
  • Diseño de un experimento controlado para ajustar los hiperparámetros
  • Búsqueda de combinaciones de parámetros

Creación de una canalización

  • Incorporación de un modelo XGBoost en una canalización de aprendizaje automático de extremo a extremo
  • Ajuste de hiperparámetros dentro de la canalización
  • Técnicas avanzadas de preprocesamiento

Solución de problemas

Resumen y conclusión

Requerimientos

  • Experiencia en la escritura de modelos de aprendizaje automático

Audiencia

  • Científicos de datos
  • Ingenieros de aprendizaje automático
 14 horas

Número de participantes


Precio por participante

Próximos cursos