Programa del Curso
El curso se divide en tres días distintos, siendo el tercero opcional.
Día 1 - Machine Learning y Aprendizaje Profundo: conceptos teóricos
1. Introducción AI, Machine Learning y Aprendizaje Profundo
- Historia, conceptos básicos y aplicaciones comunes de la inteligencia artificial lejanos fantasías transportadas por esta zona
Inteligencia Colectiva agregando las compartida por muchos agentes virtuales -
- Algoritmos genéticos: evolucionar una población de agentes virtuales de selección
- Máquina de aprendizaje habitual: definición.
- Los tipos de tareas: aprendizaje supervisado, no supervisado de aprendizaje, aprendizaje por refuerzo
- Tipo de acciones: clasificación, regresión, clustering, estimación de la densidad, la reducción dimensionalidad
- Ejemplos de algoritmos de aprendizaje automático: regresión lineal, Naive Bayes, Árbol aleatoria
- Aprendizaje automático VS profundo de aprendizaje: los problemas que el resto de la máquina de aprendizaje. Hoy en día el estado de la técnica (por azar Bosques y XGBoosts)
2. Fundamentos de una red neural (Aplicación: Multi-Capa Perceptron)
- bases matemáticas recordatorio.
- Definición de una red neuronal: la arquitectura clásica, y la activación de funciones. ponderación activaciones precedentes profundidad de una red
- Definición de entrenamiento de una red neuronal: las funciones de costo, de back-propagación,,descenso de gradiente estocástico, de máxima verosimilitud.
- Modelado de una red neuronal: el modelado de datos de entrada y de salida de acuerdo el tipo de problema (regresión, clasificación ...). La maldición de la dimensionalidad. distintiva dado múltiples características y señales. La elección de una función de costos de acuerdo a los datos.
- Función aproximado por una red neuronal: presentación y ejemplos
- Distribución aproximada por una red neuronal: presentación y ejemplos
- Aumento de datos: cómo equilibrar un conjunto de datos
- La generalización de los resultados de una red neuronal.
- Inicialización y acumulaciones de una red neural: L1 / L2 regularización, Batch La normalización ...
- optimizaciones y algoritmos de convergencia.
3. Herramientas de Standard ML / DL
está prevista una simple presentación con ventajas, desventajas, la posición en el ecosistema y el uso.
- Herramientas de Gestión de Datos: Spark Apache, Apache Hadoop
- Máquinas herramientas de aprendizaje habitual: Numpy, Scipy, Sci-kit
- Marcos DL alto: PyTorch, Keras, lasaña
- Marcos DL Bajo: Teano, la antorcha, Caffe, Tensorflow
Día 2 - Convolucionales y Recurrentes Redes
4. Redes Neuronales Convolucionales (CNN).
- Presentación de la CNN: principios y aplicaciones básicas
- operación fundamental de una capa convolucional CNN, el uso de un núcleo, acolchado y zancada, mapas de características de generación, la puesta en común de tipo capas. Extensiones de 1D, 2D y 3D.
- Presentación de las diferentes arquitecturas con CNN llevó el estado de la técnica en la clasificación. Image: Lenet ACV Red de Redes en Red, Origen, Resnet. Presentación de innovaciones de cada arquitectura y aplicaciones más amplias (convolución 1x1 o conexiones residuales)
- El uso de un modelo de atención.
- Aplicación a un caso de la figura de clasificación habitual (texto o imagen)
- CNN para la generación de super-resolución, pixel para la segmentación de píxeles. presentación de principales estrategias de característica cada vez más mapas para generar una imagen.
5. Las redes neuronales recurrentes (RNN).
- Presentación de RNNs: principios básicos y aplicaciones.
- Operación fundamental de la NNI: la activación oculta, de vuelta de propagación a través del tiempo, Versión desplegó.
- Cambios en el GRU (Unidades recurrente cerrada) y MTSA (memoria a largo Corto Plazo).Presentación de los diferentes estados y los cambios realizados por estas arquitecturas
- problemas de convergencia y vanising gradiente
- Tipos de arquitecturas convencionales: Serie de tiempo de predicción, clasificación ...
- Tipo de Arquitectura RNN Encoder Decoder. El uso de un modelo de atención.
- aplicaciones de PNL: Palabra / codificación de caracteres, de traducción.
- aplicaciones de vídeo: la predicción de la siguiente imagen generada a partir de una película.
Día 3 - Modelos Generacionales y Aprendizaje por Refuerzo
6. Modelos Generacionales: variacional AutoEncoder (VAE) y Generativos Acusatorios Networks (GAN).
- Presentación de los patrones generacionales, vínculos con la CNN ha visto el día 2
- Auto-codificación: reducción de la dimensionalidad y la generación limitada
- Variacional Auto-encode: modelo generacional y aproximación de la distribución de una dado. Definición y uso del espacio latente. Truco reparametrización. Y aplicaciones límites observados
- Redes generativo Acusatorios: principios fundamentales. Arquitectura en dos redes (Generador y discriminador) con el aprendizaje alternativo, funciones de coste.
- Convergencia de GAN y dificultades.
- Mejora de la Convergencia: Wasserstein GAN comenzó. Movimiento de tierras distancia.
- aplicaciones de generación de imágenes o fotografías, la generación de textos, super-
resolución.
7. profundo aprendizaje por refuerzo.
- Presentación de aprendizaje por refuerzo: un agente de control en un entorno definido por las acciones del Estado y las posibles
- El uso de una red neural a la aproximación de la función de estado
- Deep Q-learning: la experiencia de reproducción, y la aplicación para controlar un videojuego.
- Optimización de la política de aprendizaje. Una política && fuera de la política. crítico Actor la arquitectura. A3C
- Aplicaciones: control de un videojuego simple o sistema digital.
Requerimientos
Destinatarios: Ingenieros, Data-científicos que deseen aprender el neuronal redes / aprendizaje profundo
Testimonios (2)
Organización, siguiendo la agenda propuesta, el amplio conocimiento del entrenador sobre este tema
Ali Kattan - TWPI
Curso - Natural Language Processing with TensorFlow
Traducción Automática
Very updated approach or CPI (tensor flow, era, learn) to do machine learning.
Paul Lee
Curso - TensorFlow for Image Recognition
Traducción Automática