Programa del Curso

Introducción

  • Información general sobre las características y la arquitectura de Spark y Hadoop
  • Comprensión del big data
  • Python Conceptos básicos de programación

Empezar

  • Configuración de Python, Spark y Hadoop
  • Comprensión de las estructuras de datos en Python
  • Descripción de la API de PySpark
  • Descripción de HDFS y MapReduce

Integración de Spark y Hadoop con Python

  • Implementación de Spark RDD en Python
  • Procesamiento de datos con MapReduce
  • Creación de conjuntos de datos distribuidos en HDFS

Machine Learning con Spark MLlib

Procesamiento de Big Data con Spark Streaming

Trabajar con sistemas de recomendación

Trabajar con Kafka, Sqoop, Kafka y Flume

Apache Mahout con Spark y Hadoop

Solución de problemas

Resumen y próximos pasos

Requerimientos

  • Experiencia con Spark y Hadoop
  • Python Experiencia en programación

Audiencia

  • Científicos de datos
  • Desarrolladores
 21 horas

Número de participantes



Precio por participante

Testimonios (3)

Cursos Relacionados

Categorías Relacionadas