
Los cursos de capacitación locales, guiados por instructores en vivo de Apache, demuestran a través de la práctica cómo la chispa encaja en el gran ecosistema de datos y cómo usar la chispa para el análisis de datos.
El entrenamiento de Apache Spark está disponible como "entrenamiento en vivo en el sitio" o "entrenamiento remoto en vivo". El entrenamiento en vivo se puede realizar localmente en las instalaciones del cliente en Chile o en los centros de entrenamiento corporativos de NobleProg en Chile. El entrenamiento remoto en vivo se lleva a cabo por medio de un escritorio remoto interactivo.
NobleProg--su proveedor de capacitación local
Machine Translated
Testimonios
Richard es muy tranquilo y metódico, con una visión analítica, exactamente las cualidades necesarias para presentar este tipo de curso.
Kieran Mac Kenna
Curso: Spark for Developers
Machine Translated
compartir diagrama conceptual y también muestra para manos sucias
Mark Yang - FMR
Curso: Spark for Developers
Machine Translated
Casos y casos aplicables
zhaopeng liu - Fmr
Curso: Spark for Developers
Machine Translated
Análisis de caso
国栋 张
Curso: Spark for Developers
Machine Translated
todas las partes de esta sesión
Eric Han - Fmr
Curso: Spark for Developers
Machine Translated
Sabemos mucho más sobre todo el entorno.
John Kidd
Curso: Spark for Developers
Machine Translated
El entrenador hizo la clase interesante y entretenida, lo que ayuda bastante con el entrenamiento de todo el día.
Ryan Speelman
Curso: Spark for Developers
Machine Translated
Creo que el entrenador tenía un estilo excelente de combinar el humor y las historias de la vida real para que los temas disponibles fueran muy accesibles. Recomiendo encarecidamente a este profesor en el futuro.
Curso: Spark for Developers
Machine Translated
Ernesto hizo un gran trabajo al explicar los conceptos de alto nivel del uso de Spark y sus diversos módulos.
Michael Nemerouf
Curso: Spark for Developers
Machine Translated
Este es uno de los mejores cursos prácticos de programación de ejercicios que he tomado.
Laura Kahn
Curso: Artificial Intelligence - the most applied stuff - Data Analysis + Distributed AI + NLP
Machine Translated
Esta es una de las mejores capacitaciones en línea de calidad que he tomado en mi carrera de 13 años. ¡Mantener el buen trabajo!.
Curso: Artificial Intelligence - the most applied stuff - Data Analysis + Distributed AI + NLP
Machine Translated
Richard estaba muy dispuesto a divagar cuando queríamos hacer preguntas semi relacionadas con cosas que no estaban en el programa de estudios. Las explicaciones fueron claras y él estuvo al frente de las advertencias en cualquier consejo que nos dio.
ARM Limited
Curso: Spark for Developers
Machine Translated
La VM me gustó mucho El profesor estaba muy bien informado sobre el tema, así como otros temas, era muy agradable y amable Me gustó la instalación en Dubai.
Safar Alqahtani - Elm Information Security
Curso: Big Data Analytics in Health
Machine Translated
tareas de práctica
Pawel Kozikowski - GE Medical Systems Polska Sp. Zoo
Curso: Python and Spark for Big Data (PySpark)
Machine Translated
Ajay fue muy amable, servicial y también conocedor del tema que estaba discutiendo.
Biniam Guulay - ICE International Copyright Enterprise Germany GmbH
Curso: Spark for Developers
Machine Translated
Los ejercicios de laboratorio. Aplicando la teoría desde el primer día en los días siguientes.
Dell
Curso: A Practical Introduction to Stream Processing
Machine Translated
El profesor ha adaptado el programa de capacitación a nuestras necesidades actuales.
EduBroker Sp. z o.o.
Curso: Python and Spark for Big Data (PySpark)
Machine Translated
Hacer ejercicios similares de diferentes maneras realmente ayuda a comprender lo que cada componente ( Hadoop / Spark, independiente / clúster) puede hacer por sí solo y en conjunto. Me dio ideas sobre cómo debería probar mi aplicación en mi máquina local cuando desarrollo frente a cuando se implementa en un clúster.
Thomas Carcaud - IT Frankfurt GmbH
Curso: Spark for Developers
Machine Translated
atención individual.
ARCHANA ANILKUMAR - PPL
Curso: Python and Spark for Big Data (PySpark)
Machine Translated
Aprender a Spark Streaming, DaubRicks y AWS RedShift
Lim Meng Tee - Jobstreet.com Shared Services Sdn. Bhd.
Curso: Apache Spark in the Cloud
Machine Translated
El contenido y el conocimiento.
Jobstreet.com Shared Services Sdn. Bhd.
Curso: Apache Spark in the Cloud
Machine Translated
Fue muy informativo. He tenido muy poca experiencia con chispa antes y hasta ahora este curso ha proporcionado una muy buena introducción al tema.
Intelligent Medical Objects
Curso: Apache Spark in the Cloud
Machine Translated
Fue genial para obtener una comprensión de lo que está pasando bajo el capó de Spark. Saber lo que está pasando bajo el capó ayuda a entender mejor por qué el código está haciendo o no lo que espera que haga. Gran parte de la formación fue manos en las que siempre es genial y la sección sobre optimizaciones fue excepcionalmente relevante para mi trabajo actual, que fue agradable.
Intelligent Medical Objects
Curso: Apache Spark in the Cloud
Machine Translated
¡Esta es una gran clase! Aprecio lo que aprecia que Anras explica muy claramente qué se trata, es donde se produjeron, y qué problemas puede resolver. Mucho mejor que otras introducciones que he visto que solo se sumerge en cómo usarla. Andros tiene un profundo conocimiento del tema y explica las cosas muy bien.
Intelligent Medical Objects
Curso: Apache Spark in the Cloud
Machine Translated
Los ejemplos en vivo que se les dieron y mostraron los aspectos básicos de la chispa.
Intelligent Medical Objects
Curso: Apache Spark in the Cloud
Machine Translated
1 . Equilibrio correcto entre conceptos de alto nivel y detalles técnicos. 2. Andros está muy bien informado sobre su enseñanza. 3. Ejercicio
Steven Wu - Intelligent Medical Objects
Curso: Apache Spark in the Cloud
Machine Translated
Tener las manos en sesión / asignaciones
Poornima Chenthamarakshan - Intelligent Medical Objects
Curso: Apache Spark in the Cloud
Machine Translated
El entrenador ajustó el entrenamiento ligeramente en función de la solicitud de audiencia, por lo que tiran algo de luz en algunos temas diferentes a los que hemos solicitado
Intelligent Medical Objects
Curso: Apache Spark in the Cloud
Machine Translated
Su ritmo, fue genial. Me encantó el hecho de que entrara en la teoría para que entiendo por qué haría las cosas que está preguntando.
Intelligent Medical Objects
Curso: Apache Spark in the Cloud
Machine Translated
Creo que el entrenador tenía un estilo excelente de combinar el humor y las historias de la vida real para que los temas disponibles fueran muy accesibles. Recomiendo encarecidamente a este profesor en el futuro.
Curso: Spark for Developers
Machine Translated
Esta es una de las mejores capacitaciones en línea de calidad que he tomado en mi carrera de 13 años. ¡Mantener el buen trabajo!.
Curso: Artificial Intelligence - the most applied stuff - Data Analysis + Distributed AI + NLP
Machine Translated
Algunos de nuestros clientes


















































Spark Subcategorías
Programas de los cursos Spark
-
Configure el entorno necesario para comenzar el procesamiento de datos grandes con Spark, Hadoop, y Python.
Comprender las características, los componentes centrales y la arquitectura de Spark y Hadoop.
Aprende cómo integrar Spark, Hadoop, y Python para el procesamiento de datos grandes.
Explora las herramientas en el ecosistema Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka, y Flume).
Construye sistemas de recomendación de filtros colaborativos similares a Netflix, YouTube, Amazon, Spotify y Google.
Utilice Apache Mahout para escalar algoritmos de aprendizaje de máquina.
-
Lecciones y discusiones interactivas.
Muchos ejercicios y prácticas.
Implementación de manos en un entorno de laboratorio en vivo.
-
Para solicitar una formación personalizada para este curso, por favor contacta con nosotros para organizar.
- Learn how to use Spark with Python to analyze Big Data.
- Work on exercises that mimic real world cases.
- Use different tools and techniques for big data analysis using PySpark.
- Use Hortonworks para ejecutar confiablemente Hadoop a gran escala
- Unifique las capacidades de seguridad, gobierno y operaciones de Hadoop con los flujos de trabajo analíticos ágiles de Spark.
- Use Hortonworks para investigar, validar, certificar y dar soporte a cada uno de los componentes en un proyecto Spark
- Procese diferentes tipos de datos, incluidos estructurados, no estructurados, en movimiento y en reposo.
- Administradores de Hadoop
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
- Consultar, analizar y unir datos geoespaciales de manera eficiente a escala
- Implementar datos geoespaciales en inteligencia empresarial y aplicaciones de análisis predictivo
- Utilice el contexto espacial para ampliar las capacidades de dispositivos móviles, sensores, registros y dispositivos portátiles
- Desarrolladores de aplicaciones
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
- Desarrolle una aplicación con Alluxio
- Conecte aplicaciones y sistemas de big data mientras conserva un espacio de nombres
- Extrae de manera eficiente el valor de los grandes datos en cualquier formato de almacenamiento
- Mejorar el rendimiento de la carga de trabajo
- Implemente y administre Alluxio de forma independiente o en clúster
- Científico de datos
- Desarrollador
- Administrador de sistema
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
- para ejecutar consultas SQL .
- para leer datos de una instalación de Hive existente. En esta capacitación en vivo dirigida por un instructor (en el sitio o remota), los participantes aprenderán cómo analizar varios tipos de conjuntos de datos usando Spark SQL . Al final de esta capacitación, los participantes podrán:
- Instalar y configurar Spark SQL .
- Realizar análisis de datos usando Spark SQL .
- Consultar conjuntos de datos en diferentes formatos.
- Visualizar datos y resultados de consultas.
- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
- Para solicitar una capacitación personalizada para este curso, contáctenos para organizarlo.
- Instale y configure diferentes marcos de procesamiento de flujo, como Spark Streaming y Kafka Streaming
- Comprender y seleccionar el marco más adecuado para el trabajo
- Proceso de datos de forma continua, concurrente y de forma récord por registro
- Integre soluciones de procesamiento de flujo con bases de datos existentes, almacenes de datos, lagos de datos, etc.
- Integración de la biblioteca de procesamiento de flujo más apropiada con aplicaciones empresariales y microservicios
- Desarrolladores
- Arquitectos de software
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
- Para solicitar una capacitación personalizada para este curso, contáctenos para hacer arreglos.
- Instale y configure herramientas de análisis de big data como Hadoop MapReduce y Spark
- Comprender las características de los datos médicos.
- Aplicar técnicas de big data para manejar datos médicos.
- Estudiar los sistemas y algoritmos de big data en el contexto de las aplicaciones de salud.
- Desarrolladores
- Científicos de datos
- Conferencia en parte, discusión en parte, ejercicios y práctica práctica.
- Para solicitar una capacitación personalizada para este curso, contáctenos para organizarlo.
- Cree aplicaciones Spark con el lenguaje de programación Scala .
- Use Spark Streaming para procesar flujos continuos de datos.
- Procese flujos de datos en tiempo real con Spark Streaming.
- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
- Para solicitar una capacitación personalizada para este curso, contáctenos para organizarlo.
-
Implementar una arquitectura de pipeline de datos para el procesamiento de datos grandes.
Desarrollar una infraestructura de cluster con Apache Mesos y Docker.
Analizar los datos con Spark y Scala.
Gestión de datos no estructurados con Apache Cassandra.
-
Lecciones y discusiones interactivas.
Muchos ejercicios y prácticas.
Implementación de manos en un entorno de laboratorio en vivo.
-
Para solicitar una formación personalizada para este curso, por favor contacta con nosotros para organizar.
-
Instalar y configurar Apache Spark.
Conoce la diferencia entre Apache Spark y Hadoop MapReduce y cuándo usar.
Leer rápidamente en y analizar conjuntos de datos muy grandes.
Integrar Apache Spark con otras herramientas de aprendizaje de máquina.
-
Lecciones y discusiones interactivas.
Muchos ejercicios y prácticas.
Implementación de manos en un entorno de laboratorio en vivo.
-
Para solicitar una formación personalizada para este curso, por favor contacta con nosotros para organizar.
-
Instalar y configurar Apache Spark.
Comprender cómo.NET implementa APIs Spark para que puedan ser accesibles desde una aplicación.NET.
Desarrollar aplicaciones de procesamiento de datos utilizando C# o F#, capaces de tratar conjuntos de datos cuyo tamaño se mide en terabytes y pedabytes.
Desarrollar funciones de aprendizaje de máquina para una aplicación.NET utilizando Apache Spark capacidades.
Executar análisis exploratorios utilizando las consultas SQL en los conjuntos de datos grandes.
-
Lecciones y discusiones interactivas.
Muchos ejercicios y prácticas.
Implementación de manos en un entorno de laboratorio en vivo.
-
Para solicitar una formación personalizada para este curso, por favor contacta con nosotros para organizar.
-
Instalar y configurar Apache Hadoop.
Comprender los cuatro componentes principales del ecosistema: HDFS, MapReduce, YARN y Hadoop Common.
Utilice Hadoop Sistema de archivos distribuidos (HDFS) para escalar un cluster a cientos o miles de nodos. •
Instalar HDFS para operar como motor de almacenamiento para los despachos de Spark en prisión.
Instalar Spark para acceder a soluciones de almacenamiento alternativas como Amazon S3 y NoSQL sistemas de datos como Redis, Elasticsearch, Couchbase, Aerospike, etc.
Realizar tareas administrativas como proporcionar, gestionar, monitorear y asegurar un cluster de Apache.
-
Lecciones y discusiones interactivas.
Muchos ejercicios y prácticas.
Implementación de manos en un entorno de laboratorio en vivo.
-
Para solicitar una formación personalizada para este curso, por favor contacta con nosotros para organizar.
- Set up the necessary development environment to start building NLP pipelines with Spark NLP.
- Understand the features, architecture, and benefits of using Spark NLP.
- Use the pre-trained models available in Spark NLP to implement text processing.
- Learn how to build, train, and scale Spark NLP models for production-grade projects.
- Apply classification, inference, and sentiment analysis on real-world use cases (clinical data, customer behavior insights, etc.).
- spark.mllib contiene la API original construida sobre RDDs.
- spark.ml proporciona una API de nivel superior construida en la parte superior de DataFrames para la construcción de tuberías de ML.
- Comprender cómo se conservan y atraviesan los datos de gráfico
- Seleccione el mejor marco para una tarea determinada (desde bases de datos de gráficos hasta marcos de procesamiento por lotes)
- Implemente Hadoop, Spark, GraphX y Pregel para llevar a cabo la computación gráfica en muchas máquinas en paralelo
- Ver problemas de Big Data en el mundo real en términos de gráficos, procesos y recorridos
- Desarrolladores
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Last Updated: