Cursos de Procesamiento de flujo | Cursos de Stream Processing
Los cursos de capacitación de Stream Processing en vivo, en línea o en el sitio, dirigidos por un instructor, demuestran a través de debates interactivos y prácticas prácticas los fundamentos y temas avanzados de Stream Processing. El entrenamiento de Stream Processing está disponible como "entrenamiento en vivo en el sitio" o "entrenamiento remoto en vivo". El entrenamiento en vivo en línea (también conocido como "entrenamiento remoto en vivo") se lleva a cabo a través de un escritorio remoto interactivo. El entrenamiento en vivo en el sitio se puede llevar a cabo localmente en las instalaciones del cliente en Chile o en los centros de entrenamiento corporativos de NobleProg en Chile. NobleProg: su proveedor local de capacitación
Machine Translated
Testimonios
★★★★★
★★★★★
Los ejemplos ya se encontraban preparados y no se perdió tiempo en codificarlos.
Daniela Valdez Romero, BANCO DE MEXICO
Curso: Stream Processing with Kafka Streams
Las explicaciones eran muy buenas, si bien algunas preguntas pudieron ahorrarse si se hubieran tocado esos puntos al inicio de los temas se notó un buen dominio y experiencia en el tema.
Alan Jaime Rodríguez García - Daniela Valdez Romero, BANCO DE MEXICO
este entrenamiento en vivo (in situ o remoto) dirigido por un instructor está dirigido a ingenieros que deseen utilizar Confluent (una distribución de Kafka) para construir y administrar una plataforma de procesamiento de datos en tiempo real para sus aplicaciones.
al final de esta formación, los participantes podrán:
instalar y configurar la plataforma Confluent.
use herramientas y servicios de administración de Confluent & #39; s para ejecutar Kafka más fácilmente.
Store y procese los datos de la secuencia entrante.
optimice y administre clústeres de Kafka.
flujos de datos
Secure.
Format del curso
Conferencia y discusión
Interactive.
muchos ejercicios y prácticas.
implementación práctica de
en un entorno de laboratorio en vivo.
Opciones de personalización de Course
este curso se basa en la versión de código abierto de Confluent: fuente abierta Confluent.
para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para organizar.
El procesamiento de flujo se refiere al procesamiento en tiempo real de "datos en movimiento", es decir, realizar cálculos sobre datos a medida que se reciben. Dichos datos se leen como flujos continuos de fuentes de datos tales como eventos de sensores, actividad de usuarios de sitios web, transacciones financieras, transferencias de tarjetas de crédito, transmisiones de clics, etc. Los marcos de procesamiento de flujos pueden leer grandes volúmenes de datos entrantes y proporcionar información valiosa casi instantáneamente.
En este entrenamiento en vivo dirigido por un instructor (in situ o remoto), los participantes aprenderán cómo configurar e integrar diferentes marcos de Procesamiento de Stream con los sistemas de almacenamiento de big data existentes y aplicaciones de software y microservicios relacionados.
Al final de esta capacitación, los participantes podrán:
Instale y configure diferentes marcos de procesamiento de flujo, como Spark Streaming y Kafka Streaming
Comprender y seleccionar el marco más adecuado para el trabajo
Proceso de datos de forma continua, concurrente y de forma récord por registro
Integre soluciones de procesamiento de flujo con bases de datos existentes, almacenes de datos, lagos de datos, etc.
Integración de la biblioteca de procesamiento de flujo más apropiada con aplicaciones empresariales y microservicios
Audiencia
Desarrolladores
Arquitectos de software
Formato del curso
Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Notas
Para solicitar una capacitación personalizada para este curso, contáctenos para hacer arreglos.
Apache Kafka es una plataforma de procesamiento de flujo de código abierto que proporciona una plataforma rápida, fiable y de baja latencia para el manejo de análisis de datos en tiempo real. Apache Kafka se puede integrar con los idiomas de programación disponibles como Python.
Este entrenamiento guiado por instructores, en vivo (online o on-site) está dirigido a ingenieros de datos, científicos de datos y programadores que desean utilizar Apache Kafka características en streaming de datos con Python.
Al final de este entrenamiento, los participantes podrán utilizar Apache Kafka para monitorear y gestionar las condiciones en flujos de datos continuos utilizando Python programación.
Formato del curso
Lecciones y discusiones interactivas.
Muchos ejercicios y prácticas.
Implementación de manos en un entorno de laboratorio en vivo.
Opciones de Customización de Curso
Para solicitar una formación personalizada para este curso, por favor contacta con nosotros para organizar.
Kafka Streams es una biblioteca del lado del cliente para la creación de aplicaciones y microservicios cuyos datos se transmiten desde y hacia un sistema de mensajería Kafka. Tradicionalmente, Apache Kafka ha confiado en Apache Spark o Apache Storm para procesar datos entre productores de mensajes y consumidores. Al llamar a Kafka Streams API desde dentro de una aplicación, los datos se pueden procesar directamente dentro de Kafka, pasando por alto la necesidad de enviar los datos a un clúster separado para su procesamiento.
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán cómo integrar Kafka Streams en un conjunto de aplicaciones Java de muestra que pasan datos desde y hacia Apache Kafka para el procesamiento de flujo.
Al final de esta capacitación, los participantes podrán:
Comprenda las características y ventajas de Kafka Streams frente a otros marcos de procesamiento de flujos
Procesar datos de flujo directamente dentro de un clúster de Kafka
Escriba una aplicación Java o Scala o microservicio que se integre con Kafka y Kafka Streams
Escribe un código conciso que transforme los temas de entrada de Kafka en temas de salida de Kafka
Construye, empaqueta y despliega la aplicación
Audiencia
Desarrolladores
Formato del curso
Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Notas
Para solicitar una capacitación personalizada para este curso, contáctenos para hacer arreglos.
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán los conceptos básicos detrás de MapR Stream Architecture mientras desarrollan una aplicación de transmisión en tiempo real.
Al final de esta capacitación, los participantes podrán construir aplicaciones para productores y consumidores para el procesamiento de datos de flujo en tiempo real.
Audiencia
Desarrolladores
Administradores
Formato de la carrera
Parte de lectura, parte de discusión, ejercicios y práctica práctica
Nota
Para solicitar un entrenamiento personalizado para esta carrera, contáctenos para organizarlo.
Apache Samza es un marco computacional asíncrono de código abierto casi en tiempo real para el procesamiento de flujos. Utiliza Apache Kafka para mensajería y Apache Hadoop YARN para tolerancia a fallas, aislamiento de procesador, seguridad y administración de recursos.
Esta capacitación en vivo dirigida por un instructor presenta los principios detrás de los sistemas de mensajería y el procesamiento distribuido de flujo, mientras acompaña a los participantes a través de la creación de un proyecto basado en Samza y la ejecución de trabajos.
Al final de esta capacitación, los participantes podrán:
Usa Samza para simplificar el código necesario para producir y consumir mensajes
Desacoplar el manejo de los mensajes de una aplicación
Utilice Samza para implementar cálculos asincrónicos casi en tiempo real
Utilice el procesamiento de flujo para proporcionar un mayor nivel de abstracción en los sistemas de mensajería
Audiencia
Desarrolladores
Formato del curso
Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Tigon es un marco de procesamiento de flujo de fuente abierta, en tiempo real, de baja latencia y alto rendimiento, nativo, que se asienta sobre HDFS y HBase para la persistencia. Las aplicaciones de Tigon abordan casos de uso tales como detección y análisis de intrusiones de red, análisis de mercado de redes sociales, análisis de ubicación y recomendaciones en tiempo real para los usuarios.
Este curso presencial, dirigido por un instructor, presenta el enfoque de Tigon para combinar el procesamiento en tiempo real y por lotes a medida que guía a los participantes a través de la creación de una aplicación de muestra.
Al final de esta capacitación, los participantes podrán:
Cree aplicaciones potentes de procesamiento de flujo para manejar grandes volúmenes de datos
Fuentes de flujo de procesos como Twitter y registros de servidor web
Utilice Tigon para unir, filtrar y agregar secuencias rápidamente
Audiencia
Desarrolladores
Formato del curso
Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Apache Flink es un marco de código abierto para flujo escalable y procesamiento de datos por lotes.
Este curso presencial, dirigido por un instructor, presenta los principios y enfoques detrás del procesamiento distribuido de datos en secuencia y por lotes, y guía a los participantes a través de la creación de una aplicación de transmisión de datos en tiempo real.
Al final de esta capacitación, los participantes podrán:
Configure un entorno para desarrollar aplicaciones de análisis de datos
Empaque, ejecute y monitoree las aplicaciones de transmisión de datos basadas en Flink y tolerantes a fallas
Administrar diversas cargas de trabajo
Realice análisis avanzados usando Flink ML
Configurar un clúster Flink multinodo
Mida y optimice el rendimiento
Integrar Flink con diferentes sistemas Big Data
Compare las capacidades de Flink con las de otros marcos de procesamiento de big data
Audiencia
Desarrolladores
Arquitectos
Ingenieros de datos
Profesionales de analítica
Gerentes técnicos
Formato del curso
Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Apache NiFi (Hortonworks DataFlow) es una plataforma de procesamiento de eventos y logística de datos integrada en tiempo real que permite mover, rastrear y automatizar los datos entre los sistemas. Está escrito usando programación basada en flujo y proporciona una interfaz de usuario basada en web para administrar flujos de datos en tiempo real.
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a implementar y administrar Apache NiFi en un entorno de laboratorio en vivo.
Al final de esta capacitación, los participantes podrán:
Instalar y configurar Apachi NiFi
Fuente, transformar y gestionar datos de fuentes de datos dispersas y distribuidas, incluidas bases de datos y lagos de datos grandes.
Automatice los flujos de datos
Habilitar análisis de transmisión
Aplicar varios enfoques para la ingestión de datos
Transformar Big Data y en conocimientos empresariales
Audiencia
Administradores del sistema
Ingenieros de datos
Desarrolladores
DevOps
Formato del curso
Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Apache NiFi (Hortonworks DataFlow) es una plataforma de procesamiento de eventos y logística de datos integrada en tiempo real que permite mover, rastrear y automatizar los datos entre los sistemas. Está escrito usando programación basada en flujo y proporciona una interfaz de usuario basada en web para administrar flujos de datos en tiempo real.
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán los fundamentos de la programación basada en flujo a medida que desarrollan una cantidad de extensiones de demostración, componentes y procesadores que usan Apache NiFi.
Al final de esta capacitación, los participantes podrán:
Comprender los conceptos de arquitectura y flujo de datos de NiFi
Desarrollar extensiones utilizando NiFi y API de terceros
Desarrolla a medida su propio procesador Apache Nifi
Ingerir y procesar datos en tiempo real de formatos de archivo dispares y poco comunes y fuentes de datos
Audiencia
Desarrolladores
Ingenieros de datos
Formato del curso
Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Apache Storm es un motor de computación distribuido en tiempo real que se utiliza para habilitar la inteligencia empresarial en tiempo real. Lo hace al permitir que las aplicaciones procesen de forma confiable flujos de datos ilimitados (a.k.a. procesamiento de flujo).
"Storm es para procesar en tiempo real lo que Hadoop es para el procesamiento por lotes".
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán cómo instalar y configurar Apache Storm, luego desarrollarán e implementarán una aplicación Apache Storm para procesar Big Data en tiempo real.
Algunos de los temas incluidos en esta capacitación incluyen:
Apache Storm en el contexto de Hadoop
Trabajando con datos ilimitados
Cálculo continuo
Análisis en tiempo real
Procesamiento distribuido de RPC y ETL
¡Solicite este curso ahora!
Audiencia
Desarrolladores de software y ETL
Profesionales de mainframe
Científicos de datos
Analistas de Big Data
Profesionales de Hadoop
Formato del curso
Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Apache Apex es una plataforma nativa de YARN que unifica la transmisión y el procesamiento por lotes. Procesa big data-in-motion de una manera que es escalable, de rendimiento, tolerante a fallas, con estado, seguro, distribuido y de fácil operación.
Este curso en vivo dirigido por un instructor presenta la arquitectura de procesamiento de flujo unificado de Apache Apex y guía a los participantes a través de la creación de una aplicación distribuida usando Apex en Hadoop.
Al final de esta capacitación, los participantes podrán:
Comprender los conceptos de canalización de procesamiento de datos, como conectores para fuentes y sumideros, transformaciones de datos comunes, etc.
Cree, escale y optimice una aplicación Apex
Procesar flujos de datos en tiempo real de manera confiable y con mínima latencia
Utilice Apex Core y la biblioteca Apex Malhar para permitir el desarrollo rápido de aplicaciones
Use la API Apex para escribir y reutilizar el código Java existente
Integra Apex en otras aplicaciones como un motor de procesamiento
Sintonizar, probar y escalar aplicaciones Apex
Audiencia
Desarrolladores
Arquitectos empresariales
Formato del curso
Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Apache Beam es un modelo de programación unificada de fuente abierta para definir y ejecutar tuberías de procesamiento de datos en paralelo Su poder radica en su capacidad para ejecutar canalizaciones por lotes y streaming, y la ejecución se lleva a cabo por uno de los backends de procesamiento distribuido admitidos por Beam: Apache Apex, Apache Flink, Apache Spark y Google Cloud Dataflow Apache Beam es útil para tareas ETL (Extraer, Transformar y Cargar), como mover datos entre diferentes medios de almacenamiento y fuentes de datos, transformar datos en un formato más deseable y cargar datos en un nuevo sistema En este entrenamiento en vivo instrumentado (in situ o remoto), los participantes aprenderán a implementar los SDK de Apache Beam en una aplicación Java o Python que define un canal de procesamiento de datos para descomponer un gran conjunto de datos en trozos más pequeños para un procesamiento paralelo independiente Al final de esta capacitación, los participantes podrán: Instalar y configurar Apache Beam Use un único modelo de programación para llevar a cabo el procesamiento por lotes y de flujo desde su aplicación Java o Python Ejecutar tuberías en múltiples entornos Audiencia Desarrolladores Formato del curso Conferencia de parte, parte de discusión, ejercicios y práctica manual Nota Este curso estará disponible Scala en el futuro Por favor contáctenos para hacer arreglos .
Apache Ignite es una plataforma informática en memoria que se encuentra entre la aplicación y la capacidad de datos para mejorar la velocidad, la escala y la disponibilidad.
En este entrenamiento en vivo dirigido por un instructor, los participantes aprendieron los principios detrás del almacenamiento persistente y puro en la memoria a medida que avanzan en la creación de un proyecto de ejemplo de computación en memoria.
Al final de esta capacitación, los participantes podrán:
Utilice Ignite para la memoria en la memoria, la persistencia en disco y una base de datos en memoria puramente distribuida
Logre la persistencia sin sincronizar los datos a una base de datos relacionales
Use Ignite para llevar a cabo SQL y Uniones Distribuidas
Mejore el rendimiento moviendo los datos más cerca de la CPU, usando la RAM como almacenamiento
Extienda conjuntos de datos en un clúster para lograr la escalabilidad horizontal
Integre Ignite con RDBMS, NoSQL, Hadoop y procesadores de aprendizaje automático
Audiencia
Desarrolladores
Formato del curso
Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Confluent KSQL is a stream processing framework built on top of Apache Kafka. It enables real-time data processing using SQL operations.
This instructor-led, live training (online or onsite) is aimed at developers who wish to implement Apache Kafka stream processing without writing code.
By the end of this training, participants will be able to:
Install and configure Confluent KSQL.
Set up a stream processing pipeline using only SQL commands (no Java or Python coding).
Carry out data filtering, transformations, aggregations, joins, windowing, and sessionization entirely in SQL.
Design and deploy interactive, continuous queries for streaming ETL and real-time analytics.
Format of the Course
Interactive lecture and discussion.
Lots of exercises and practice.
Hands-on implementation in a live-lab environment.
Course Customization Options
To request a customized training for this course, please contact us to arrange.
Apache Spark Streaming es un sistema de procesamiento de flujo de código abierto escalable que permite a los usuarios procesar datos en tiempo real de fuentes apoyadas. Spark Streaming permite el tratamiento de los flujos de datos con tolerancia de errores.
Este entrenamiento guiado por instructores, en vivo (online o on-site) está dirigido a ingenieros de datos, científicos de datos y programadores que desean utilizar Spark Streaming características en el procesamiento y análisis de datos en tiempo real.
Al final de este entrenamiento, los participantes podrán utilizar Spark Streaming para procesar los flujos de datos en vivo para su uso en bases de datos, sistemas de archivos y dashboards en vivo.
Formato del curso
Lecciones y discusiones interactivas.
Muchos ejercicios y prácticas.
Implementación de manos en un entorno de laboratorio en vivo.
Opciones de Customización de Curso
Para solicitar una formación personalizada para este curso, por favor contacta con nosotros para organizar.
Last Updated:
Próximos Cursos Procesamiento de flujo
Curso de Apache Storm
2023-12-13 09:30
28 horas
Lote unificado y Stream Processing con Apache Beam
2023-12-27 09:30
14 horas
Apache Ignite: Mejora la Velocidad, la Escala y la Disponibilidad con la Informática en la Memoria
2024-01-10 09:30
14 horas
Curso de Apache Storm
2024-01-24 09:30
28 horas
Flink para Flujo Escalable y Procesamiento de Datos por Lotes
2024-02-07 09:30
28 horas
Apache Ignite: Mejora la Velocidad, la Escala y la Disponibilidad con la Informática en la Memoria
Cursos de Fin de Semana de Procesamiento de flujo, Capacitación por la Tarde de Procesamiento de flujo, Procesamiento de flujo boot camp, Clases de Procesamiento de flujo, Capacitación de Fin de Semana de Procesamiento de flujo, Cursos por la Tarde de Procesamiento de flujo, Procesamiento de flujo coaching, Instructor de Procesamiento de flujo, Capacitador de Procesamiento de flujo, Procesamiento de flujo con instructor, Cursos de Formación de Procesamiento de flujo, Procesamiento de flujo en sitio, Cursos Privados de Procesamiento de flujo, Clases Particulares de Procesamiento de flujo, Capacitación empresarial de Procesamiento de flujo, Talleres para empresas de Procesamiento de flujo, Cursos en linea de Procesamiento de flujo, Programas de capacitación de Procesamiento de flujo, Clases de Procesamiento de flujoCursos de Fin de Semana de Stream Processing, Capacitación por la Tarde de Stream Processing, Stream Processing boot camp, Clases de Stream Processing, Capacitación de Fin de Semana de Stream Processing, Cursos por la Tarde de Stream Processing, Stream Processing coaching, Instructor de Stream Processing, Capacitador de Stream Processing, Stream Processing con instructor, Cursos de Formación de Stream Processing, Stream Processing en sitio, Cursos Privados de Stream Processing, Clases Particulares de Stream Processing, Capacitación empresarial de Stream Processing, Talleres para empresas de Stream Processing, Cursos en linea de Stream Processing, Programas de capacitación de Stream Processing, Clases de Stream Processing
Promociones
No hay descuentos de cursos por ahora.
Descuentos en los Cursos
Respetamos la privacidad de su dirección de correo electrónico. No transmitiremos ni venderemos su dirección a otras personas. En cualquier momento puede cambiar sus preferencias o cancelar su suscripción por completo.
is growing fast!
We are looking to expand our presence in Chile!
As a Business Development Manager you will:
expand business in Chile
recruit local talent (sales, agents, trainers, consultants)
recruit local trainers and consultants
We offer:
Artificial Intelligence and Big Data systems to support your local operation
high-tech automation
continuously upgraded course catalogue and content
good fun in international team
If you are interested in running a high-tech, high-quality training and consulting business.