ПОИСК
Быстрый заказ
ОЦЕНКА КУРСАобщая оценка курса:оценка преподавателя: Хочу скидку |
2-хдневный курс обучения по Flink позволит вам получить и систематизировать знания по использованию Flink для построения систем потоковой обработки данных. Курс нацелен на вопросы использования возможностей Apache Flink для обработки прежде всего потоковых данных, включая нюансы извлечения меток времени и генерации watermarks, лучшие практики (best practices) использования механизмов временных окон, работы с локальным состоянием, вопросы эффективности и параллелизма обработки, тонкости работы с источниками данных и многое другое.
Вы изучите необходимый теоретический минимум, чтобы понять основные концепции фреймворка Flink, его подходы к преобразованию потока данных, нюансы работы с потоком в терминах времени событий или времени обработки (event vs processing time), виды сохраняемого состояния (state type and primitives), работу с источниками потоковых данных. Преподаватель курса “Потоковая обработка данных с помощью Apache Flink” подробно объяснит все тонкости и особенности настройки механизмов извлечения времени, работы с состоянием и локальным кластером Apache Flink с тем, чтобы вы могли самостоятельно разрабатывать собственные системы потоковой обработки данных по окончании курса. На практике вы реализуете собственные потоковые процессоры с помощью Apache Flink, научитесь работать с метками времени и watermarks, сможете выполнять базовые трансформации потоковых данных, использовать временные окна, обрабатывать данные из Apache Kafka и файловых источников. Во время курса вы также получите информацию о сравнении возможностей Apache Flink с аналогами (Kafka Streams и Spark Structured Streaming). Курс предполагает использование языка Scala.
Выберите форму обучения,
чтобы увидеть актуальные даты:
РАСПИСАНИЕ ЗАНЯТИЙ
|
Содержание курса
- Введение и архитектура Apache Flink
- Потоковая и Batch обработка
- Основные понятия и особенности потоковой обработки
- Встречаем Flink: компоненты и первое приложение
- Основные API
- Datastream API: Базовые трансформации и работа с источниками данных
- Основные операторы (трансформации)
- Роллинг агрегации и reduce
- Работа с источниками (Apache Kafka, файловые источники)
- Datastream API: Работа с учетом времени
- Архитектура Apache Flink
- Event Time Processing
- Оконные операции и джойны
- Datastream API: Работа с состоянием
- Низкоуровневые “process” функции и управление состоянием
- Checkpoints, savepoints
- Другие API, языки и системы
- Flink Table API и SQL
- Flink и python
- Сравнение Flink с Kafka Streams и Spark Structured Streaming
Слушатели
Дата-инженеры и специалисты по данным, которые хотят изучить необходимый теоретический минимум по Apache Flink, чтобы понять основные концепции фреймворка, stateful преобразований и доставки данных из сторонних систем, а также узнать особенности подхода Flink к построению масштабируемых надежных конвейеров обработки потоковых данных.
Предварительная подготовка
Уверенное знание базовых команд Linux (опыт работы с командной строкой), знания языка Scala (способность создания не сложных OOP приложений).