Apache Kafka pour développeurs

Recevoir et publier des données provenant d’un cluster Kafka

  • Filière :

    Architecture & Intégration

  • Sous-filière :

    SOA & MicroServices

  • Référence

    AE-KAD

  • Durée

    3 jours (21 h)

  • Prix par personne HT

    2 050 € HT

Description

Au cours de cette formation vous apprendrez à créer des applications qui s’abonnent et publient des données provenant d’un cluster Kafka.

Vous verrez le rôle de kafka dans une plateforme de streaming d’événements en temps réel. Vous apprendrez à développer des applications pour enrichir, filtrer et agréger des flux de données en temps réel avec KSQLDB.

Objectifs pédagogiques

  • Apprendre à créer une application capable d’envoyer et de recevoir des données à partir d’un cluster Kafka
  • Appréhender le rôle de Kafka dans la pipeline moderne de distribution de données
  • Echanger sur les principaux concepts et composants architecturaux
  • Examiner les API de Kafka

Public cible

  • Architectes
  • Développeurs
  • Futurs contributeurs ou consommateurs d’une plateforme Kafka

Pré-requis

Conseillé : avoir une connaissance des principes de base dune communication asynchrone
Bonne maîtrise de Java

Programme de la formation

Concepts fondamentaux

  • Producers
  • Consumers
  • Messages

Architecture d’une plateforme Kafka

  • Brokers/Topics/Partitions
  • Kafka Connect
  • Schema Registry
  • KSQLDB
  • Rest Proxy

Développement pour Kafka

  • Développement SpringBoot
  • Développer un producer pour émettre des messages vers un topic kafka
  • Développer un consumer pour s’abonner à un topic kafka

Kafka Connect

  • Utilisation des Connecteurs, configuration et fonctionnement
  • Gestion des transformations avec les connecteurs
  • Développement d’un connecteur spécifique

Schema registry 

  • Gestion des schéma (avro, json)
  • API de manipulations

Streaming

  • Introduction au concept de streaming et pipeline de données
  • Comparatifs streams vs topics

 KSQLDB

  • Concepts et architecture de KSQLDB
  • Requêtes KSQLDB et opérations en ligne de commande
  • Traitement des données issues d’un stream
  • Streams & Tables
  • Jointures, agrégations et fenêtres de temps et de taille
  • Développer une extension KSQLDB spécifique

Qualité

Cette formation est accessible aux personnes en situation de handicap, nous contacter en cas de besoin d’informations complémentaires.

Programme mis à jour le