-
Filière :
Gestion de données
-
Sous-filière :
NoSql & Big Data
-
Référence
DB-HDE
-
Durée
1 jour (7 h)
-
Prix par personne HT
890 € HT
Objectifs pédagogiques
- Faire le point sur les différents éléments de l’écosystème Hadoop et leurs rôles respectifs
- Comprendre l’architecture des applicatifs hadoop et savoir quels sont les apports et les cas d’usage des solutions hadoop
Public cible
- Chefs de projets
- Développeurs
- Toute personne souhaitant comprendre les mécanismes hadoop et le rôle de chaque composant
Pré-requis
Connaissances générales des systèmes d’information
Programme de la formation
Introduction
- Rappels sur NoSQL
- Le théorème CAP
- Historique du projet hadoop
- Fonctionnalités : stockage, outils d’extraction, de conversion, ETL, analyse, …
- Exemples de cas d’utilisation sur des grands projets
- Les principaux composants : HDFS pour le stockage et YARN pour les calculs
- Les distributions et leurs caractéristiques (HortonWorks, Cloudera, MapR, EMR, Apache, …)
L’architecture
- Terminologie : NameNode, DataNode, ResourceManager
- Rôle et interactions des différents composants
- Présentation des outils d’infrastructure : ambari, avro, zookeeper
- Présentation des outils de gestion des données : pig, oozie, tez, falcon, sqoop, flume
- Présentation des outils d’interfaçage avec les applications GIS
- Présentation des outils de restitution et requêtage : webhdfs, hive, hawq, impala, drill, stinger, tajo, mahout, lucene, elasticSearch, kibana
- Les architectures connexes : spark, cassandra
Exemples interactifs
- Démonstrations sur une architecture Hadoop multi-nœuds
- Mise à disposition d’un environnement pour des exemples de calcul
Travaux pratiques : intégration de données avec Flume, calculs map/reduce avec Pig, Hive, et Impala
Applications
- Cas d’usages de hadoop
- Calculs distribués sur des clusters hadoop
Qualité
Cette formation est accessible aux personnes en situation de handicap, nous contacter en cas de besoin d’informations complémentaires.
Programme mis à jour le