-
Filière :
Gestion de données
-
Sous-filière :
Data Platform/BI
-
Référence
DB-SNO
-
Durée
2 jours (14 h)
-
Prix par personne HT
1.850 € HT
Objectifs pédagogiques
Objectif opérationnel :
Maîtriser les principales fonctionnalités et les spécificités de la plateforme Snowflake afin de construire, gérer et exploiter un entrepôt de données Cloud.
Objectifs pédagogiques :
À l’issue de la formation, les participants seront capables de :
- Comprendre les concepts clés et l’architecture de Snowflake
- Identifier et gérer les différents rôles utilisateurs
- Créer et manipuler des bases de données dans Snowflake
- Importer des données structurées et semi-structurées
- Utiliser le cache pour optimiser les requêtes et les coûts
- Créer des pipelines de traitement de données avec pipes et stream
- Mettre en œuvre un cas pratique de construction d’un entrepôt de données
Public cible
Cette formation s’adresse aux :
- Chefs de projets
- Experts BI
- Ingénieurs systèmes et DBA souhaitant découvrir et prendre en main l’outil Snowflake pour la gestion et l’exploitation de données dans le Cloud.
Pré-requis
- Bonne maîtrise du langage SQL
- Connaissances générales en systèmes de gestion de base de données (SGBD)
Modalités d'évaluation
A l’issue de chaque formation/séminaire, OXiane Institut fournit aux participants un questionnaire d’évaluation de la formation qui est ensuite analysé par nos équipes pédagogiques.
Une feuille d’émargement par demi-journée de présence est fournie en fin de formation ainsi qu’une attestation de fin de formation si le stagiaire a bien assisté à la totalité de la session.
Méthodes pédagogiques
- Documentation et support de cours, exercices pratiques d’application et corrigés des exercices pour les stages
pratiques, - Etudes de cas ou présentation de cas réels pour les séminaires de formation.
Programme de la formation
Programme
Jour 1 : Fondamentaux de Snowflake et prise en main
1/ Introduction à Snowflake et au Data Warehouse Cloud
- Historique et positionnement de Snowflake
- Évolution des entrepôts de données vers le modèle Cloud
- Les avantages d’un outil SaaS : élasticité, tarification à la seconde, sécurité, simplicité
2/ Architecture de Snowflake
- Les 3 couches clés de l’architecture Snowflake : stockage, calcul, services cloud
- Hiérarchie de stockage et séparation des ressources
- Le modèle de facturation à l’usage
- Fonctionnement des warehouses virtuels
3/ Écosystème Snowflake
- Panorama des partenaires et intégrations tierces : Qubole, Apache Spark, R, etc.
- Connecteurs et interopérabilité avec les outils BI et de data science
4/ Prise en main de l’interface Web (Web UI)
- Création d’un compte Snowflake
- Navigation dans l’environnement Snowflake
- Présentation de la console et des différents menus
5/ Gestion des utilisateurs et des rôles
- Rôles par défaut et hiérarchie des rôles
- Attribution des droits et gestion des permissions
- Sécurité et authentification
6/ Bases de données et warehouses
- Création de bases de données Snowflake
- Création et gestion des entrepôts virtuels (warehouses)
- Structures de tables et objets de base de données
7/ Chargement et transformation de données structurées
- Méthodes d’import de fichiers CSV, Excel, etc.
- Requêtes SQL de transformation
- Manipulation de données et premières requêtes
Jour 2 : Fonctions avancées , optimisation et cas d’usage
8/ Stockage et staging de données
- Concepts de staging : internal et external stage
- Structure des données et formats supportés
- Séquences et intégrité des données
9/ Données semi-structurées : JSON, XML, AVRO
- Chargement de données semi-structurées
- Manipulation avec SQL : fonctions spécifiques, accès par notation
- Requêtes avancées et transformation de données complexes
10/ Optimisation des performances et des coûts
- Mécanismes de cache : metadata, result, warehouse
- Stratégies pour tirer parti du cache
- Bonnes pratiques d’optimisation des requêtes
- Surveillance des performances
11/ Déploiement, clonage et versionnage
- Clonage d’objets : bases, tables, schémas
- Stratégies de sauvegarde et test
- Gestion multi-environnements (DEV, TEST, PROD)
12/ Pipelines et streaming de données
- Création de pipes Snowpipe
- Notions de streaming et ingestion continue
- Déclenchement automatique et suivi des flux de données
13/ Cas pratique fil rouge
- Construction d’un mini Data Warehouse à partir de données hétérogènes
- Mise en œuvre des imports, transformations, requêtage et streaming
- Présentation et discussion collective des réalisations
Support de cours
• Exposés
• Cas pratiques (sauf dans le cadre des séminaires de formation)
Programme mis à jour le