MLOps : gestion de modèles

  • Filière :

    IA & Innovation

  • Sous-filière :

    AI Modeling, tools & frameworks

  • Référence

    IA091

  • Durée

    2 jours (14 h)

  • Prix par personne HT

    1 690 € HT

Objectifs pédagogiques

  • Savoir identifier les modèles pertinents selon les cas d’usage
  • Maitriser les outils et méthodes pour référencer
  • Gérer les modèles utilisés
  • Comprendre l’intérêt et les méthodes de gestion de modèles.
  • Connaître les bonnes pratiques, et les outils principaux de gestion de modèles
  • Savoir mettre en oeuvre la gestion de modèles avec Airflow

Public cible

Toute personne intéressée par les data-sciences, et l’utilisation et le choix de modèles, et la gestion de modèles.

Pré-requis

Maîtrise de l’utilisation de modèles de deep learning

Modalités d’évaluation

L’évaluation des acquis se fait tout au long de la session au travers d’ateliers de mise en pratique des notions et concepts abordés pendant la formation.

Programme de la formation

Introduction à MLOps et la gestion de modèles

  • Définition. Importance de la collaboration entre data scientists et ingénieurs.
  • Les défis de la mise en production de modèles (dérive, réentraînement, monitoring), et les avantages d’une gestion efficace.
  • Atelier : cycle de vie d’un modèle en MLOps : vue d’ensemble des différentes étapes, de la conception à la mise hors service.

Outils et technologies clés

  • Plateformes MLOps : Présentation des principales plateformes (MLflow, Kubeflow, AWS SageMaker, Azure Machine
  • Learning) et de leurs fonctionnalités clés.
  • Outils de versioning : Git, DVC, comment gérer le code, les données et les modèles.
  • Registres de modèles : Stockage, versioning, et partage des modèles.
  • Orchestration de workflows : Airflow, Luigi, pour automatiser les pipelines MLOps.
  • Atelier : mise en oeuvre de Airflow

Les bonnes pratiques de gestion de modèles

  • Versioning et suivi : Importance de la version, des métadonnées, et des logs pour la reproductibilité.
  • Déploiement : Stratégies de déploiement (A/B testing, canary releases), et les environnements de déploiement (cloud, on-
  • premise).
  • Monitoring : Suivi des performances des modèles en production, détection d’anomalies, et alertes.
  • Réentraînement et mise à jour : Stratégies pour maintenir les modèles à jour, et les défis liés au réentraînement continu.
  • Atelier : exemples de monitoring

Défis et tendances

  • Gouvernance des données : Questions de confidentialité, de sécurité, et de conformité.
  • Expérience utilisateur : Faciliter l’utilisation des modèles par les équipes métier Intégrabilité : Intégrer les modèles dans les applications existantes.
  • Tendances futures : MLOps décentralisé, MLOps pour l’IA générative.

Programme mis à jour le