-
Référence
MLP
-
Durée
3 jours (21 h)
-
Prix par personne HT
2 150 € HT
Objectifs pédagogiques
- Comprendre les fondements du Machine Learning, y compris l’histoire, les applications et les modèles de base
- Maîtriser le prétraitement des données et entraîner des modèles avec des techniques de mise à l’échelle, validation et fine-tuning
- Explorer les techniques avancées, comme les modèles non supervisés et les méthodes ensemblistes
- Découvrir les concepts de Deep Learning et appliquer des réseaux de neurones profonds
- Utiliser TensorFlow et PyTorch pour traiter des images et des données textuelles
Public cible
- Tous publics
Pré-requis
- Connaissances solides en Python
- Connaissances générales en algèbre linéaire et statistiques
Modalités d’évaluation
L’évaluation des acquis se fait tout au long de la session au travers d’ateliers de mise en pratique des notions et concepts abordés pendant la formation.
Méthodes pédagogiques
- Support de cours
- Exposés
- Cas pratiques
Programme de la formation
La formation se décompose en 6 modules de 0,5 jour chacun :
Module 1 : + Machine Learning 1 (ML1)
- Introduction : Histoire rapide de ~1980 au SOTA
- Présentation des outils et processus de la formation
- Applications communes : Régression / Classification binaire
- Models 1 : Modèles Linéaires : Régression linéaire / Régression logistique
- Metrics 1 : MSE / Accuracy
- Workflow 1 : Séparation des données en jeu d’entraînement et de test
Module 2 : + Machine Learning 2 (ML2)
- Workflow 2 : Pipeline, Scaling (Standardisation, normalisation), Validation croisée
- Application commune : Classification multi-classes
- Metrics 2 : MAE, Erreur Max / Precision, Recall, Rapport de classification, Matrice de confusion
- Models 2 : Modèles non-linéaires : K-voisins, Arbres de décision, Machines à vecteurs de support (fonctions de noyau)
- Fine-Tuning 1 : Fonction objectif & Régularisation
Module 3 : + Machine Learning 3 (ML3)
- Workflow 3 : Ingénierie des caractéristiques, Intégrer une Transformation à un pipeline
- Fine-Tuning 2 : GridSearch
- Models 3 : Modèles non-supervisés : Clustering (K-Means, DBScan) & Réduction de dimensions (PCA)
- Models 4 : Modèles ensemblistes (Forêts aléatoires), Modèles boostés (AdaBoost, XGBoost)
- Récapitulatif des notions du Machine Learning avec un exercice de fin de session supplémentaire
Module 4 : + Deep Learning 1 (DL1)
- Introduction : Histoire rapide de ~1980 au SOTA
- Présentation of d’un Réseau de Neurones (DNN)
- Entraînement d’un DNN : Choix de la foncction objectif, de la fonction d’optimisation et de la taille du batch
- Exemple avec un DNN codé « à la main dans numpy »
- Reproduction de l’exemple et comparaison des performances avec un DNN avec TF-keras
Module 5 : + Deep Learning 2 (DL2)
- Présentation des réseaux de neurones convolutifs (CNN)
- Introduction à la gestion des images comme données d’entraînement
- Augmentation d’images
- Transfer-Learning : Utilisation de modèles SOTA déjà entraînés
Module 6 : + Deep Learning 3 (DL3)
- Présentation de TF / PyTorch (celui qui n’avait pas été utilisé jusque-là)
- Introduction au chargement de données en batch avec les méthodes existantes dans TF / PyTorch
- Introduction à la gestion des données texte, au NLP et aux Réseaux de neurones récurrents (RNN)
- Récapitulatif des notions du Deep Learning avec un exercice de fin de session supplémentaire.
Programme mis à jour le