IA : Théorie et Algorithmes : Réseaux de neurones

  • Filière :

    IA & Innovation

  • Sous-filière :

    AI Modeling, tools & frameworks

  • Référence

    IA-TA

  • Durée

    2 jours (14 h)

  • Prix par personne HT

    1 300 € HT

Objectifs pédagogiques

  • Comprendre les concepts de Deep Learning (réseaux de neurones profonds)
  • Maîtriser les bases théoriques et pratiques d’architecture et de convergence de réseaux de neurones
  • Connaître les différentes architectures fondamentales existantes et maîtriser leurs implémentations fondamentales
  • Maîtriser les méthodologies de mise en place de réseaux de neurones, les points forts et les limites de ces outils
  • Connaître les briques de base du Deep Learning : réseaux de neurones simples, convolutifs et récursifs
  • Appréhender les modèles plus avancés : auto-encodeurs, gans, apprentissage par renforcement

Public cible

  • Developers
  • Developers IT
  • Développeurs expérimentés
  • Entrepreneur IA
  • IA Developpers
  • IA Engineer
  • Informaticiens
  • Ingénieurs
  • Ingénieurs Systèmes
  • IT consultants
  • IT development
  • Programmeurs
  • Responsables informatiques
  • Software engineer

Pré-requis

Algorithmique, Probabilités, Statistiques

Modalités d’évaluation

L’évaluation des acquis se fait tout au long de la session au travers d’ateliers de mise en pratique des notions et concepts abordés pendant la formation.

Programme de la formation

1. Réseaux de neurones : Concepts fondamentaux d’un réseau de neurones

  •  Le réseau de neurones : architecture, fonctions d’activation et de pondération des activations précédentes
  • L’apprentissage d’un réseau de neurones
  • Modélisation d’un réseau de neurones : modélisation des données d’entrée et de sortie selon le type de problème.
  • Structure du réseau
  • Fonction de combinaison
  • Fonction d’activation
  • Propagation de l’information

2. MLP

  • Définition
  • Structure
  • Algorithme de propagation
  • Apprentissage
  • TP : Mise en situation : Analyse d’un algorithme MLP

3. Convolutional Net

  • Blocs de construction
    • Couche de convolution (CONV)
    • Paramétrage
    • Couche de pooling (POOL)
    • Couches de correction (ReLU, sigmoïde, etc.)
    • Couche entièrement connectée (FC)
    • Couche de perte (LOSS)
    • Exemples de modèles de CNN
  • Choix des hyperparamètres
    • Nombre de filtres
    • Forme du filtre
    • Forme du Max Pooling
  • Méthodes de régularisation
    • Empirique
    • Dropout
    • Données artificielles
    • Explicit
    • Taille du réseau
    • Dégradation du poids
    • La limitation du vecteur de poids

4. Recurrent Net: LSTM

  • Architecture
  • Training
  • TP : Application

5. Bayesian Net

  • Définition formelle
    • Loi de probabilité jointe
    • Propriété de Markov globale
  • Inférence
    • Définition et complexité
    • Inférence exacte
    • Inférence approchée
  • Apprentissage automatique
    • Apprentissage des paramètres
    • Apprentissage de la structure
  • Variantes
  • Réseau bayésien dynamique
  • Classifieur bayésien naïf
  • Diagramme causal
  • AutoEncoder
    • Définition
    • Architecture
    • Formalisation générale
    • Word2vect model
    • Glove model
    • TP : Utilisation du Word2vect model Algorithm pour le calcul de similarité sémantique
  • Reinforcement Learning
    • Définition
    • Formulation d’un problème de Reinforcement learning
    • Quelques exemples de cas d’usage
    • Les caractéristiques de l’apprentissage par renforcement
    • Les différents types d’apprentissage par renforcement
    • Les défis de l’apprentissage par renforcement
    • Avantages et inconvénients
  • GAN (Generative Adversarial Networks)
    • Architecture
    • Propriétés mathématiques
    • Training GAN
    • Évaluation GAN
    • TP : Utilisation d’un GAN

Qualité

Cette formation est accessible aux personnes en situation de handicap, nous contacter en cas de besoin d’informations complémentaires.

Programme mis à jour le