-Maitriser les concepts fondamentaux du Deep learning
-Utiliser un framework de référence : TensorFlow
-Mettre en œuvre les principaux algorithmes
– Retour historique sur l’apprentissage automatique
– Du Machine Learning au Deep Learning
– Champs d’application et cas d’utilisation
– Révisions des principes fondamentaux du Machine Learning
– Principaux outils et bibliothèques pour le Deep Learning :
TensorFlow, Keras, Caffe, etc
– Quelques rappels mathématiques : vecteurs, matrices, hyperplans…
– Installer TensorFlow et son environnement
– Introduction aux tensors
– Hello World et opérations de base avec TensorFlow
– Variables et placeholders
– Graphes et sessions TensorFlow
– Les principales APIs TensorFlow
– Obtenir et manipuler des ensembles de données
– Régression et classification avec TensorFlow
– Visualiser des graphes et courbes d’apprentissage avec TensorBoard
– Sauvegarder et restaurer des modèles
Travaux pratiques
Prise en main de TensorFlow
– Les réseaux de neurones
– Le perceptron à une couche et perceptron multicouche
– Principes de fonctionnement et architecture
– Régler les paramètres d’un réseau de neurones
– Les grandes étapes du développement d’un réseau de neurones
– Fonctions d’activation Sigmoid, Tanh, ReLU…
Travaux pratiques
Modéliser un réseau de neurones
– Rythme d’apprentissage
– Fonctions de coût, descente de gradient et rétro
-propagation
– Sélectionner les features
– Techniques de Data Augmentation
– Eviter le surapprentissage grâce à la régularisation (arrêt délibéré,
normes L1 et L2)
– Batch normalization
– Validation croisée et hyperparamètres
– Optimisation et comparaison de modèles
– Transfer Learning : utiliser des couches préentraînées
Travaux pratiques
Entrainer un réseau de neurones
-Principes de fonctionnement et cas d’utilisation
– Filtres, couches de convolution et de pooling
– Architecture d’un CNN
Travaux pratiques
Mise en œuvre des CNN en utilisant des jeux de données variés.
-Principes de fonctionnement et cas d’utilisation
– Le problème de la disparition du gradient
– Architecture d’un RNN
– Cellule Long Short-Term Memory (LSTM)
– Cellule GRU, version simplifiée de la cellule LSTM
– Natural Language Processing
– Réseaux de neurones récursifs
Travaux pratiques
Mise en œuvre des RNN en utilisant des jeux de données variés.
– Retour sur l’apprentissage non-supervisé
– La machine de Boltzmann restreinte (RBM)
– Deep Belief Networks
– Réduction de dimension grâce aux autoencoders
– Différents types d’autoencoders
Travaux pratiques
Mise en œuvre des Autoencoders en utilisant des jeux de données variés.
– Principes de fonctionnement et cas d’utilisation
– Optimiser les récompenses
– Introduction à OpenAI Gym, configuration et prise en main
– Le problème du credit-assignment
– Processus de décision markoviens
– Apprentissage par différence temporelle
– Apprentissage Q
Référence : BIG019
Type de Stage : Pratique
Durée : 3 jours
Ingénieurs, Data Scientists
Bonnes connaissances en
statistiques. Bonnes
connaissances du Machine
Learning