Objectifs

-Maitriser les concepts fondamentaux du Deep learning
-Utiliser un framework de référence : TensorFlow
-Mettre en œuvre les principaux algorithmes

Programme

– Retour historique sur l’apprentissage automatique

– Du Machine Learning au Deep Learning

– Champs d’application et cas d’utilisation

– Révisions des principes fondamentaux du Machine Learning

– Principaux outils et bibliothèques pour le Deep Learning :
TensorFlow, Keras, Caffe, etc

– Quelques rappels mathématiques : vecteurs, matrices, hyperplans…

– Installer TensorFlow et son environnement

– Introduction aux tensors

– Hello World et opérations de base avec TensorFlow

– Variables et placeholders

– Graphes et sessions TensorFlow

– Les principales APIs TensorFlow

– Obtenir et manipuler des ensembles de données

– Régression et classification avec TensorFlow

– Visualiser des graphes et courbes d’apprentissage avec TensorBoard

– Sauvegarder et restaurer des modèles
Travaux pratiques
Prise en main de TensorFlow

– Les réseaux de neurones

– Le perceptron à une couche et perceptron multicouche

– Principes de fonctionnement et architecture

– Régler les paramètres d’un réseau de neurones

– Les grandes étapes du développement d’un réseau de neurones

– Fonctions d’activation Sigmoid, Tanh, ReLU…
Travaux pratiques
Modéliser un réseau de neurones

– Rythme d’apprentissage

– Fonctions de coût, descente de gradient et rétro

-propagation

– Sélectionner les features

– Techniques de Data Augmentation

– Eviter le surapprentissage grâce à la régularisation (arrêt délibéré,
normes L1 et L2)

– Batch normalization

– Validation croisée et hyperparamètres

– Optimisation et comparaison de modèles

– Transfer Learning : utiliser des couches préentraînées
Travaux pratiques
Entrainer un réseau de neurones

-Principes de fonctionnement et cas d’utilisation

– Filtres, couches de convolution et de pooling

– Architecture d’un CNN
Travaux pratiques
Mise en œuvre des CNN en utilisant des jeux de données variés.

-Principes de fonctionnement et cas d’utilisation

– Le problème de la disparition du gradient

– Architecture d’un RNN

– Cellule Long Short-Term Memory (LSTM)

– Cellule GRU, version simplifiée de la cellule LSTM

– Natural Language Processing

– Réseaux de neurones récursifs
Travaux pratiques
Mise en œuvre des RNN en utilisant des jeux de données variés.

– Retour sur l’apprentissage non-supervisé

– La machine de Boltzmann restreinte (RBM)

– Deep Belief Networks

– Réduction de dimension grâce aux autoencoders

– Différents types d’autoencoders
Travaux pratiques
Mise en œuvre des Autoencoders en utilisant des jeux de données variés.

– Principes de fonctionnement et cas d’utilisation

– Optimiser les récompenses

– Introduction à OpenAI Gym, configuration et prise en main

– Le problème du credit-assignment

– Processus de décision markoviens

– Apprentissage par différence temporelle

– Apprentissage Q

Référence :  BIG019

Type de Stage : Pratique

Durée : 3 jours

Public concerné:

Ingénieurs, Data Scientists

Prérequis:

Bonnes connaissances en
statistiques. Bonnes
connaissances du Machine
Learning