Objectifs

-Compréhension des principes fondamentaux du Machine Learning et de son évolution vers le Deep Learning
-Revue des principaux outils et applications
-Maîtriser les bases théoriques et pratiques d’architecture et de convergence de réseaux de neurones

Programme

– Le fantasme de l’intelligence artificielle face aux réalités d’aujourd’hui.

– Nouvelle modélisation des problèmes.

– Machine learning : présentation de l’apprentissage

– Approches principales: supervised learning, unsupervised learning,
reinforcement learning, self supervised learning.

– Actions principales : classification, régression, clustering, estimation
de densité, réduction de dimensionnalité, prédiction, génération

– Algorithmes à évolution : introduction et état actuel

– Exemples d’algorithmes Machine Learning : Régression linéaire,
Naive Bayes, Random Tree.

– Définition d’un réseau de neurones

– Définition de l’apprentissage d’un réseau de neurones : fonctions de
coût, backpropagation, stochastic gradient descent, maximum
likelihood.

– Modélisation d’un réseau de neurones

– Fonction de coût selon la donnée.

– Approximer une distribution par un réseau de neurones :
présentation et exemples

– Data Augmentation

– Généralisation des résultats d’un réseau de neurones

-Outils de gestion de donnée : Apache Spark, Apache Hadoop

– Outils Machine Learning usuel : Numpy, Scipy, Sci-kit

– Frameworks DL haut niveau : PyTorch, Tensorflow, Caffe

– Présentation des principes de fonctionnement et définition de filtres
convolutifs

– Développement d’une couche de convolution, d’une couche de
pooling

– Approche logicielle du développement d’un réseau de neurones
convolutifs

– Présentation des principes de fonctionnement et importance de
la disparition du gradient

– Approche logicielle du développement d’un réseau de neurones
récurrents
 – Présentation d’une Cellule Long Short-Term Memory (LSTM)
et de sa version simplifiée la cellule GRU

– Principes fondamentaux du NLP

– Présentation des modèles générationnels Variational
AutoEncoder (VAE) et Generative Adversarial Networks
(GAN).

– Auto-encoder : réduction de dimensionnalité et génération limitée.

– Variational
AutoEncoder : modèle générationnel et
approximation de la distribution d’une donnée.

– Définition et utilisation de l’espace latent. Reparameterization trick.

– Fondamentaux du Generative Adversarial Networks.

– Convergence d’un GAN et difficultés rencontrées.

– Convergence améliorée : Wasserstein GAN, BeGAN. Earth Moving Distance.

– Applications de génération d’images ou de photographies,
génération de texte, super résolution.

– Principe de notation et d’optimisation par objectif

– Présentation de la toolkit Gym pour la programmation par
renforcement

– Principe de la prise de décision par critère de Markov

– Principes fondamentaux de l’apprentissage par différence
(temporelle, etc)

Référence :  BIG018

Type de Stage : Pratique

Durée : 3 jours

Public concerné:

Ingénieurs, Data Scientists

Prérequis:

Bonnes connaissances en
programmation