-Compréhension des principes fondamentaux du Machine Learning et de son évolution vers le Deep Learning
-Revue des principaux outils et applications
-Maîtriser les bases théoriques et pratiques d’architecture et de convergence de réseaux de neurones
– Le fantasme de l’intelligence artificielle face aux réalités d’aujourd’hui.
– Nouvelle modélisation des problèmes.
– Machine learning : présentation de l’apprentissage
– Approches principales: supervised learning, unsupervised learning,
reinforcement learning, self supervised learning.
– Actions principales : classification, régression, clustering, estimation
de densité, réduction de dimensionnalité, prédiction, génération
– Algorithmes à évolution : introduction et état actuel
– Exemples d’algorithmes Machine Learning : Régression linéaire,
Naive Bayes, Random Tree.
– Définition d’un réseau de neurones
– Définition de l’apprentissage d’un réseau de neurones : fonctions de
coût, backpropagation, stochastic gradient descent, maximum
likelihood.
– Modélisation d’un réseau de neurones
– Fonction de coût selon la donnée.
– Approximer une distribution par un réseau de neurones :
présentation et exemples
– Data Augmentation
– Généralisation des résultats d’un réseau de neurones
-Outils de gestion de donnée : Apache Spark, Apache Hadoop
– Outils Machine Learning usuel : Numpy, Scipy, Sci-kit
– Frameworks DL haut niveau : PyTorch, Tensorflow, Caffe
– Présentation des principes de fonctionnement et définition de filtres
convolutifs
– Développement d’une couche de convolution, d’une couche de
pooling
– Approche logicielle du développement d’un réseau de neurones
convolutifs
– Présentation des principes de fonctionnement et importance de
la disparition du gradient
– Approche logicielle du développement d’un réseau de neurones
récurrents
– Présentation d’une Cellule Long Short-Term Memory (LSTM)
et de sa version simplifiée la cellule GRU
– Principes fondamentaux du NLP
– Présentation des modèles générationnels Variational
AutoEncoder (VAE) et Generative Adversarial Networks
(GAN).
– Auto-encoder : réduction de dimensionnalité et génération limitée.
– Variational
AutoEncoder : modèle générationnel et
approximation de la distribution d’une donnée.
– Définition et utilisation de l’espace latent. Reparameterization trick.
– Fondamentaux du Generative Adversarial Networks.
– Convergence d’un GAN et difficultés rencontrées.
– Convergence améliorée : Wasserstein GAN, BeGAN. Earth Moving Distance.
– Applications de génération d’images ou de photographies,
génération de texte, super résolution.
– Principe de notation et d’optimisation par objectif
– Présentation de la toolkit Gym pour la programmation par
renforcement
– Principe de la prise de décision par critère de Markov
– Principes fondamentaux de l’apprentissage par différence
(temporelle, etc)
Référence : BIG018
Type de Stage : Pratique
Durée : 3 jours
Ingénieurs, Data Scientists
Bonnes connaissances en
programmation