← Back to catalog
Apprentissage Profond
Deep Learning
Yaé Ulrich Gaba
M1-M2
12 chapters
FR + EN
Description
Ce cours couvre l’apprentissage profond des fondements aux architectures modernes. On étudie les réseaux de neurones (CNN, RNN, LSTM), les Transformers, les modèles génératifs (GAN, VAE, modèles de diffusion), ainsi que les fondements théoriques de la généralisation et de l’expressivité des réseaux profonds.
Table of Contents
- Chapter 1 Réseaux de neurones artificiels — Fondements
- Chapter 2 Rétropropagation et optimisation
- Chapter 3 Régularisation et Techniques de Généralisation
- Chapter 4 Réseaux de Neurones Convolutifs (CNN)
- Chapter 5 Réseaux Récurrents et LSTM
- Chapter 6 Mécanisme d’Attention
- Chapter 7 Transformers
- Chapter 8 Modèles Génératifs — GAN
- Chapter 9 Auto-encodeurs Variationnels (VAE)
- Chapter 10 Modèles de Diffusion
- Chapter 11 Aspects Théoriques — Généralisation, Expressivité
- Chapter 12 Applications et Éthique
Prerequisites
Apprentissage automatique (Machine Learning). Algèbre linéaire, probabilités, programmation Python/PyTorch.