Dernières nouvelles


2025/01/23 : Notes cours 7-8, solutions TP 4, solutions TDs 3/4.
2025/01/23 : Notes cours 6, solutions TP 3, sources TP 4+5, TD 3+4.
2025/01/22 : Sources TP 3.
2025/01/16 : Solutions TD 1-2, TP 1-2+Notes séance 4.
2024/12/17 : Ressources séances 4/5.
2024/12/11 : Notes séance 2+ressources séance 3.
2024/12/09 : Notes séance 1.
2024/12/08 : Page du cours en ligne.

Intervenants

Paul Caillon
paul.caillon@dauphine.psl.eu

Clément Royer
clement.royer@lamsade.dauphine.fr

Retour à la page des enseignements

Optimisation pour l'apprentissage automatique

M2 IASD Apprentissage, Université Paris Dauphine-PSL, 2024-2025


But du cours

     Étudier les algorithmes d'optimisation utilisés en apprentissage et sciences des données et comprendre les principes sous-jacents.

Supports de cours

     Notes de cours (en anglais) PDF

     Tableau virtuel de la séance 1 (introduction et descente de gradient 1/2) PDF

     Tableau virtuel de la séance 2 (descente de gradient 2/2) PDF

     Tableau virtuel de la séance 4 (gradient stochastique) PDF

     Tableau virtuel de la séance 6 (sous-gradients) PDF

     Tableau virtuel de la séance 7 (régularisation) PDF

     Tableau virtuel de la séance 8 (exam 23-24+accélération) PDF

Exercices et notebooks

     Exercices TD descente de gradient (avec solutions) PDF

     Exercices TD gradient stochastique (avec solutions) PDF

     Exercices TD régularisation (avec solutions) PDF

     Examen 2023-2024 PDF

     TP Descente de gradient (avec solutions) Notebook

     TP Gradient stochastique (avec solutions) Notebook

     TP Sous-gradients et différentiation (avec solutions) Notebook

     TP Régularisation (avec solutions) Notebook

     TP Momentum (avec solutions) Notebook



Materials on this page are available under Creative Commons CC BY-NC 4.0 license.
La version française de cette page se trouve ici.