Dernières nouvelles


2024/11/18 : Solution TP03+Lien séance 13.
2024/11/14 : Notebook séance 12.
2024/11/08 : Lien séance 11.
2024/11/04 : Lien séance 10.
2024/10/17 : Lien séance 9 + solution TP 02.
2024/10/09 : Liens séances 5-7 + TP 02.
2024/09/28 : Notes complément TP 01.
2024/09/27 : Solution TP 01.
2024/09/25 : Liens pour les séances 3/4.
2024/09/19 : Liens pour la séance 2.
2024/09/16 : Liens pour la séance 1.
2024/09/15 : Page du cours en ligne.

Enseignants

Gabriel Peyré
gabriel.peyre@ens.fr

Clément Royer
clement.royer@lamsade.dauphine.fr

Irène Waldspurger
waldspurger@ceremade.dauphine.fr

Retour à la page des enseignements

Optimisation pour l'apprentissage automatique

M2 IASD/MASH, Université Paris Dauphine-PSL, 2024-2025


Objectifs du cours

      Présenter le formalisme et les algorithmes d'optimisation utilisés en apprentissage et en sciences des données. On s'intéressera à la fois à l'analyse théorique de ces algorithmes et à leur implémentation.

     Ressource principale Google doc associé au cours

Supports de cours (en anglais)

     Séance 1 (Introduction 1/2) PDF
     Séance 2 (Introduction 2/2) PDF
     Séance 3 (Descente de gradient) PDF
     Séance 4 (Note sur le pas en optimisation fortement convexe) PDF
     Séances 5 et 7 (Notes de cours) PDF
     Séance 6 (Différentiation automatique) PDF Tutoriel
     Séance 9 (Méthodes de sous-gradients) PDF
     Séance 10 (Gradient stochastique 1/2) PDF
     Séance 11 (Gradient stochastique 2/2) PDF
     Séance 13 (Régularisation et gradient proximal) PDF
     Séance 14 (Régularisation l1) [Notebook]

Sources des TPs (en anglais)

     Notebook Python sur les bases de la descente de gradient [Original] [Solutions]
     Notebook Python sur aspects avancés de descente de gradient [Original] [Solutions]
     Notebook Python sur les méthodes de gradient stochastique[Original] [Solutions]


Les documents présents sur cette page sont accessibles sous licence Creative Commons CC BY-NC 4.0
The English version of this page can be found here.