Clément W. Royer
For an English version of this page, click here.
Ecoles, séminaires longs
Optimisation pour l'apprentissage
Ecole CIMPA "Control, Optimization and Model Reduction in Machine Learning", février 2025.
Voir
page dédiée.
Complexité en optimisation continue
Cours du programme doctoral informatique de Dauphine, février-mars 2025.
Séance 1 : Descente de gradient et Newton pour problèmes non convexes
Présentation Notes
Séance 2: Gradient accéléré du convexe au non convexe
Tableau
Séance 3 : Méthodes et garanties à l'ordre deux
Tableau
Séance 4 : Complexité et points stationnaires
Tableau
Séance 5 : Méthodes d'ordre élevé
Tableau
Séance 6 : Complexité et programmation linéaire
Tableau
Sélection d'exposés
Optimisation sans dérivées via sous-espacesExposé
Journées SMAI-MODE, 2024, Lyon, France.
Conférence SIAM Optimization, 2023, Seattle, WA, USA.
Séminaire MIDAS, Université du Michigan, 2022, Ann Arbor (Michigan), États-Unis.
Séminaire ISE, Université de Lehigh, 2022, Bethlehem (Pennsylvanie), États-Unis.
Méthodes de types Newton-Gradient Conjugué avec garanties de complexité
Exposé
Séminaire CAS, Mines Paris-PSL, 2023.
Séminaire "Computational Maths", Australian National University (Canberra, Australie), 2021, en ligne.
Workshop ICML "Beyond first-order in ML systems", 2021, en ligne.
Algorithmes de Levenberg-Marquardt stochastiques pour les moindres
carrés non linéaires et l'assimilation de donnéesExposé
Workshop Avancées en optimisation continue (EUROPT), 2021, en ligne (initialement Toulouse, France).
Conférence SIAM CSE, 2021, en ligne (initialement Forth Worth, Texas, États-Unis).
Journées SMAI-MODE, 2020, en ligne (initialement Palaiseau, France).
La liste complète de mes présentations et posters est disponible via mon
cv.
Les documents présents sur cette page sont accessibles sous licence Creative Commons
CC BY-NC 4.0.