Inscription manuelle de participants

Contenu du cours
Chap 1: Premiers éléments d'optimisation. Généralités sur les problèmes d'optimisation. Théorème de projection sur un convexe fermé. Fonctions convexe, s.c.i, elliptique. Fonction convexe sci et sup des minorantes afines sur un Hilbert. Conditions d'optimalité du premier et second ordre pour les problèmes sans contraintes
Chap 2: Méthodes de descentes, gradient à pas optimal. Gradient à pas optimal, vitesse de convergence et conditionnement. Recherche linéaire (Wolfe et Armijo). Convergence des méthodes de descentes avec recherche linéaire.
Chap 3: Méthodes de Newton et quasi-Newton. Convergence quadratique de la méthodes de Newton. Méthodes de quasi-Newton DFP et BFGS. Convergence dans le cas quadratique. Gradient conjugué et extension Polak Ribière. Comparaison des performances.
Chap 4: Optimisation sous contraintes d'égalité. Rappels sur le TIL. Extrémas liés. Lagrangien et condition du premier ordre. Conditions nécessaires et suffisantes du second ordre. Illustrations. Théorème de sensibilité.
Chap 5: Optimisation sous contraintes mixtes. Contraintes actives et qualification des contraintes. Lemme de Farkas-Minkowski. Théorème de Karush-Kuhn-Tucker (dim infinie, contraintes mixtes).
Chap 6: Dualité pour les problèmes convexe. Lagrangiens et points selles. Problème primal et dual, saut de dualité. Résolution du problème primal via le problème dual. Exemples.
Chap 7: Algorithmes proximaux. Sous-différentielle. Enveloppe de Moreau et approximation prox. Algorithmes du point proximal et forward-backward. Exemples. Algorithme d'Uzawa. Compléments (fonction conjuguée, décomposition de Moreau, algorithme ISTA).
Chap 8: Topologie faible sur les Hilbert. Convergence faible. Compacité faible des boules fortes sur les Hilbert séparables. Coercivité et fonctions faiblement sci. Théorème d'existence. Liens entre sci faible et sci faible séquentielle.
Les visiteurs anonymes ne peuvent pas accéder à ce cours. Veuillez vous connecter.