Ce cours est une introduction à l'analyse fonctionnelle, à l'analyse harmonique et à l'analyse des équations aux dérivées partielles. Nous montrerons pour chaque thème des résultats majeurs qui pourront intéresser ceux qui se destinent à étudier l’Analyse comme ceux qui désirent passer l'agrégation.
Objectif du cours : Les activités humaines reposent en grande part sur la perception visuelle de l’environnement. Ceci est vrai dans les médias où images et vidéo coulent à flot, mais cette dépendance de la vision est encore plus frappante dans toutes les activités scientifiques, sociales et techniques : médecine, astronomie, biologie, science des matériaux, contrôle vidéo, etc.
Cette dépendance a changé de caractère avec la généralisation de l’imagerie digitale il y a 25 ans. L’image, représentée numériquement laisse le champ libre aux mathématiciens et ingénieurs pour inventer des théories et des algorithmes la manipulant et l’analysant pour une gamme toujours plus étendue d’applications. Aussi le traitement et l’analyse d’images sont-ils devenus une science mathématique dans laquelle on retrouve des reformulations et usages nouveaux de nombreux outils mathématiques, ainsi que plusieurs modèles mathématiques nouveaux.

Prérequis : Le cours introduira toutes ses notions mais les étudiants en retireront une perspective plus large s’ils ont des éléments d'analyse fonctionnelle, de théorie des distributions, de calcul différentiel, de probabilité discrète, d'analyse numérique des EDP. Ce cours constituera une introduction très adaptée au M2 MVA.
Contenu du cours
Chap 1: Premiers éléments d'optimisation. Généralités sur les problèmes d'optimisation. Théorème de projection sur un convexe fermé. Fonctions convexe, s.c.i, elliptique. Fonction convexe sci et sup des minorantes afines sur un Hilbert. Conditions d'optimalité du premier et second ordre pour les problèmes sans contraintes
Chap 2: Méthodes de descentes, gradient à pas optimal. Gradient à pas optimal, vitesse de convergence et conditionnement. Recherche linéaire (Wolfe et Armijo). Convergence des méthodes de descentes avec recherche linéaire.
Chap 3: Méthodes de Newton et quasi-Newton. Convergence quadratique de la méthodes de Newton. Méthodes de quasi-Newton DFP et BFGS. Convergence dans le cas quadratique. Gradient conjugué et extension Polak Ribière. Comparaison des performances.
Chap 4: Optimisation sous contraintes d'égalité. Rappels sur le TIL. Extrémas liés. Lagrangien et condition du premier ordre. Conditions nécessaires et suffisantes du second ordre. Illustrations. Théorème de sensibilité.
Chap 5: Optimisation sous contraintes mixtes. Contraintes actives et qualification des contraintes. Lemme de Farkas-Minkowski. Théorème de Karush-Kuhn-Tucker (dim infinie, contraintes mixtes).
Chap 6: Dualité pour les problèmes convexe. Lagrangiens et points selles. Problème primal et dual, saut de dualité. Résolution du problème primal via le problème dual. Exemples.
Chap 7: Algorithmes proximaux. Sous-différentielle. Enveloppe de Moreau et approximation prox. Algorithmes du point proximal et forward-backward. Exemples. Algorithme d'Uzawa. Compléments (fonction conjuguée, décomposition de Moreau, algorithme ISTA).
Chap 8: Topologie faible sur les Hilbert. Convergence faible. Compacité faible des boules fortes sur les Hilbert séparables. Coercivité et fonctions faiblement sci. Théorème d'existence. Liens entre sci faible et sci faible séquentielle.