Inscription manuelle de participants

En même temps que se diffusent les outils et les usages de l'intelligence artificielle, les débats s'intensifient dans l'espace public. Conscient de cet état de fait, le secteur de l'intelligence artificielle s'engage vigoureusement pour défendre une "IA éthique" en produisant de nombreux manuels de recommandation. L'Union européenne est en phase finale d'adoption de l'IA Act.
De fait, le perfectionnement des techniques d’apprentissage qui s’appuient sur des bases de données toujours plus volumineuses ouvre de nouvelles opportunités. Mais comme pour toute innovation technologique s’opposent des discours enthousiastes et critiques : tantôt ces technologies constituent un axe majeur d’innovation et de progrès, tantôt une menace pour l’humanité. Pour les utilisateurs, la situation est paradoxale : ils oscillent entre une perception positive des services rendus et une inquiétude face à l’exploitation de leurs traces. Les IA de nouvelle génération (foundation models, GenAI, large language models) font revivre les craintes d'une vraie "intelligence".
L’objectif de ce cours est d'analyser les fondements des critiques et de les mettre en regard de ce que "font" vraiment les technologies. Autrement dit, il s'agit de prendre au sérieux les discours mais de les confronter à la réalité des usages. Seront examinés dans le cours les différents sujets de controverse : que fait l'IA à l'emploi, aux relations sociales, à la protection de la personne, aux inégalités... Le travail d'enquête permettra de sortir des discours pour examiner les problèmes réels : biais, explicabilité, équité...
Des chercheurs provenant de différentes disciplines des sciences sociales (droit, économie, sociologie) et des experts de l'intelligence artificielle présenteront la question depuis leur discipline. L'enseignement sera majoritairement en français, avec quelques exceptions (Winston Maxwell).

Les grands thèmes du cours sont:

Introduction aux droits fondamentaux, à l’éthique et à la pondération des objectifs en conflit (test de proportionnalité) dans un projet numérique à haut risque, avec mise en situation

Les différents types d’IA (symbolique, machine learning, modèles de fondation, GPT-4) et les risques inhérents à chaque type de modèle.

L’équité, les biais algorithmiques et les biais humains. Les algorithmes sont biaisés, mais souvent moins que les humains. L’équité parfaite est inatteignable, que ce soit pour une machine ou un humain. Comment définir une équité imparfaite, mais acceptable?

Le contrôle humain des systèmes algorithmiques - qu’est-ce qu’un contrôle humain effectif, et pour quoi faire?

L’explicabilité des algorithmes - faut-il nécessairement comprendre le fonctionnement du modèle pour le déployer?

La cartographie des acteurs de l’écosystème de l’IA, leurs influences, les controverses

Qu’est-ce qu’une IA éthique et à quoi sert le débat éthique?

L’IA Act et le RGPD pour un projet IA à haut risque (par exemple reconnaissance faciale)

Les normes, et l’évaluation d’une IA “de confiance”

La “responsabilisation” (accountability) et la gestion des risques pour un système IA à haut risque
Les visiteurs anonymes ne peuvent pas accéder à ce cours. Veuillez vous connecter.