Vous êtes ici : Kiosque » Annonce

Identification

Identifiant: 
Mot de passe : 

Mot de passe oublié ?
Détails d'identification oubliés ?

Annonce

18 avril 2024

Modèles prudents pour l'IA adaptative


Catégorie : Doctorant


Résumé du projet de thèse

Ce sujet s’intéresse à la prédiction prudente (classification ou régression). Les méthodes de prédiction prudentes sont des méthodes d’apprentissage automatique qui visent à rendre plus fiables et plus robustes les sorties des classifieurs dans le cas où les données sont entachées d’imperfections. Ces méthodes sont d’autant plus nécessaires lorsque l’on applique les méthodes d’apprentissage automatique à des domaines sensibles comme la santé par exemple. Par prédiction prudente, nous entendons fournir un sous-ensemble de candidats (règles, classes, intervalles) auquel nous accordons une large confiance de contenir la vérité. Par exemple, dans le cas de la médecine [1] où un médecin est assisté par une méthode de classification de vision par ordinateur (de telles méthodes sont déjà utilisées en milieu médical [2]), la méthode de classification prudente doit donner une quantification de l'incertitude exploitable, comme un sous-ensemble de prédictions qui couvrent de manière prouvée le vrai diagnostic avec une probabilité élevée (par exemple, 95 %). Il existe un état de l’art très riche en la matière, nous pouvons citer entre autres [3-9] et nous avons fait plusieurs propositions dans ce cadre [10-18]. Ces travaux viennent enrichir les contributions qui visent l’explication et le renforcement de la confiance concernant les prédictions des algorithmes de l’IA.

Mots clés
Quantification de l'incertitude dans l'IA, IA adaptative, IA fiable, prédiction prudente

Profil et compétences recherchées
Les candidats doivent être titulaires : d'un Master ou d'un diplôme d’école d'ingénieur en informatique ou en mathématiques appliquées avec des connaissances dans le domaine de l'apprentissage automatique, des probabilités et des statistiques. Forte autonomie est demandée dans la mise en œuvre pratique des concepts et modèles développés dans le cadre des travaux de la thèse. Langages de programmation : Python et/ou R.

Candidature:
https://adum.fr/as/ed/voirproposition.pl?matricule_prop=56562&site=adumR

Contacts:
Jacky MONTMAIN jacky.montmain@mines-ales.fr
Abdelhak IMOUSSATEN abdelhak.imoussaten@mines-ales.fr



Contexte

Actuellement, un grand intérêt est porté sur les décisions dynamiques à base de l’apprentissage automatique ou l’IA adaptive. En effet, certaines sociétés des techniques avancées, comme Gartner, considère que l’IA adaptative est parmi les dix principales tendances technologiques stratégiques de 2023. L’IA adaptative se distingue par la création d’algorithmes capables d’apprendre et de s’adapter aux nouvelles situations de l’environnement, aux changements des objectives, des données en ligne, etc. Les décisions à base de l’IA adaptative requièrent encore plus de prudence pour être digne de confiance pour l’humain dû aux changements cités. Ce projet s’inscrit dans plusieurs piliers du projet european ENFIELD dont l’IMT est un partenaire. Il s’agit de l’IA adaptative et l’IA digne de confiance où la modélisation des incertitudes et les approches d'apprentissage robustes sont parmi les approches envisagées. Nous projetons des applications dans les domaines du sport (suivi des performances/blessures des athlètes) et de la santé (suivi des patients par rapport à l’évolution de certains mouvements). Par ailleurs, ce projet sera en lien avec une thèse en cours sur la performance sportive et une thèse à venir intitulée «Classification prudente de la réponse individuelle à la rééducation post AVC ».

La certification de la qualité des prédictions réalisées par les modèles issus de l’apprentissage automatique (l’IA en général) est devenue un sujet majeur de recherche au même niveau que l’explicabilité des prédictions de l’IA (XAI), désignée en générale par Trustworthy IA. Cette certification passe, dans notre approche, par une garantie (statistiquement ou de manière déterministe) de la justesse de leur prédiction dans un domaine de fonctionnement donné. Cette certification est d’autant plus nécessaire quand les prédictions sont séquentielles où les erreurs peuvent s’accumuler et, ainsi, les conséquences sont plus désastreuses. Dans ce travail, nous proposons de traiter la certification de la qualité des prédictions par les techniques de la quantification des incertitudes, et de gérer l’aspect séquentielles par l’apprentissage par renforcement. En plus de faire des contributions théoriques dans des thématiques largement mise en avant dans la recherche en IA, ces travaux visent à résoudre des problématiques réelles comme la problématique industrielle de tri de déchets plastiques, le contrôle d’un robot, ou toute autre problématique où l’on est censé prendre des décisions dans le temps (systèmes industriels, de santé, missions humanitaires, ...).

A notre connaissance, il n’existe pas d’étude lié à la confiance dans les algorithmes de l’IA adaptative. Ainsi, ce sujet exploratoire est nécessaire étant donnés les domaines sensibles dans lesquels les algorithmes basés sur l’apprentissage automatique vont être déployés.

Précision sur l'encadrement

Centre de Recherche et d’enseignement : Centre d’Enseignement et de Recherche en Informatique et Systèmes (CERIS)
Ecole doctorale : n°166 - I2S (Information, Structures et Systèmes)

Equipe encadrante : J. Montmain, A. Imoussaten

Conditions scientifiques matérielles et financières du projet de recherches

Contrat doctoral de 36 mois

 

 

Dans cette rubrique

(c) GdR IASIS - CNRS - 2024.