Nombre de documents

5

Khaled Belahcene, Doctorant en Aide à la décision et Intelligence artificielle


PROJET DE RECHERCHE

Positionnement

Mon travail de recherche se positionne à la croisée des domaines de la décision algorithmique (décision
multicritères, choix social computationnel, décision dans l’incertain, théorie algorithmique
des jeux) et de la représentation des connaissances et du raisonnement (préférences, argumentation,
révision de croyances). Je m’intéresse à la prise de décision, et à l’aide à la prise de décision,
vues comme des processus complexes, impliquant diverses parties prenantes, exigeant de tenir
compte de points de vue divers et souvent conflictuels, en présence d’informations plus ou moins
complètes.

Problématique

Plus particulièrement, je m’attache à outiller le processus d’aide à la décision de capacités explicatives.
Afin de pouvoir arbitrer entre différents compromis possibles entre points de vue
conflictuels, il est fréquemment nécessaire d’avoir recours à des raisonnements sur les préférences
du décideur. Ces raisonnements sont parfois portés par des modèles, caractérisés à la
fois par un certain nombre de propriétés normatives ou descriptives, ainsi que par une famille
paramétrée de fonctions réalisant l’agrégation des points de vue en une synthèse unique. Tandis
que l’élicitation des préférences s’attache à identifier ces paramètres préférentiels à partir d’informations
fournies par le décideur, le moteur d’explication cherche à produire un argumentaire
reliant ces informations, les propriétés caractéristiques du modèle choisi, et la recommandation
faite au décideur. Pour que cet argumentaire traduise la causalité entre prémisses et conclusion,
il s’avère fructueux de considérer les recommandations robustes vis-à-vis de l’information
incomplète concernant les préférences du décideur [1, 3, 4].

Applications

L’introduction de cette capacité explicative tend à répondre à la fois à des demandes sociétales
(ex. consolider la confiance qu’un humain pleut placer dans un système (semi)-automatique) et à
des défis scientifiques (ex. comment l’argumentaire soit techniquement valide et convenablement
mis en forme de manière en faciliter son appropriation).

PERSPECTIVES

Extension à de nouveaux modèles d’évaluation

Mes travaux m’ont conduit à proposer deux moteurs d’explication pour des préférences fondée
sur un modèle de valeur additive [1], et d’investiguer les modèles de tri non-compensatoire fondés
sur des jugements relatifs [3] ou absolus [2, 4]. D’autres modèles plus complets, tels que les
modèles additifs généralisés, l’intégrale de Choquet, ou à points de référence multiples, méritent
considération.

Amélioration computationnelle

La recherche d’explications constitue un défi computationnel. Une approche novatrice, fondée
sur des formulations en termes de satisfiabilité booléenne donnent des résultats prometteurs [2],
et mérite d’être investiguée (en particulier dans le cadre du PEPS SAT4EX).

Inscription dans une procédure dialectique

La production d’un argumentaire appuyant le point de vue d’un agent artificiel contribue à
permettre à terme à la décision algorithmique de se soumettre à une procédure contradictoire.
Pour cela, il est nécessaire de formaliser le processus d’aide à la décision par un jeu de dialogue
permettant à l’utilisateur/décideur de prendre l’initiative.

Révision du modèle d’évaluation

La plupart des procédures d’élicitation des préférences font l’hypothèse que le processus progresse,
sans rebroussement, et s’appuient par conséquent sur des modèles d’évaluation très
expressifs. Une autre approche, encore peu représentée, consiste à partir d’un modèle restrictif,
volontairement simpliste, et à réviser ce modèle à la demande (PEPS PULP).

Gouvernance algorithmique

La défiance montante de la société à l’égard de la décision algorithmique doit être prise avec le
plus grand sérieux, et commence à se traduire en actes, en particulier par l’affirmation renouvelée
de la prééminence en droit du principe du contradictoire. Cette exigence nécessite l’invention
d’une gouvernance nouvelle, incorporant des instances de recours ou d’audit garantissant le
déroulement loyal d’un processus dialectique, par exemple dans le cadre de la justice prédictive
([4], PEPS EMOJI).


Article dans une revue2 documents

Communication dans un congrès3 documents

  • Khaled Belahcene, Yann Chevaleyre, Nicolas Maudet, Christophe Labreuche, Vincent Mousseau, et al.. Accountable Approval Sorting. 27th International Joint Conference on Artificial Intelligence and 23rd European Conference on Artificial Intelligence (IJCAI-ECAI 2018), Jul 2018, Stockholm, Sweden. Proceedings of the 27th International Joint Conference on Artificial Intelligence and the 23rd European Conference on Artificial Intelligence (IJCAI-ECAI 2018). 〈hal-01785011〉
  • Khaled Belahcene, Christophe Labreuche, Nicolas Maudet, Vincent Mousseau, Wassila Ouerdane. A Model for Accountable Ordinal Sorting. 26th International Joint Conference on Artificial Intelligence (IJCAI-2017), Aug 2017, Melbourne, Australia. 〈hal-01523779〉
  • Khaled Belahcene, Christophe Labreuche, Nicolas Maudet, Vincent Mousseau, Wassila Ouerdane. Une formulation SAT pour l’apprentissage de modèles de classement multicritères non-compensatoires. 11e Journées d'Intelligence Artificielle Fondamentale, Jul 2017, Caen, France. 〈https://pfia2017.greyc.fr/iaf/〉. 〈hal-01577816〉