Contacts et collaborations

Stages, emplois

Éthique et formalisation dans les systèmes multi-agents

Direction : Bruno Mermet (bruno dot mermet at unicaen dot fr) and Gaële Simon (gaele dot simon at unicaen dot fr)
Contexte :Le développement des technologies de l'information et de la communication d'une part et des robots d'autre part fait que, de plus en plus, humains et entités informatiques sont en interaction. Par ailleurs, ces mêmes entités informatiques sont de plus en plus amenées à prendre des décisions, quelques fois à la place d'humains, dans des environnements o\`u des humains sont présents. Le contrôle de certaines règles éthiques par ces entités informatiques devient alors une question cruciale. Plusieurs caractéristiques des systèmes en question rendent le contrôle de règles éthiques cruciales : (1) le fonctionnement des entités informatiques envisagées est complexe; (2) le système est ouvert, ce qui signifie qu'à tout moment, de nouvelles entités informatiques, développées indépendamment, peuvent rejoindre le système; (3) des vies humaines peuvent être en jeu suite aux décisions prises par ces entités informatiques (cas du pilotage de drones par exemple). Formaliser les règles éthiques et pouvoir vérifier formellement qu'un agent ou groupe d'agents les respecte appara\^it donc comme un domaine de recherche important. Afin de permettre et de faciliter ces preuves, un modèle appelé GDT4MAS a été proposé par Mermet et Simon (GDT4MAS: a formal model and language to specify and verify agent-based complex systems) au sein duquel le comportement de chaque agent est décrit par un GDT (Goal Decomposition Tree) qui repose notamment sur la logique du premier ordre et la logique temporelle. Un GDT permet de décrire le comportement d'un agent sous la forme d'un arbre de décomposition de buts en sous-buts, chaque but étant spécifié formellement entre autres par une condition de satisfaction permettant d'évaluer si le but est satisfait ou non. On peut également montrer que le système dans son ensemble respecte des propriétés d'invariance, qui sont des propriétés garantissant que les agents et le système n'atteindront jamais un état non souhaité. Dans ce contexte, nous nous intéressons à savoir dans quelles mesures les techniques employées pourraient être utilisées pour la vérification du respects de règles éthiques.
Méthodologie : Dans le cadre de ce stage, il s'agit de faire une étude bibliographique sur l'éthique dans les agents en général, et plus particulièrement sur les spécifications formelles proposées pour de telles règles. Dans un deuxième temps, il s'agira notamment d'étudier si ces règles peuvent être ramenées à des propriétés d'invariance et/ou de vivacité. Dans l'affirmative, une petite étude de cas pourra alors être proposée. Sinon, il s'agira d'argumenter sur l'impossibilité d'exprimer ainsi des règles éthiques.

Définition d'une ontologie éthique pour les éthiques collectives dans les systèmes multi-agents

Direction: Olivier Boissier (olivier dot boissier at emse dot fr) and Philippe Beaune (philippe dot beaune at emse dot fr)
Contexte : Les agents artificiels (machines et logiciels) qui agissent pour le compte d'être humains deviennent de plus en plus autonomes et sont de moins en moins soumis au contrôle direct des opérateurs et des utilisateurs humains. Si accroître l'autonomie des agents est intéressante, il est de première importance, en particulier lorsque les agents artificiels interagissent avec des êtres humains, de s'assurer qu'ils ne puissent blesser des humains ou les priver de leur liberté de décision. La question de l'éthique est donc une problématique majeure. Cependant, l'éthique par conception (c.-à-d. coder explicitement des principes éthiques inviolable) ne suffit pas aux systèmes ouverts et décentralisés pour lesquels les décisions et les comportements doivent s'adapter. Les systèmes de régulation sémantique forment une approche prometteuse pour rendre accessible aux agents artificiels des principes de régulation explicites. Cependant, il convient alors de représenter les principes éthiques pertinents pour ces agents, les dilemmes auxquels ils peuvent être confrontés, leur nature, les droits et les devoirs qui doivent être considérés, etc. Les technologies du Web Sémantic proposent des langages de description d'ontologies qui peuvent être utilisés pour spécifier des connaissances et raisonner sur elles.
Méthodologie : L'objectif de ce stage est de définir une ontologie des principes éthiques qui pourra aider des agents artificiels à raisonner sur le comportement à mettre en oeuvre dans un contexte multi-agent. Des ontologies ont déjà été proposées dans différents domaines. Un des objectifs du stage est de les analyser et de les comparer. Il conviendra ensuite de proposer une ontologie, voire de réutiliser un travail proprosé par la communauté Web Sémantique.

Modélisation, détection et explication des conflits éthiques dans un système homme-robot

Direction : Catherine Tessier (catherine dot tessier at onera dot fr) and Claire Saurel (saurel at onera dot fr)
Contexte :Le contexte du stage est celui du couplage d'un opérateur humain avec un engin robotisé doté de fonctions décisionnelles. L'autonomie de l'engin est variable selon l'autorité exercée respectivement par les fonctions décisionnelles et par l'opérateur humain sur les différentes ressources nécessaires à la mission. Ainsi le contrôle d'une ressource pourra, en cours de mission, passer des fonctions décisionnelles du robot à l'opérateur et réciproquement, ce partage de l'autorité présentant des risques de conflits lorsque les deux agents veulent simultanément avoir le contrôle d'une même ressource. Des travaux de thèse antérieurs ont permis de concevoir un protocole expérimental, inspiré du dilemme du trolley, visant à étudier les conflits d'autorité lorsque le système constitué de l'opérateur et du robot est soumis à des conflits qui relèvent de l'éthique, et qui n'ont donc pas de bonnes solutions. De manière générale, les conflits d'autorité entre l'opérateur et le robot peuvent être dus au fait que ces deux agents ont des buts divergents, ou bien une appréciation différente de la situation sur laquelle ils se fondent pour prendre ou calculer leur décision. Dans le cas de conflits qui relèvent de l'éthique, cette appréciation de la situation, le cadre moral considéré, ainsi que l'évaluation des conséquences d'une décision, sont cruciaux, et ne peuvent se limiter à une simple instanciation de règles.
Méthodologie : L'objectif de ce stage d'étudier ce type de conflit d'autorité, de le modéliser en vue d'être à même de le détecter de manière automatique, et de concevoir des outils permettant de peser les arguments qui soutiennent ou au contraire fragilisent telle solution au conflit, en particulier lorsque les décisions calculées et partagées avec les décisions d'un opérateur sont susceptibles de mettre en jeu des valeurs morales (décisions de tir, minimisation des conséquences d'un accident, protection de la vie privée, reprises en main automatiques aux dépens d'un opérateur diminué). Le cadre d'application sera alors celui d'un drone aérien supervisé par un opérateur, ce système homme-robot rencontrant des situations posant des questions éthiques.

Nous contacter

Merci de nous adresser vos questions sur les offres ci-dessus en utilisant le formulaire suivant.