Liste des partenaires : CNRS, Inria, Université Grenoble Alpes, Université Paris-Saclay,
IMT (Institut Mines-Télécom), Sorbonne Université, Université Claude Bernard Lyon 1, Université de Lille, Université de Toulouse,
CESI, ENAC, Université de Lorraine, Université Gustave-Eiffel.

Contact : pc3 [at] pepr-ensemble.fr

3 thématiques prioritaires :

  1. Collaboration entre des groupes de personnes et des systèmes intelligents

  2. Maintenir la compréhension et le contrôle des systèmes intelligents complexes

  3. Collaboration long terme avec des systèmes intelligents

Objectif : financement de 3-5 thèses

Thème 1 : Modélisation et compréhension des groupes d’agents dotés de capacités sociales dans les systèmes intelligents

Dans la vie quotidienne ou au travail, les interactions se font souvent en groupe. Ici, un groupe peut être composé d’une vingtaine de personnes au plus et inclure un ou plusieurs systèmes intelligents. Les interactions de groupe impliquent des comportements humains complexes tels que la gestion des tours de parole, les mécanismes de synchronisation intra et inter-personnelle, l’imitation, etc. Cependant, elles ne peuvent pas être considérées comme étant une dyade ou même comme étant un ensemble de dyades. En outre, les interactions au sein des groupes impliquent une dynamique qui tend à accentuer la polarisation entre les membres du groupe. L’introduction de systèmes intelligents pour soutenir l’interaction de groupe doit tenir compte de ces configurations complexes et saisir cette dynamique de groupe pour renforcer la cohésion, assurer la collaboration à une action commune et gérer les conflits. Le défi consiste à s’assurer que l’introduction de systèmes intelligents dans un groupe d’utilisateurs humains sert l’objectif de la collaboration. Nous développerons des mesures et des indicateurs pour comprendre comment la collaboration se produit et évolue dans un groupe d’utilisateurs humains et de systèmes intelligents, en tenant compte de la complexité du comportement individuel dans le contexte de la collaboration. Le projet vise à aller au-delà de l’interaction dyadique en concevant et en développant des modèles pour comprendre et explorer les implications des interactions collaboratives entre des groupes d’humains et d’agents. Plusieurs sujets seront abordés concernant la sociabilité des agents, la participation et l’adaptation des agents aux activités de groupe et collectives, ainsi que l’utilisation de l’IA pour améliorer le rôle des agents artificiels dans les tâches créatives.

Mots-clés : Systèmes intelligents, processus créatif, groupe, conflit, leadership, interactions collaboratives, émergence de l’agence collective

Thème 2 : Modélisation et compréhension des interactions collaboratives ou compétitives entre les humains et les entités pilotées par l’IA

La complexité croissante des systèmes intelligents s’accompagne de la complexité de leur compréhension. En effet, il est communément observé, lors d’interactions avec les systèmes intelligents, un manque de compréhension des utilisateurs humains sur les éléments qui conduisent les décisions du système et qui sont nécessaires pour renforcer les individus et maintenir un sentiment de contrôle. L’objectif de l’IA explicable (XAI) est généralement formulé en termes d’explication aux utilisateurs du fonctionnement de l’algorithme (par exemple, les critères). Cependant, les utilisateurs cherchent également à comprendre quels aspects de leur propre comportement le système intelligent comprend. Plus important encore, ils veulent savoir ce que le système leur permettra de faire ensuite et quelles en seront les conséquences pour les différentes parties prenantes. Inversement, l’entité IA doit estimer l’état et les intentions des utilisateurs, afin de calculer le comportement requis pour les aider. En outre, les utilisateurs humains doivent garder le contrôle de ces systèmes intelligents. Mais lorsqu’un système accomplit des tâches de plus en plus complexes, il devient également de plus en plus difficile à contrôler, que ce soit par une configuration hors ligne (par exemple, les systèmes de recommandation) ou par des interactions en ligne (par exemple, les agents conversationnels ou l’accomplissement de tâches collaboratives), en particulier lorsque le contrôle dépend d’applications propriétaires. À cette fin, il est nécessaire de concevoir des modèles et des cadres pour comprendre les interactions avec des entités pilotées par l’IA qui tiennent compte de la diversité des utilisateurs, de leurs états affectifs et/ou cognitifs et de leur niveau de volonté de contrôler les systèmes IA. L’interaction entre les humains et les entités pilotées par l’IA nécessite de mesurer, de comprendre et de modéliser les états internes et externes des utilisateurs, sur la base de signaux multimodaux. Cela permettra au système d’IA d’adapter l’interaction en tenant compte de la diversité, des représentations et de l’expérience de l’utilisateur. Une approche prometteuse consiste à modéliser les interactions entre l’être humain et l’IA à partir de l’observation des interactions entre humains. L’un des principaux défis consiste à englober et à intégrer l’éventail des états cognitifs et émotionnels de l’utilisateur résultant de l’interaction anticipée ou actuelle avec le système, ainsi que de son agentivité. En outre, le projet explorera de nouvelles voies pour améliorer la coopération au sein d’équipes hybrides en utilisant le dialogue ou l’adaptation de l’action entre les entités virtuelles et réelles.

Mots-clés : Complexité, Contrôle, Explicabilité, État de l’utilisateur, Confiance, Vie privée, Agence, Diversité

Thème 3 : Impact des systèmes intelligents sur l’expertise et la déqualification (perte de compétences)

Les systèmes intelligents peuvent s’engager dans des interactions à long terme avec des utilisateurs humains pour une grande diversité de services. En s’adaptant aux utilisateurs, les systèmes intelligents peuvent modifier les comportements des utilisateurs humains. Par exemple, les humains qui recherchent des recommandations (par exemple, des films, des diagnostics) peuvent s’habituer à les suivre plutôt que d’explorer des alternatives ou de les remettre en question ; ils peuvent également décider d’aller systématiquement à l’encontre de ces recommandations en raison d’une aversion pour les nouveaux algorithmes ; enfin, ils peuvent essayer de développer des intuitions sur le fonctionnement du système (de telles intuitions sont rarement "correctes", car les humains et les algorithmes d’apprentissage automatique raisonnent de manière totalement différente). Ces mécanismes d’interaction à long terme peuvent conduire à des hypothèses et des attentes incorrectes, voire erronées. La collaboration entre les humains et les systèmes intelligents peut également modifier le comportement des utilisateurs en dehors de l’interaction, potentiellement à une échelle de temps beaucoup plus longue. En effet, les utilisateurs, en particulier les utilisateurs experts, en viennent à se fier à ces systèmes et commencent à perdre leur expertise. Cette forme de déqualification peut être bénigne ou dévastatrice dans les systèmes critiques pour la sécurité (par exemple, la chirurgie robotique d’assistance) lorsque les utilisateurs ne se souviennent plus tout à fait de la manière d’utiliser leurs compétences en cas d’urgence. Bien que certains garde-fous soient disponibles dans des contextes spécifiques (par exemple, la formation continue des pilotes de ligne), de nombreux utilisateurs et institutions n’envisagent pas cette forme de déqualification qui peut conduire à la réduction de la qualité du travail des utilisateurs. Le défi consiste à adapter la collaboration avec les systèmes intelligents afin d’accroître les capacités des utilisateurs à long terme. La délégation totale ou même partielle de tâches à des agents intelligents a un impact évident sur les entreprises et, plus généralement, sur les organisations du travail. Les aspects de la gestion des ressources humaines, tels que la construction des carrières des opérateurs sur la base des compétences ou de l’augmentation continue des capacités, doivent être sérieusement adaptés à l’insertion de nouveaux types d’automates intelligents. Le même constat peut s’appliquer aux expériences des travailleurs, ainsi qu’au sens et à la valeur véritables du travail face à ce nouveau taylorisme potentiel (division des tâches et réattribution d’une grande partie aux machines). Ce projet abordera ces questions à partir des diverses contributions des sciences humaines et sociales, mais aussi d’un point de vue technique qui pourrait mieux définir les normes, les limites et les conditions d’utilisation des techniques d’IA lorsqu’elles sont appliquées à des lieux de travail collectifs. La notion de partage de l’autorité pourrait également être abordée et formalisée ici.

Mots-clés : Interaction à long terme, coadaptation, apprentissage, partage de l’autorité, déqualification, vulnérabilité