Menu Close
Les robots peuvent-ils nous aider à exprimer nos émotions ? Studiostoks / Shutterstock

Et si les machines pouvaient nous rendre plus humains ?

En termes de calcul, les ordinateurs ont atteint des capacités bien supérieures aux nôtres depuis longtemps. Cela leur permet aujourd’hui de résoudre un certain nombre de tâches dans des domaines aussi variés que la reconnaissance d’image, le traitement automatique de la langue telle que nous la parlons (langue naturelle), la détection de fraude ou le ciblage marketing. Ces progrès ont été rendus possibles en particulier grâce aux progrès de l’intelligence artificielle, qui nécessitent à la fois beaucoup de données et une grande puissance de calcul. Pour autant, l’intelligence se résume-t-elle à une capacité de calcul ?

Aujourd’hui, des robots et personnages virtuels apparaissent dans notre environnement en incarnant de plus en plus souvent des rôles sociaux particuliers : tuteur virtuel, conseiller, compagnon, coach, etc.. Dans ces contextes d’usages, les machines doivent être dotées d’une certaine forme d’intelligence sociale et émotionnelle pour être capable de coopérer et de s’engager dans une interaction sociale avec l’utilisateur. L’intelligence sociale se définit comme la capacité de reconnaître et d’exprimer des comportements sociaux, tels que la politesse ou la dominance, et la capacité de gérer ces comportements pour construire une relation sociale avec un autre individu et l’amener à coopérer. L’intelligence émotionnelle se définit quant à elle comme la capacité de reconnaître, exprimer et gérer ses propres émotions et celles d’autrui.

Du point de vue de la machine, cette intelligence socio-émotionnelle est d’autant plus importante que l’utilisateur lui-même a une propension à adopter un comportement social face à ces entités artificielles : c’est le paradigme CASA (« Computers Are Social Actors »). De nombreux travaux ont montré une tendance naturelle, souvent inconsciente, à adopter des comportements sociaux envers la machine (politesse, sourires). Les utilisateurs ont de plus tendance à anthropomorphiser les systèmes interactifs, même les plus simples d’entre eux, en leur attribuant un genre, une ethnie, et une personnalité.

Dans la perspective de doter les systèmes interactifs d’une intelligence sociale et émotionnelle sont nés deux courants de recherche de l’intelligence artificielle : l’Informatique Affective (Affective Computing) et le traitement automatique des signaux sociaux (Social Signal Processing (SSP)).

La coopération entre l’humain et la machine

Ces courants de recherche ont pour objectif de développer des systèmes interactifs (personnages virtuels, robots ou avatars) capables de reconnaître, comprendre et exprimer des émotions et des comportements sociaux. Ceux-ci peuvent cependant être source d’inquiétude pour les utilisateurs, une inquiétude largement entretenue par les médias ou le cinéma. Qu’une machine ait une grande puissance de calcul est acceptable, mais le fait qu’on la dote d’émotions, une caractéristique si humaine, peut l’être beaucoup moins. Le propos de cet article est de montrer que l’enjeu de la recherche sur ces thématiques n’est pas de remplacer l’humain mais de permettre aux machines de mieux reconnaître ses émotions pour s’adapter à son comportement. En voici quelques illustrations.

Les robots, les avatars ou les personnages virtuels peuvent par exemple être utilisés pour promouvoir des coopérations entre individus grâce à des comportements “prosociaux”. Les questionnements sur l’utilisation de l’IA et son impact éthique et sociétal sont récents. Ainsi émerge un nouveau courant de recherche, l’informatique prosociale, qui se définit comme « l’informatique visant à soutenir et à promouvoir des actions qui profitent à la société et aux autres ». Nous le savons, le comportement des machines peut influencer le comportement humain. Par exemple, un simple regard de robot suffit à déclencher un comportement altruiste chez l’humain. Il faut donc être conscient de cela pour décider comment utiliser ces capacités pour le bien-être de tous. En d’autres termes, si la recherche permet de développer des technologies socio-émotionnelles, c’est à la société, c’est-à-dire nous tous, de décider comment utiliser ces technologies.

Dans un domaine différent, l’e-éducation, un intérêt croissant est apparu autour de la « formation par la simulation » à l’aide d’environnements virtuels. Un certain nombre de travaux ont été conduits autour de dispositifs permettant à une personne d’entraîner ses compétences sociales à l’aide de personnages virtuels (« Virtual Agents for Social Skills Training (VASST) ». Par exemple, le projet Tardis propose un personnage virtuel jouant le rôle d’un recruteur utilisé pour former aux entretiens d’embauche. Le système permet de détecter et d’analyser en temps réel la production de l’utilisateur (hésitations, silence, posture, gestes, expressions du visage, etc.). Des indices comportementaux en sont extraits, permettant de donner des indications sur la qualité de l’entretien et de fournir un retour à l’utilisateur. Plusieurs expérimentations ont montré que des systèmes de ce type sont efficaces en termes d’entraînement.

Dans le projet eCUTE, les enfants et les jeunes adultes sont confrontés à différentes situations utilisant des personnages virtuels pour la sensibilisation aux différences culturelles permettant en particulier de développer leur capacité d’empathie. La plate-forme FearNot ! a de son côté été développée pour lutter contre les comportements de harcèlement scolaire à l’école. Elle repose sur la capacité des individus à ressentir de l’empathie y compris pour des personnages virtuels. En jouant le rôle de la victime à travers un personnage virtuel dans une situation de harcèlement scolaire, les harceleurs changent leur comportement. Dans un autre registre, des travaux montrent également, grâce à une audience virtuelle capable de s’adapter au comportement de l’orateur, la possibilité de s’entraîner à la prise de parole en public. Par exemple, un comportement inadapté de l’orateur engendrera une audience virtuelle simulant l’ennui.

Cicero 2.0 : audience virtuelle/Mathieu Chollet.

Dans le projet VICTEAMS, un environnement de réalité virtuelle peuplé de personnages virtuels est développé afin de former les leaders d’équipes médicales dans des situations de crise.

Projet VICTEAMS/Domitile Lourdeaux.

Dans nos propres travaux, nous avons développé un environnement permettant aux médecins de s’entraîner à l’annonce d’événements indésirables face à un patient virtuel. La façon dont les médecins délivrent des mauvaises nouvelles à un patient a en effet un impact significatif sur le processus thérapeutique (évolution de la maladie, effets secondaires des traitements, litiges, etc.). Cependant, les cliniciens expérimentés de même que les étudiants restent très peu formés sur cette problématique (coût, manque de temps) en dépit des préconisations faites par la Haute Autorité de la Santé (HAS). Pour répondre à cette demande, nous avons développé une plate-forme de réalité virtuelle dans laquelle le médecin peut dialoguer naturellement avec une patiente virtuelle. Le système permet de reconnaître et de comprendre en temps réel le discours du médecin. Le moteur de dialogue traite ainsi le message et génère la réponse de l’agent virtuel, exprimée à la fois verbalement par une synthèse vocale expressive ainsi que par un ensemble de comportements non-verbaux traduisant notamment son état émotionnel (e.g. expressions faciales d’émotion, gestes de douleurs, etc.).

Projet Acorformed/Magalie Ochs.

Il existe bien d’autres exemples d’applications, par exemple pour aider les enfants autistes, pour lutter contre nos phobies sociales, ou encore pour accompagner les personnes âgées dans leur vie quotidienne. Dans tous ces exemples, l’objectif n’est pas de remplacer l’humain mais bien de compléter des besoins liés au cloisonnement social, au manque de formation, etc. Les personnages virtuels, les robots, ou les avatars peuvent nous aider, nous, humains, à nous rendre plus humains.

Le côté sombre de l’intelligence artificielle

Sans aucun doute, nous ne devons être ni naïfs, ni exagérément optimistes face à l’intelligence artificielle. Il existe des risques éthiques, sociaux, politiques (notamment de manipulation et de discrimination) dans ces applications face auxquels nous chercheurs, avons le devoir de veiller. Nous avons un devoir collectif face à cela. Notre rôle est de poursuivre le développement et l’avancée de ces techniques. Mais il est dans le même temps nécessaire d’assurer la transparence la plus complète sur nos systèmes, ce qu’ils sont capables de faire, ce qu’ils ne peuvent toujours pas faire, et ce qu’ils ne seront jamais capables de faire. C’est cette transparence qui permettra à la société entière de décider collectivement les usages que l’on doit envisager pour ces techniques. Les machines sont à notre service et non l’inverse, une machine ne doit pas prendre une décision à notre place. Et nous devons, ensemble, imposer cette transparence. C’est à cette condition que nous pourrons veiller à ne pas être déshumanisés par des machines.

Want to write?

Write an article and join a growing community of more than 182,600 academics and researchers from 4,945 institutions.

Register now