Menu Close

Quelle confiance accorder aux assistants virtuels intelligents ?

Homme d'affaires sur fond flou bavardant avec rendu 3D de l'application de chatbot. sdecoret/Shutterstock

On les appelle agents virtuels, assistants virtuels intelligents ou encore chatbots. Mais globalement, ces agents conversationnels ont une seule et même fonction : ils vous accompagnent, vous guident, vous conseillent lorsque, sur un site web, vous recherchez un train, un hôtel, un conseil financier ou toute autre sorte de produit.

Les avatars de nos anciens conseillers et agents

Ils ne sont généralement que les avatars électroniques des conseillers que nous avions dans nos banques, nos agences de voyages, nos magasins de bricolage ou nos administrations. Ils prennent l’apparence d’agents incarnés, avec des caractéristiques humanoïdes plus ou moins marquées, allant du petit robot stylisé à des personnes aux forts caractères anthropomorphiques.

Automated online assistant. Wikipedia merchandise

Il est difficile de savoir qui se trouve derrière ces avatars. Existe-t-il encore une analyse humaine de nos demandes, ou bien ces outils sont-ils totalement pilotés par des systèmes informatiques ? Cette précision est souvent omise, et même si l’on pose la question en début de conversation, les réponses sont, volontairement ou non, extrêmement ambiguës. C’est le fameux test de Turing : suis-je en train de m’entretenir avec une machine, ou avec un humain ?

Cette incertitude est somme toute acceptable, lorsque nos demandes n’attendent pas de réponse à caractère vital, ou quand elles n’ont pas de fortes conséquences économiques. Accepterait-on de converser avec un robot si l’on est dans une situation d’urgence médicale, avec un infarctus, un accident vasculaire cérébral, ou lors d’un incendie ? Et qu’en serait-il si la réponse pouvait énormément impacter notre vie, que ce soit à l’occasion d’un achat immobilier, d’un placement financier, d’un diagnostic médical ?

Jusqu’à quel point leur faire confiance ?

L’agent virtuel peut avoir l’apparence d’un humain, être souriant, patient et poli, lui confier notre vie ou notre avenir demande de dépasser une barrière psychologique, un pas que beaucoup ne semblent pas encore prêts à franchir aujourd’hui. Mais alors, où se situe le curseur ? Que sommes-nous en mesure d’accepter ? Suivre les conseils d’agents virtuels quand la décision n’est pas engageante ne pose pas de problème, c’est même souvent un « facilitateur » de tâche. Qu’en est-il quand votre existence risque d’être impactée à long terme ? Acheter une paire de chaussures sur Internet et signer un prêt sur 25 ans n’ont pas les mêmes conséquences, surtout en cas de problème.

Nous avons mené, au laboratoire Perseus de l’université de Lorraine Metz et spécialisé en psychologie ergonomique et sociale, une étude dont l’objectif était de cerner l’apport des assistants virtuels sur les sites Internet, d’évaluer la confiance que nous sommes prêts à leur accorder et la limite d’acceptabilité de ces technologies.

Questions/réponses en vue d’un voyage

« Bonjour ! Je suis Ouibot. Dites-moi où et quand vous souhaitez partir, je m’occupe du reste ! ». Tel est le message d’accueil de l’assistant virtuel mis en ligne depuis 2017 par la SNCF. Ce système n’a pas vocation à être un simple indicateur d’horaires. Il est en mesure de gérer toute la chaîne de réservation d’un billet de train. Notre équipe l’a donc testé en l’interrogeant.

« Je souhaite faire un trajet Metz-Vendôme demain ». Au passage, remarquons que le tutoiement prévalant au lancement de l’application a laissé place à un vouvoiement, plus en accord avec ce que nous étions en droit d’attendre, en tant que clients. L’assistant se montre plutôt réactif. Instantanément, une proposition regroupant plusieurs trajets est affichée. Seul problème : une dizaine de trajets sont proposés, pour Vendôme et Vendôme Villiers sur Loir, deux gares différentes. La demande était explicite, alors pourquoi de telles réponses ?

Facilité et rapidité, les premiers critères ?

Si l’usager souhaite faire ce trajet pour la première fois, il peut se contenter de ces réponses et ne s’occuper que de celles qui correspondent à sa demande, ou bien faire des recherches complémentaires sur l’autre gare. Mais un utilisateur faisant appel à ce service ne cherche-t-il pas précisément, si l’on en croit la phrase d’accroche de Ouibot, la facilité et la rapidité ?

La présentation du système indique qu’il s’occupe de « tout ». Pourtant ici, le client se trouve confronté au besoin de recherches complémentaires sur son trajet. De plus, si l’usager est un habitué du trajet, il lui est alors demandé de faire le tri parmi des propositions, ce qui va à l’encontre d’une solution rapide et efficace. Nous arrivons donc aux limites du système, si la destination demandée est plurielle. Essayons avec un autre trajet : Metz–Sainte-Marie (40 communes en France intègrent ce nom).

Ouibot semble choisir une destination, Ville-Oloron–Sainte-Marie, mais sur quels critères ? Qui plus est, Ville-Oloron–Sainte-Marie ne semble pas pouvoir être desservie par un train. Quelle confiance accorder aux résultats donnés par ces systèmes ? Un agent humain aurait sans doute demandé d’autres informations sur la destination. Peut-être n’existe-t-il pas en France de ville portant le nom de Sainte-Marie que l’on puisse rejoindre en train ? Peut-être un train n’est-il disponible que le jour suivant ? Comment savoir, à la vue des informations qui nous sont livrées ?

Même si les agents virtuels sont réactifs et disponibles 24h/24. Même s’ils ne sont jamais malades, et que leur humeur est constante, force est de constater que ces critères d’utilisation ne sont pas plébiscités par les utilisateurs – voire jamais. Dans l’étude menée à Perseus, sur un panel de 31 personnes interrogées, la curiosité et l’amusement arrivent loin devant les autres motivations de recours à l’agent virtuel. La qualité de la réponse et sa rapidité semblent n’être importantes que pour un utilisateur sur cinq. Et ces attitudes se confirment si l’on évalue les sentiments ressentis lors de la manipulation. En effet, l’amusement arrive loin devant (74 % des réponses), alors que la frustration et la satisfaction d’utilisation ne sont retenues qu’environ une fois sur trois.

Un futur certain mais sous quelles conditions ?

Les assistants virtuels intelligents, malgré l’hostilité et la réticence qu’ils peuvent provoquer dans l’imaginaire collectif, ne semblent pas être complètement à bannir de notre quotidien. Même s’il est difficile de se projeter dans un futur proche quant à leurs performances, les internautes ne désapprouvent pas totalement leur aide, tant qu’ils ne restent que de simples outils pour l’Homme.

Malgré le sentiment initial de méfiance que semblent ressentir les utilisateurs, il s’avère qu’après une période d’appropriation, leurs propos sont plus nuancés quant à ces outils, mais aussi dans la confiance qu’ils leur accordent. S’appuyer sur ces assistants virtuels pour faire une recherche de produits courants est semble-t-il acceptable. En revanche, les laisser choisir pour soi l’est beaucoup moins. Dès qu’il s’agit de santé, de famille, de vie ou de mort, on devient naturellement extrêmement méfiant. Et l’on préfère alors sans conteste l’expertise humaine à celle des systèmes informatiques, même s’ils sont qualifiés, à tort ou à tout le moins de manière abusive, de systèmes « intelligents ».

Want to write?

Write an article and join a growing community of more than 180,400 academics and researchers from 4,911 institutions.

Register now