Conversation avec le chatbot : ce qui influence notre confiance
Sur le site web de la banque ou comme ligne d'assistance de l'opérateur téléphonique : les interactions entre les hommes et les chatbots font désormais partie du quotidien. Mais leur faisons-nous confiance ? Et quels sont les facteurs qui l'influencent ? C'est ce qu'ont étudié des psychologues de l'Université de Bâle.

"Bonjour ChatGPT, peux-tu m'aider ?" - "Bien sûr, comment puis-je t'aider ? 😊" Le va-et-vient entre les utilisateurs et les chatbots basés sur l'intelligence artificielle (IA) ressemble rapidement à une conversation avec une autre personne.
Fanny Lalot et Anna-Marie Bertram de la Faculté de psychologie de l'Université de Bâle ont voulu savoir dans quelle mesure les gens font confiance aux chatbots d'intelligence artificielle et de quoi dépend cette confiance. L'accent a été mis sur les systèmes basés sur le texte, c'est-à-dire non pas sur les assistants vocaux comme Siri ou Alexa, mais sur des plateformes comme ChatGPT et autres.
Dans le cadre de l'étude, les personnes testées ont été confrontées à des exemples de conversations entre les utilisateurs et le chatbot fictif "Conversea". Ils ont ensuite imaginé qu'ils interagissaient eux-mêmes avec Conversea. Les résultats sont publiés dans la revue spécialisée Journal of Experimental Psychology : Général est paru.
Le chatbot, un être à part entière
La confiance que nous accordons aux autres et le degré de confiance que nous leur accordons dépendent de différents facteurs : La propre personnalité, le comportement de l'interlocuteur ainsi que la situation respective jouent un rôle. "Les influences de l'enfance influencent notre capacité à faire confiance, mais il faut aussi une certaine volonté de vouloir faire confiance", explique la psychologue sociale Fanny Lalot. Les qualités qui favorisent la confiance sont l'intégrité, la compétence et la bienveillance.
L'étude le montre : Ce qui entre en jeu dans les relations humaines s'applique également aux systèmes d'IA. La compétence et l'intégrité, en particulier, sont des critères importants qui expliquent pourquoi les gens perçoivent un chatbot IA comme digne de confiance ; la bienveillance, en revanche, est moins importante lorsque les deux autres dimensions sont servies. "Notre étude montre que les personnes interrogées attribuent ces qualités directement à l'IA, et non à l'entreprise qui se trouve derrière. Elles perçoivent en quelque sorte l'IA comme une entité à part entière", explique Lalot.
Il existe en outre des différences entre les chatbots personnalisés et impersonnels. Si un chatbot s'adresse par exemple à nous par notre nom et fait référence à des conversations antérieures, les participants à l'étude l'ont jugé particulièrement bienveillant et compétent. Ils ont humanisé le chatbot personnalisé". Cela a certes augmenté la volonté d'utiliser l'outil et de partager des informations personnelles avec lui", explique Fanny Lalot. Mais les personnes testées n'ont pas accordé beaucoup plus d'intégrité au chatbot personnalisé et la confiance globale n'était pas significativement plus élevée que celle accordée au chatbot impersonnel.
L'intégrité est plus importante que la bienveillance
Selon l'étude, l'intégrité est plus importante pour la fiabilité que la bienveillance. Il est donc important de développer la technologie de manière à ce que l'intégrité soit la priorité absolue. Le fait que l'IA personnalisée soit perçue comme plus bienveillante, plus compétente et plus humaine devrait également être pris en compte par les concepteurs afin de garantir une utilisation correcte des outils. Les personnes isolées et vulnérables, en particulier, risquent de devenir dépendantes des applications d'amitié basées sur l'IA, comme le montrent d'autres études.
Fanny Lalot souligne : "Notre étude ne nous permet pas de dire si la confiance dans un chatbot est bonne ou mauvaise". Elle considère les chatbots d'IA comme un outil avec lequel nous devons apprendre à travailler, de la même manière que nous apprenons à gérer les opportunités et les risques des médias sociaux.
Les résultats permettent toutefois de formuler quelques recommandations d'action. "Nous projetons plus dans les systèmes d'IA que ce qui existe réellement", dit Fanny Lalot. Un chatbot ne doit pas nous mentir, ni approuver sans réserve tout ce que nous disons.
Si un chatbot IA manque trop d'esprit critique et confirme toutes les affirmations, la comparaison avec la réalité fait défaut et il existe un risque de chambre d'écho qui, dans le pire des cas, conduit à ce que quelqu'un s'isole de son environnement social. "On peut espérer qu'une amie ou un ami interviendrait à un moment ou à un autre si quelqu'un développe des idées trop folles ou immorales", explique Lalot.
Trahison par l'IA ?
Dans les relations interpersonnelles, une rupture de confiance a de lourdes conséquences sur les relations futures. Est-ce également envisageable avec les chatbots ? "C'est une question passionnante. Pour y répondre, il faudrait des recherches supplémentaires", déclare Fanny Lalot. "Je peux tout à fait imaginer que quelqu'un puisse se sentir trahi si le conseil d'une IA a eu des conséquences négatives".
Il faut des directives qui responsabilisent les entreprises de développement. Une IA pourrait par exemple montrer comment elle est arrivée à un résultat en révélant les sources utilisées, et elle pourrait dire si elle ne sait pas quelque chose au lieu d'inventer quelque chose. (Noëmi Kern/Uni Bâle/yzu/swi)
Cet article a d'abord été publié dans le magazine Netzwoche.