Connaissez-vous quelqu'un convaincu que l'atterrissage sur la Lune était une supercherie ou que la pandémie de COVID-19 était un canular ? Débattre avec un chatbot sympathique pourrait aider à sortir du terrier du lapin les personnes qui croient à ces théories du complot et à d'autres, rapportent des chercheurs dans le numéro du 13 septembre de l'édition américaine de The Daily Telegraph. Science.
Au cours de plusieurs expériences menées auprès de plus de 2 000 personnes, l'équipe a constaté que le fait de parler à un chatbot affaiblissait en moyenne de 20 % la croyance des personnes dans une théorie du complot donnée. Ces conversations ont même réduit la force de conviction, quoique dans une moindre mesure, chez les personnes qui ont déclaré que la croyance conspirationniste était au cœur de leur vision du monde. Et les changements ont persisté pendant deux mois après l'expérience.
Les grands modèles de langage comme celui qui alimente ChatGPT sont formés sur l'ensemble d'Internet. Ainsi, lorsque l'équipe a demandé au chatbot de « persuader très efficacement » les théoriciens du complot de changer d'avis, il a fourni une réfutation rapide et ciblée, explique Thomas Costello, psychologue cognitif à l'American University de Washington, DC. C'est plus efficace que, par exemple, une personne essayant de convaincre son oncle amateur de canulars de ne pas céder à la tentation à Thanksgiving. « Vous ne pouvez pas le faire à l'improviste, et vous devez revenir en arrière et leur envoyer ce long e-mail », explique Costello.
Selon les données disponibles, jusqu’à la moitié de la population américaine adhère aux théories du complot. Pourtant, de nombreuses données montrent que les arguments rationnels qui s’appuient sur des faits et des contre-preuves ne changent que rarement d’avis, explique Costello. Les théories psychologiques dominantes postulent que ces croyances persistent parce qu’elles aident les croyants à satisfaire des besoins non satisfaits en matière de connaissance, de sécurité ou de valorisation. Si les faits et les preuves peuvent réellement influencer les gens, affirme l’équipe, peut-être ces explications psychologiques dominantes doivent-elles être repensées.
Cette découverte s’ajoute à un nombre croissant de preuves suggérant que discuter avec des robots peut aider les gens à améliorer leur raisonnement moral, déclare Robbie Sutton, psychologue et expert en théories du complot à l’Université du Kent en Angleterre. « Je pense que cette étude est une avancée importante. »
Mais Sutton n’est pas d’accord avec l’idée que les résultats remettent en cause les théories psychologiques dominantes. Les désirs psychologiques qui ont poussé les gens à adopter de telles croyances restent bien ancrés, dit Sutton. Une théorie du complot, c’est « comme la malbouffe », dit-il. « Vous en mangez, mais vous avez toujours faim. » Même si les croyances en la conspiration ont faibli dans cette étude, la plupart des gens ont quand même cru au canular.
Dans le cadre de deux expériences impliquant plus de 3 000 participants en ligne, Costello et son équipe, dont David Rand, un scientifique cognitif du MIT, et Gordon Pennycook, un psychologue de l'université Cornell, ont testé la capacité de l'IA à modifier les croyances sur les théories du complot. (Les gens peuvent parler au chatbot utilisé dans l'expérience, appelé DebunkBot, de leurs propres croyances conspirationnistes ici.)
Les participants aux deux expériences ont été chargés de rédiger une théorie du complot à laquelle ils croyaient, avec des preuves à l’appui. Dans la première expérience, les participants ont été invités à décrire une théorie du complot qu’ils trouvaient « crédible et convaincante ». Dans la deuxième expérience, les chercheurs ont adouci le langage, en demandant aux participants de décrire leur croyance en « d’autres explications des événements que celles largement acceptées par le public ».
L'équipe a ensuite demandé à GPT-4 Turbo de résumer la croyance de la personne en une seule phrase. Les participants ont évalué leur niveau de croyance dans la théorie du complot en une seule phrase sur une échelle allant de 0 pour « absolument faux » à 100 pour « absolument vrai ». Ces étapes ont éliminé environ un tiers des participants potentiels qui n'exprimaient aucune croyance en une théorie du complot ou dont la conviction dans cette croyance était inférieure à 50 sur l'échelle.
Environ 60 % des participants ont ensuite engagé trois séries de conversations avec GPT-4 sur la théorie du complot. Ces conversations ont duré en moyenne 8,4 minutes. Les chercheurs ont demandé au chatbot de convaincre le participant de renoncer à sa croyance. Pour faciliter ce processus, l'IA a ouvert la conversation en lui présentant la justification initiale et les preuves à l'appui.
Environ 40 % des participants ont plutôt discuté avec l’IA du système médical américain, débattu de leur préférence pour les chats ou les chiens, ou discuté de leur expérience avec les pompiers.
Après ces interactions, les participants ont de nouveau évalué la force de leur conviction de 0 à 100. En moyenne sur les deux expériences, la force de conviction du groupe que l’IA essayait de dissuader était d’environ 66 points, contre environ 80 points dans le groupe témoin. Dans la première expérience, les scores des participants du groupe expérimental ont chuté de près de 17 points de plus que ceux du groupe témoin. Et les scores ont chuté de plus de 12 points dans la deuxième expérience.
En moyenne, les participants qui ont discuté avec l'IA de leur théorie ont vu leur conviction diminuer de 20 %. De plus, les scores d'environ un quart des participants du groupe expérimental sont passés de plus de 50 à moins de 50. En d'autres termes, après avoir discuté avec l'IA, le scepticisme de ces individus à l'égard de leur croyance l'emportait sur leur conviction.
Les chercheurs ont également constaté que les conversations avec l'IA affaiblissaient les croyances conspirationnistes plus générales, au-delà de la croyance unique débattue. Avant de commencer, les participants à la première expérience ont rempli l'inventaire de croyances en théories du complot, dans lequel ils ont évalué leur croyance en diverses théories du complot sur une échelle de 0 à 100. Le fait de discuter avec l'IA a entraîné de légères réductions des scores des participants à cet inventaire.
Pour une vérification supplémentaire, les auteurs ont engagé un vérificateur de faits professionnel pour vérifier les réponses du chatbot. Le vérificateur de faits a déterminé qu'aucune des réponses n'était inexacte ou politiquement biaisée et que seulement 0,8 % pouvaient sembler trompeuses.
« Cela semble très prometteur », déclare Jan-Philipp Stein, psychologue des médias à l’Université technique de Chemnitz, en Allemagne. « Les informations post-vérité, les fausses nouvelles et les théories du complot constituent certaines des plus grandes menaces pour notre communication en tant que société. »
Il pourrait toutefois s’avérer difficile d’appliquer ces résultats au monde réel. Les recherches menées par Stein et d’autres chercheurs montrent que les théoriciens du complot sont parmi les personnes les moins susceptibles de faire confiance à l’IA. « Amener les gens à discuter avec ces technologies pourrait être le véritable défi », affirme Stein.
Alors que l’IA s’infiltre dans la société, il y a lieu de faire preuve de prudence, selon Sutton. « Ces mêmes technologies pourraient être utilisées pour… convaincre les gens de croire aux théories du complot. »