Les faits répertoriés dans les listes de blanchisserie changent rarement les cœurs et les esprits – à moins qu’un robot ne fasse le travail de persuasion.
Discuter brièvement avec une IA a amené les électeurs potentiels de trois pays vers leur candidat le moins préféré, rapportent des chercheurs le 4 décembre dans Nature. Cette conclusion était vraie même à l’approche de l’élection présidentielle controversée de 2024 entre Donald Trump et Kamala Harris, avec des robots pro-Trump poussant les électeurs de Harris dans sa direction, et vice versa.
Les robots les plus convaincants n'ont pas besoin de raconter la meilleure histoire ou de répondre aux convictions individuelles d'une personne, rapportent les chercheurs dans un article connexe publié dans Science. Au lieu de cela, ils distribuent simplement le plus d'informations. Mais ce sont aussi ces robots qui diffusent le plus de désinformation.
« Ce n'est pas comme si les mensonges étaient plus convaincants que la vérité », déclare David Rand, spécialiste des sciences sociales et auteur des deux articles. « Si vous avez besoin d'un million de faits, vous finirez par manquer de bons et donc, pour remplir votre quota de faits, vous allez en avoir ajouté de moins bons. »
Ce qui est problématique, c’est que les robots de droite sont plus enclins à diffuser de telles informations erronées que ceux de gauche. Ces fabrications politiquement biaisées mais convaincantes constituent « une menace fondamentale pour la légitimité de la gouvernance démocratique », écrit Lisa Argyle, spécialiste des sciences sociales computationnelles à l'Université Purdue de West Lafayette, Indiana, dans un article. Science commentaire sur les études.
Pour le Nature Dans cette étude, Rand et son équipe ont recruté plus de 2 300 participants américains à la fin de l’été 2024. Les participants ont évalué leur soutien à Trump ou à Harris sur 100 points, avant de converser pendant environ six minutes avec un chatbot en faveur de l’un des candidats. Converser avec un robot qui soutenait son point de vue avait peu d’effet. Mais les électeurs de Harris discutant avec un robot pro-Trump ont avancé de près de quatre points en moyenne dans sa direction. De même, les électeurs de Trump conversant avec un robot pro-Harris ont progressé en moyenne d’environ 2,3 points dans sa direction. Lorsque les chercheurs ont réinterrogé les participants un mois plus tard, ces effets étaient plus faibles mais toujours évidents.
Les chatbots ont rarement bougé l’aiguille suffisamment pour changer la façon dont les gens envisageaient de voter. « [The bot] Cela change la chaleur que vous ressentez » à l'égard d'un candidat adverse, dit Argyle. « Cela ne change pas votre vision de votre propre candidat. »
Mais les robots persuasifs pourraient faire basculer les élections dans des contextes où les gens n'ont pas encore pris leur décision, suggèrent les résultats. Par exemple, les chercheurs ont répété l’expérience auprès de 1 530 Canadiens et 2 118 Polonais avant les élections fédérales de 2025 dans leur pays. Cette fois, un robot s'est prononcé en faveur du candidat le moins favorisé d'une personne et a fait évoluer l'opinion des participants d'environ 10 points dans sa direction.
Pour le Science papier, les chercheurs ont recruté près de 77 000 participants au Royaume-Uni et les ont invités à discuter avec 19 modèles d'IA différents sur plus de 700 sujets pour voir ce qui rend les chatbots si convaincants.
Les modèles d’IA formés sur de plus grandes quantités de données étaient légèrement plus convaincants que ceux formés sur de plus petites quantités de données, a découvert l’équipe. Mais le plus grand gain de force de persuasion est venu du fait d’inciter les IA à bourrer leurs arguments de faits. Une invite de base demandant au robot d'être aussi convaincant que possible a fait évoluer les opinions des gens d'environ 8,3 points de pourcentage, tandis qu'une invite demandant au robot de présenter de nombreux faits, preuves et informations de haute qualité a fait évoluer les opinions des gens de près de 11 points de pourcentage, ce qui la rend 27 % plus convaincante.
Former les chatbots aux échanges les plus convaincants et largement criblés de faits les a rendus encore plus convaincants lors des dialogues ultérieurs avec les participants.
Mais cette incitation et cette formation constituaient l’information. Par exemple, la précision de GPT-4o est passée d'environ 80 % à 60 % lorsqu'il était invité à fournir des faits plutôt qu'à d'autres tactiques, telles que la narration ou l'appel à la morale des utilisateurs.
Pourquoi régurgiter des faits rend les chatbots, mais pas les humains, plus persuasifs, reste une question ouverte, explique Jillian Fisher, experte en IA et société à l'Université de Washington à Seattle. Elle soupçonne que les gens perçoivent les humains comme plus faillibles que les machines. De manière prometteuse, ses recherches, rapportées en juillet lors de la réunion annuelle de l’Association for Computational Linguistics à Vienne, en Autriche, suggèrent que les utilisateurs qui connaissent mieux le fonctionnement des modèles d’IA sont moins sensibles à leurs pouvoirs de persuasion. «Peut-être sachant que [a bot] fait des erreurs, ce serait peut-être une façon de nous protéger », dit-elle.
Alors que l’IA gagne en popularité, il est vital pour la santé de la société d’aider les gens à comprendre comment ces machines peuvent à la fois persuader et désinformer, affirment-elle et d’autres. Pourtant, contrairement aux scénarios décrits dans les configurations expérimentales, les tactiques de persuasion des robots sont souvent implicites et plus difficiles à repérer. Au lieu de demander à un robot comment voter, une personne pourrait simplement poser une question plus banale, tout en étant orientée vers la politique, explique Jacob Teeny, expert en psychologie de la persuasion à l'Université Northwestern à Evanston, dans l'Illinois. « Peut-être qu'ils posent des questions sur le dîner et que le chatbot dit : « Hé, c'est le dîner préféré de Kamala Harris. » »


