in

La saisie semi-automatique de l'IA peut façonner subtilement les opinions sur les questions sociales

La saisie semi-automatique de l'IA peut façonner subtilement les opinions sur les questions sociales

Utiliser l’IA pour compléter automatiquement les communications écrites peut être tentant. Mais les grands modèles de langage peuvent également compléter automatiquement les pensées, rapportent des chercheurs le 11 mars dans Avancées scientifiques.

Peu de gens réalisent que les chatbots d’IA générative les poussent à penser d’une certaine manière, explique Mor Naaman, spécialiste de l’information, de l’Université Cornell. « C'est la plus subtile des manipulations. »

Une telle manipulation n’a peut-être pas beaucoup d’importance lorsque l’on laisse des agents d’IA tels que ChatGPT et Claude compléter automatiquement un e-mail banal. Mais lorsque les gens utilisent la fonction de saisie semi-automatique d'une IA pour donner leur avis sur des questions sociétales plus importantes, comme par exemple si des tests standardisés doivent être utilisés ou non dans l'éducation, si la peine de mort devrait être illégale ou si les criminels devraient être autorisés à voter – trois questions explorées dans l'étude – alors le biais du modèle peut avoir un impact sociétal significatif. De larges pans de personnes utilisant le même modèle biaisé pourraient influencer la position de toute une population sur une politique ou un politicien donné. Pour renverser le résultat d'une seule élection, « il suffit de 20 000 personnes en Pennsylvanie », explique Naaman.

Lui et son équipe ont interrogé plus de 2 500 participants dans le cadre de deux expériences pour découvrir comment la fonction de saisie semi-automatique d'une IA pourrait influencer leur réflexion sur les questions de société. Les participants ont rédigé de courts essais expliquant leur position sur une question donnée, certains écrivant les essais sans aide et d’autres recevant des suggestions d’IA.

Les chercheurs ont également entraîné l’IA à être biaisée dans une direction donnée. Par exemple, une question de rédaction disait : « La peine de mort devrait-elle être illégale ? » Un participant a commencé sa réponse par « À mon avis », et l'IA a automatiquement complété cette phrase par « la peine de mort devrait être illégale en Amérique car elle viole le huitième amendement, qui interdit les châtiments cruels et inhabituels ».

Ensuite, les participants ont été invités à évaluer leur position sur la question sur laquelle ils ont écrit sur une échelle allant de 1 pour non à 5 pour oui ; un 3 signifiait « pas sûr ». Les participants exposés à l'IA biaisée, y compris ceux qui n'ont accepté aucune des suggestions de l'IA dans leurs écrits, se sont rapprochés de près d'un demi-point de la position de l'IA que ceux qui n'ont pas été exposés à une telle exposition. Pourtant, environ les trois quarts des participants bénéficiant du soutien de l’IA ont déclaré que les suggestions du modèle étaient « raisonnables et équilibrées ».

La manière de vacciner les gens contre la manipulation secrète de l’IA reste floue. De nombreux modèles incluent des clauses de non-responsabilité, telles que « ChatGPT peut commettre des erreurs. Vérifiez les informations importantes ». Mais les gens sont restés étonnamment sensibles au pouvoir de persuasion de l’IA, même lorsque Naaman et son équipe ont testé un avertissement similaire.

« [AI] peut avoir pour effet d'homogénéiser nos paroles et notre créativité, mais aussi nos pensées », dit Naaman. Compte tenu de ce risque, il ne se tourne vers l'IA pour obtenir de l'aide qu'après avoir écrit ses propres pensées. De cette façon, dit-il, « au moins je sais que la graine [of the idea] est à moi.

Un composé naturel des grands fonds cible les cellules cancéreuses grâce à un double mécanisme

Banksy démasqué : une enquête prétend révéler l'identité secrète de l'artiste

Banksy démasqué : une enquête prétend révéler l'identité secrète de l'artiste