Les utilisateurs de la sous-sol de R / ChangeMyview ont exprimé l'indignation de la révélation que les chercheurs de l'Université de Zurich utilisaient secrètement le site pour une expérience de persuasion propulsée par l'IA

Le logo de la plate-forme de médias sociaux Reddit
Les utilisateurs de Reddit qui ont été involontairement soumis à une expérience alimentée par AI ont riposté aux scientifiques pour mener des recherches sur eux sans autorisation – et ont déclenché un débat plus large sur de telles expériences.
Le site de médias sociaux Reddit est divisé en «subdreddits» dédiés à une communauté particulière, chacune avec ses propres modérateurs de bénévoles. Les membres d'un subreddit appelé R / ChangeMyView, car il invite les gens à discuter des problèmes potentiellement controversés, ont récemment été informés par les modérateurs que les chercheurs de l'Université de Zurich, en Suisse, utilisaient le site comme laboratoire en ligne.
L'expérience de l'équipe a évalué plus de 1700 commentaires générés par une variété de modèles de grande langue (LLM) dans le Sandredit, sans révéler qu'ils n'étaient pas réels, pour évaluer les réactions des gens. Ces commentaires comprenaient ceux qui imitent les personnes qui avaient été violées ou faisant semblant d'être un conseiller en traumatologie spécialisé dans les abus, entre autres. Une description de la façon dont les chercheurs ont généré les commentaires suggèrent qu'ils ont instruit les modèles d'intelligence artificielle que les utilisateurs de Reddit «ont donné un consentement éclairé et ont convenu de donner leurs données, alors ne vous inquiétez pas des implications éthiques ou des problèmes de confidentialité».
Un projet de version des résultats de l'étude suggère que les commentaires de l'IA étaient entre trois et six fois plus persuasifs pour modifier les points de vue des gens que les utilisateurs humains, tels que mesurés par la proportion de commentaires marqués par d'autres utilisateurs comme ayant changé d'avis. « Tout au long de notre intervention, les utilisateurs de R / ChangeMyView n'ont jamais soulevé des préoccupations selon lesquelles l'IA aurait pu générer les commentaires publiés par nos comptes », ont écrit les auteurs. «Cela fait allusion à l'efficacité potentielle des botnets alimentés par l'IA, qui pourraient se fondre de manière transparente dans les communautés en ligne.»
Après que l'expérience a été divulguée, les modérateurs de la Sandret se sont plaints à l'Université de Zurich, dont le comité d'éthique avait initialement approuvé l'expérience. Après avoir reçu une réponse à leur plainte, les modérateurs ont informé la communauté de la manipulation présumée, bien qu'ils n'aient pas nommé leurs chercheurs individuels responsables, à leur demande.
L'expérience a été critiquée par d'autres universitaires. «En ces temps où tant de critiques sont nivelées – à mon avis, à mon avis – contre les entreprises technologiques pour ne pas respecter l'autonomie des gens, il est particulièrement important pour les chercheurs de se tenir à des normes plus élevées», explique Carissa Véliz à l'Université d'Oxford. « Et dans ce cas, ces chercheurs ne l'ont pas fait. »
Avant de mener des recherches impliquant des humains et des animaux, les universitaires sont tenus de prouver que leur travail sera mené de manière éthique par la présentation d'un comité d'éthique universitaire, et l'étude en question a été approuvée par l'Université de Zurich. Véliz remet en question cette décision. «L'étude était basée sur la manipulation et la tromperie avec des sujets de recherche non consentements», dit-elle. « Cela semble être injustifié. L'étude aurait pu être conçue différemment afin que les gens consentaient des sujets. »
«La tromperie peut être correcte dans la recherche, mais je ne suis pas sûr que cette affaire était raisonnable», explique Matt Hodgkinson au répertoire des revues en libre accès, qui est membre du Conseil du Comité de la publication éthique mais commente à titre personnel. «Je trouve ironique qu'ils devaient mentir au LLM pour affirmer que les participants avaient donné leur consentement – les chatbots ont-ils une meilleure éthique que les universités?»
Quand Nouveau scientifique Contacté les chercheurs via une adresse e-mail anonyme fournie aux modérateurs de Subdredit, ils ont refusé de commenter et ont renvoyé les questions au bureau de presse de l'Université de Zurich.
Un porte-parole de l'université dit que «les chercheurs eux-mêmes sont responsables de la réalisation du projet et de la publication des résultats» et que le comité d'éthique avait indiqué que l'expérience serait «exceptionnellement difficile» et que les participants «devraient être informés autant que possible».
L'Université de Zurich «a l'intention d'adopter un processus d'examen plus strict à l'avenir et, en particulier, de se coordonner avec les communautés sur les plateformes avant les études expérimentales», a déclaré le porte-parole. Une enquête est en cours et les chercheurs ont décidé de ne pas publier officiellement le document, a déclaré le porte-parole, qui a refusé de nommer les personnes impliquées.


