Les expériences impliquant des chatbots d'IA interagissant sur une plate-forme de médias sociaux simulé suggèrent que les efforts pour concevoir le comportement des utilisateurs antagonistes ne réussiront pas

Les problèmes des médias sociaux peuvent-ils être résolus?
L'impact polarisant des médias sociaux n'est pas seulement le résultat de mauvais algorithmes – il est inévitable en raison des composants fondamentaux du fonctionnement des plateformes, a révélé une étude avec les utilisateurs générés par l'IA. Il suggère que le problème ne sera résolu que si nous réinventions fondamentalement le monde de la communication en ligne.
Petter Törnberg à l'Université d'Amsterdam aux Pays-Bas et ses collègues a créé 500 chatbots d'IA conçus pour imiter un éventail de convictions politiques aux États-Unis, sur la base de l'American National Election Studies Survey. Ces robots, alimentés par le modèle de mini-langage GPT-4O, ont ensuite été chargés d'interagir les uns avec les autres sur un réseau social simple que les chercheurs avaient conçu sans annonces ni algorithmes.
Au cours de cinq points de l'expérience, chacun impliquant 10 000 actions, les agents de l'IA ont eu tendance à suivre les personnes avec lesquelles ils partageaient des affiliations politiques, tandis que ceux qui ont des opinions plus partisanes ont gagné plus d'adeptes et de republiers. Cela a fait écho à l'attention globale envers ces utilisateurs, qui a gravité vers des affiches plus partisanes.
Dans une étude précédente, Törnberg et ses collègues ont exploré si les réseaux sociaux simulés avec différents algorithmes pourraient identifier les voies pour rédiger la polarisation politique – mais la nouvelle recherche semble contredire leurs résultats antérieurs.
«Nous nous attendions à ce que cela (polarisation) soit quelque chose qui est motivé par les algorithmes», explique Törnberg. «(Nous avons pensé) que les plates-formes sont conçues pour cela – pour produire ces résultats – car ils sont conçus pour maximiser l'engagement et vous faire chier et ainsi de suite.»
Au lieu de cela, ils ont constaté que ce n'était pas les algorithmes eux-mêmes qui semblaient causer le problème, ce qui pourrait faire des tentatives pour éliminer le comportement antagoniste des utilisateurs par conception très difficile. «Nous avons mis en place la plate-forme la plus simple que nous puissions imaginer, puis, Boom, nous avons déjà ces résultats», dit-il. « Cela suggère déjà que cela découle de quelque chose de très fondamental pour le fait que nous avons un comportement de publication, de republication et de suivre. »
Pour voir si ces comportements pourraient être muets ou contrarés, les chercheurs ont également testé six solutions potentielles, y compris un aliment uniquement chronologique, en accordant moins de proéminence au contenu viral, en amplifiant les vues opposées et en contenu empathique et raisonné, en cachant un disciple et une republication de republication et en masquant des bios de profil.
La plupart des interventions ont fait peu de différence: le mélange inter-partis n'a pas changé plus de 6%, et la part de l'attention est montée par des comptes les plus importants entre 2 et 6% – tandis que d'autres, comme la cachée des biographies des utilisateurs impliqués, ont en fait aggravé le problème. Lorsqu'il y a eu des gains dans une zone, ils ont été contrés par des impacts négatifs ailleurs. Les correctifs qui ont réduit l'inégalité des utilisateurs ont rendu les messages extrêmes plus populaires, tandis que les modifications pour adoucir la partisanerie ont encore plus attiré l'attention sur une petite élite.
«La plupart des activités de médias sociaux sont toujours des fruits de l'arbre toxique – les problèmes de début des médias sociaux résident toujours dans leur conception fondamentale et peuvent en tant qu'encourager le pire comportement humain», explique Jess Maddox à l'Université de Géorgie.
Alors que Törnberg reconnaît que l'expérience est une simulation qui pourrait simplifier certains mécanismes, il pense qu'il peut nous dire ce que les plateformes sociales doivent faire pour réduire la polarisation. «Nous pourrions avoir besoin d'interventions plus fondamentales et avoir besoin de repenser plus fondamentale», dit-il. «Il pourrait ne pas suffire à se remuer avec des algorithmes et à modifier les paramètres de la plate-forme, mais (nous pourrions) avoir besoin de repenser plus fondamentalement la structure de l'interaction et comment ces espaces structurent notre politique.»


