in ,

La modération du contenu offre peu de sécurité réelle sur les grands médias sociaux

New Scientist. Science news and long reads from expert journalists, covering developments in science, technology, health and the environment on the website and the magazine.

Que les sites de médias sociaux prennent en charge leurs plateformes en utilisant des humains ou des algorithmes, la modération du contenu ne protège pas les utilisateurs, dit Jess Brough

Nouveau scientifique. Science News et Long Liads de journalistes experts, couvrant les développements de la science, de la technologie, de la santé et de l'environnement sur le site Web et le magazine.

Depuis que Meta a annoncé la fin de la vérification des faits tiers, affirmant qu'elle se libérait de «la pression sociétale et politique à un contenu modéré», les utilisateurs de médias sociaux ont remis en question la valeur de la modération du contenu. Est-ce un outil important pour protéger la sécurité et l'efficacité d'une plate-forme ou une méthode systématique de censure? À mon avis, la modération du contenu ne représente que un système brisé – l'exigence insatiable du sacrifice humain pour le progrès technologique, et son utilisation comme voile pour obscurcir les motivations axées sur le profit des sociétés de médias sociaux.

La modération du contenu est intégrée dans le cadre juridique des plateformes en ligne depuis des décennies, afin d'empêcher les comportements nocifs de se propager sur ces sites, qu'il s'agisse de discours de haine ou d'exploitation. Les plates-formes commençant à favoriser la détection algorithmique par rapport à la modération du contenu à propulsion humaine, la rétroaction s'est concentrée sur les pertes d'emplois et les dommages potentiels posés par des systèmes inefficaces.

Ces préoccupations sont bien placées: les plates-formes qui dépendent davantage des algorithmes se déroulent sur des capacités de calcul qui n'existent tout simplement pas encore pour détecter avec précision le comportement et le sens complexes. L'utilisation de grands modèles de langage pour déterminer la différence entre l'humour et l'offensive, par exemple, est compliquée par le fait que cette distinction est subjective et dépend des normes sociales changeantes. De nombreux utilisateurs ont pesé ces risques, ainsi que les redondances, et ont conclu que la modération du contenu basée sur l'homme doit être valorisée et soutenue – ce sont les personnes qui nous assurent en sécurité.

Cependant, nous oublions souvent qu'il y a des dommages collatéraux liés à cet semblant de sécurité. Les modérateurs sont soumis à des images et des informations que la majorité d'entre nous peuvent difficilement imaginer. Le «contenu» avec lequel ils s'engagent peut inclure n'importe quoi, de l'insulte de la langue aux vidéos de décapitations graphiques et de violences sexuelles sur les enfants. Ils voient du contenu comme ce jour après jour – souvent pendant des heures – dans le cadre de leurs affectations d'étiquetage. Nous, les utilisateurs, sommes quelque peu protégés de ces informations, mais seulement après avoir traumatisé les travailleurs souvent rémunérés et vulnérables.

Ces emplois sont déjà sous-compensés et sous-estimés; Désormais, les plateformes de médias sociaux comme Tiktok, Meta et X choisissent d'investir encore moins dans leurs effectifs. Ce faisant, ils révèlent quelque chose de crucial dans ces sites qui en sont venus à exiger une grande partie de notre temps. En ce qui concerne la rentabilité, une base d'utilisateurs sûre et heureuse ne correspond pas à l'immense potentiel pour récolter les données. Les risques d'une mauvaise modération de contenu – que nous voyions des images et du texte peu recommandables, ou que nous soyons victimes d'intimidation en ligne – ne sont aggravés que par la quantité de nous-mêmes que nous révélons déjà librement.

Pour de nombreux sites, la modération du contenu implique déjà un étiquetage humain et algorithmique. À mesure que la modélisation se développe, ces algorithmes deviendront plus sophistiqués, améliorant théoriquement l'expérience utilisateur. Mais nous devons nous rappeler que derrière les plateformes de médias sociaux se trouvent des entreprises axées sur le profit, et tout ce qui catégorise nos données, l'implication reste la même: ces entreprises collectent une quantité astronomique d'informations sur nous et les personnes avec lesquelles nous interagissons, et elles peuvent utiliser ces informations de presque tous les temps, à tout moment.

Les grands médias sociaux sont devenus si essentiels à notre vie quotidienne et à notre travail que non seulement nous avons été disposés à ignorer la main-d'œuvre privée derrière la machine, nous avons également accepté notre propre vulnérabilité à l'influence et à l'exploitation. Les progrès de la modération algorithmique ne nous sauveront pas; Ils ne nous permettront que de nous donner plus de nous-mêmes.

Jess Brough est une psycholinguiste et chercheuse des préjugés linguistiques

L'art hypnotique a ses racines dans la réalité terrifiante des bombes nucléaires

L'art hypnotique a ses racines dans la réalité terrifiante des bombes nucléaires

The surviving human beings in the abandoned city, digital illustration.; Shutterstock ID 1572040465; purchase_order: -; job: -; client: -; other: -

Sommes-nous vraiment condamnés? Un guide divertissant de l'extinction de l'humanité