Des médecins célèbres de la télévision britannique se font passer numériquement pour des produits de santé sur les réseaux sociaux grâce à la technologie deepfake, comme le rapporte le BMJ. Cette utilisation trompeuse de l'IA consiste à cloner des images numériques sur d'autres corps, ce qui donne l'impression que les fausses recommandations sont authentiques. Crédit : Issues.fr.com
Le BMJ Des rapports indiquent que la technologie deepfake est utilisée pour créer des recommandations frauduleuses de produits de santé par des médecins célèbres de la télévision britannique sur les réseaux sociaux, ce qui complique les efforts visant à identifier et à éliminer ces vidéos trompeuses.
Certains des médecins les plus connus de la télévision britannique sont de plus en plus souvent « falsifiés » dans des vidéos pour vendre des produits frauduleux sur les réseaux sociaux, selon une étude Le BMJ aujourd'hui, le 18 juillet.
Des noms de confiance tels que Hilary Jones, Michael Mosley et Rangan Chatterjee sont utilisés pour promouvoir des produits prétendant soigner l'hypertension artérielle et le diabète, et pour vendre des bonbons au chanvre, explique le journaliste Chris Stokel-Walker.
Deepfaking est l'utilisation de intelligence artificielle (L'IA) permet de copier numériquement une image d'un être humain réel sur une vidéo d'un corps qui n'est pas le sien. Il peut être difficile de trouver des preuves fiables sur le degré de conviction de cette méthode, mais une étude récente suggère que jusqu'à la moitié des personnes à qui l'on montre des deepfakes parlant de sujets scientifiques ne peuvent pas les distinguer des vidéos authentiques.
L'économie de la désinformation deepfake
John Cormack, un médecin à la retraite basé dans l'Essex, a travaillé avec Le BMJ pour essayer de donner une idée de l'ampleur des soi-disant médecins falsifiés sur les réseaux sociaux.
« En fin de compte, il est beaucoup moins cher de dépenser son argent pour faire des vidéos que pour faire des recherches et créer de nouveaux produits et les commercialiser de manière conventionnelle », dit-il.
Selon Henry Ajder, expert en deepfake, la multiplication des contenus douteux sur les réseaux sociaux, qui reproduisent l’image de médecins et de célébrités célèbres, est une conséquence inévitable de la révolution de l’intelligence artificielle que nous traversons actuellement. « La démocratisation rapide des outils d’IA accessibles pour le clonage de voix et la génération d’avatars a transformé le paysage de la fraude et de l’usurpation d’identité. »
Lutte contre l'exploitation des deepfakes
« Il y a eu une augmentation significative de ce genre d’activité », explique Jones, qui emploie un spécialiste des médias sociaux pour parcourir le Web à la recherche de vidéos deepfake qui déforment ses opinions et tente de les supprimer. « Même si vous le faites, elles réapparaissent le lendemain sous un nom différent. »
Un porte-parole de Meta, la société qui possède à la fois Facebook et Instagram, sur lesquels étaient hébergées de nombreuses vidéos trouvées par Cormack, a déclaré Le BMJ : « Nous allons enquêter sur les exemples mis en évidence par le British Medical Journal. Nous n'autorisons pas les contenus qui trompent ou cherchent à escroquer autrui intentionnellement, et nous travaillons constamment à améliorer la détection et la répression. Nous encourageons toute personne qui voit du contenu susceptible d'enfreindre nos politiques à le signaler afin que nous puissions enquêter et prendre des mesures. »
Défis et solutions pour identifier les deepfakes
Les deepfakes fonctionnent en exploitant les émotions des gens, écrit Stokel-Walker, et lorsqu'il s'agit de produits médicaux, ce lien émotionnel avec la personne qui vous parle du médicament miracle ou du magnifique produit médical compte d'autant plus.
Si quelqu'un que vous ne connaissez pas essaie de vous vendre les vertus d'un traitement particulier, vous risquez de vous méfier. Mais s'il s'agit d'une personne que vous avez déjà vue sur les réseaux sociaux, à la télévision ou à la radio, vous aurez plus de chances de croire ce qu'elle vous dit.
Repérer les deepfakes peut également s’avérer compliqué, explique Ajder, à mesure que la technologie s’est améliorée. « Il est difficile de quantifier l’efficacité de cette nouvelle forme de fraude deepfake, mais le volume croissant de vidéos en circulation suggère que les acteurs malveillants ont un certain succès. »
Pour ceux dont les images sont récupérées, il n'y a apparemment pas grand-chose à faire, mais Stokel-Walker donne quelques conseils sur ce qu'il faut faire si vous trouvez un deepfake. Par exemple, examinez attentivement le contenu pour vous assurer que vos soupçons sont fondés, puis laissez un commentaire pour remettre en question sa véracité. Utilisez les outils de signalement intégrés de la plateforme pour exprimer vos inquiétudes, et enfin signalez la personne ou le compte qui a partagé la publication.