Les systèmes d’IA sont bien meilleurs que les humains pour repérer les images deepfake, mais lorsqu’il s’agit de vidéos deepfake, les humains peuvent encore avoir l’avantage. C'est la tournure surprenante d'une nouvelle étude qui oppose les individus aux machines dans la course à la détection des contrefaçons numériques. Les résultats suggèrent que les humains et les machines devront travailler ensemble pour identifier et combattre les deepfakes à l'avenir, rapportent la psychologue Natalie Ebner et ses collègues le 7 janvier dans Recherche cognitive : principes et implications.
Les deepfakes sont des images, des fichiers audio et des vidéos générés par l'IA qui peuvent représenter faussement ce à quoi une personne ressemble, dit ou fait et ont déjà été utilisés pour commettre une fraude financière, influencer des élections et ruiner des réputations. Ils deviennent de plus en plus convaincants à un rythme alarmant, trompant aussi bien les humains que les modèles d’IA.
Pour déterminer si les humains ou les machines étaient meilleurs dans la détection des deepfakes, Ebner et ses collègues ont d'abord interrogé environ 2 200 participants et deux algorithmes d'apprentissage automatique pour évaluer la réalité de 200 visages sur une échelle de 1 (faux) à 10 (réel). Les humains n’ont pu détecter les deepfakes qu’au hasard, soit environ 50 % du temps. Mais les machines ont été plus performantes, un algorithme obtenant la bonne réponse environ 97 % du temps et l’autre une précision moyenne de 79 %.
Ensuite, les chercheurs ont demandé à environ 1 900 participants humains de regarder 70 courtes vidéos d'une personne discutant d'un sujet, puis d'évaluer le réalisme du visage de la personne. Chose surprenante, les humains ont surpassé les algorithmes dans cette tâche. Les participants humains ont obtenu la bonne réponse en moyenne dans 63 % des cas, tandis que les algorithmes fonctionnaient au niveau du hasard.
Les chercheurs examinent désormais de plus près la prise de décision humaine et IA. Nous voulons savoir « qu'est-ce que la machine utilise pour qu'elle soit bien meilleure que l'humain dans certaines conditions ? Et en quoi est-elle différente de la façon dont l'humain raisonne ? Que voyons-nous dans le cerveau dont l'humain prend conscience et capte ? » dit Ebner, de l'Université de Floride à Gainesville. « Nous examinons désormais tous ces angles différents chez l'humain et la machine, non seulement pour décrire « oui » ou « non », mais aussi pour comprendre pourquoi viennent-ils au oui et au non ?
Selon l’équipe, ces connaissances aideront les humains à trouver la meilleure façon de collaborer avec l’IA pour naviguer dans notre avenir saturé de deepfakes.

