Une étude révèle que les visages blancs générés par l’IA sont désormais perçus comme plus réels que les visages humains réels, avec un écart notable dans le réalisme des visages IA des personnes de couleur. Cette tendance, attribuée aux préjugés liés à la formation à l’IA, suscite des inquiétudes quant au renforcement des préjugés raciaux et à la propagation de la désinformation. Crédit : Issues.fr.com
De nouvelles recherches montrent que les visages blancs générés par l’IA semblent plus réalistes que les vrais visages humains, signalant des risques potentiels de préjugés raciaux et de désinformation dans la technologie de l’IA.
Les visages blancs générés par l’intelligence artificielle (IA) semblent désormais plus réels que les visages humains, selon une nouvelle recherche menée par des experts de The Université nationale australienne (ANU).
Dans l’étude, davantage de personnes pensaient que les visages blancs générés par l’IA étaient humains plutôt que les visages de personnes réelles. Il n’en va pas de même pour les images de personnes de couleur.
La raison de cet écart est que les algorithmes d’IA sont entraînés de manière disproportionnée sur les visages blancs, a déclaré le Dr Amy Dawel, auteur principal de l’article.
Implications du réalisme de l’IA
« Si les visages blancs de l’IA sont systématiquement perçus comme plus réalistes, cette technologie pourrait avoir de graves implications pour les personnes de couleur en renforçant à terme les préjugés raciaux en ligne », a déclaré le Dr Dawel.
« Ce problème est déjà apparent dans les technologies d’IA actuelles qui sont utilisées pour créer des portraits d’aspect professionnel. Lorsqu’elle est utilisée pour des personnes de couleur, l’IA modifie la couleur de leur peau et de leurs yeux pour celle des personnes blanches.
Cette image a été générée par l’IA, spécifiquement avec Midjourney V5.2. Crédit : Issues.fr.com
Comprendre «l’hyperréalisme» de l’IA
L’un des problèmes liés à « l’hyperréalisme » de l’IA est que les gens ne réalisent souvent pas qu’ils sont dupés, ont découvert les chercheurs.
« Il est inquiétant de constater que les personnes qui pensaient que les visages de l’IA étaient réels étaient paradoxalement les plus sûres que leurs jugements étaient corrects », a déclaré Elizabeth Miller, co-auteur de l’étude et doctorante à l’ANU.
« Cela signifie que les gens qui confondent les imposteurs de l’IA avec de vraies personnes ne savent pas qu’ils sont trompés. »
Les chercheurs ont également pu découvrir pourquoi les visages de l’IA trompent les gens.
Pourquoi les visages de l’IA sont trompeurs
« Il s’avère qu’il existe encore des différences physiques entre l’IA et les visages humains, mais les gens ont tendance à les mal interpréter. Par exemple, les visages blancs de l’IA ont tendance à être plus proportionnés et les gens confondent cela avec un signe d’humanité », a déclaré le Dr Dawel.
« Cependant, nous ne pouvons pas nous fier longtemps à ces signaux physiques. La technologie de l’IA progresse si rapidement que les différences entre l’IA et les visages humains disparaîtront probablement bientôt. »
Conséquences potentielles
Les chercheurs affirment que cette tendance pourrait avoir de graves conséquences sur la prolifération de la désinformation et du vol d’identité, et que des mesures doivent être prises.
« La technologie de l’IA ne peut pas être isolée, de sorte que seules les entreprises technologiques savent ce qui se passe dans les coulisses. Il faut une plus grande transparence autour de l’IA afin que les chercheurs et la société civile puissent identifier les problèmes avant qu’ils ne deviennent un problème majeur », a déclaré le Dr Dawel.
Selon les chercheurs, la sensibilisation du public peut également jouer un rôle important dans la réduction des risques posés par la technologie.
« Étant donné que les humains ne peuvent plus détecter les visages de l’IA, la société a besoin d’outils capables d’identifier avec précision les imposteurs de l’IA », a déclaré le Dr Dawel.
« Éduquer les gens sur le réalisme perçu des visages de l’IA pourrait contribuer à rendre le public sceptique à juste titre quant aux images qu’il voit en ligne. »
L’étude a été publiée dans Sciences psychologiques, un journal de l’Association pour la science psychologique.


