in

Piégés dans une boucle dangereuse : les humains héritent des préjugés de l’intelligence artificielle

Humans Inherit Artificial Intelligence Biases

Une étude de l’Université de Deusto révèle que les humains peuvent hériter des biais décisionnels de l’IA. Les participants utilisant une IA biaisée ont reflété ses erreurs, et ce biais a persisté même sans l’aide de l’IA. Cela met en évidence le besoin urgent de recherches et de réglementations sur la collaboration IA-humain.

Selon une nouvelle étude, les gens peuvent adopter les préjugés de l’intelligence artificielle dans leurs processus décisionnels.

De nouvelles recherches prouvent que les gens peuvent hériter des préjugés de l’intelligence artificielle (erreurs systématiques dans les résultats de l’IA) dans leurs décisions. L’étude a été menée par les psychologues Lucía Vicente et Helena Matute de l’Université Deusto à Bilbao, en Espagne.

Les résultats étonnants obtenus par les systèmes d’intelligence artificielle, capables par exemple de tenir une conversation comme le fait un humain, ont donné à cette technologie une image de grande fiabilité. De plus en plus de domaines professionnels mettent en œuvre des outils basés sur l’IA pour aider les spécialistes à prendre des décisions afin de minimiser les erreurs dans leurs décisions. Cependant, cette technologie n’est pas sans risques en raison de biais dans les résultats de l’IA. Nous devons considérer que les données utilisées pour entraîner les modèles d’IA reflètent les décisions humaines passées. Si ces données cachent des modèles d’erreurs systématiques, l’algorithme d’IA apprendra et reproduira ces erreurs. En effet, de nombreuses preuves indiquent que les systèmes d’IA héritent et amplifient les préjugés humains.

Inversion de la transmission du biais

La découverte la plus pertinente des recherches de Vicente et Matute est que l’effet inverse peut également se produire : les humains héritent des préjugés de l’IA. Autrement dit, non seulement l’IA hériterait de ses préjugés des données humaines, mais les gens pourraient également hériter de ces préjugés de l’IA, avec le risque de se retrouver piégés dans une boucle dangereuse. Rapports scientifiques publie les résultats des recherches de Vicente et Matute.

Dans la série de trois expériences menées par ces chercheurs, des volontaires ont effectué une tâche de diagnostic médical. Un groupe de participants a été assisté par un système d’IA biaisé (il présentait une erreur systématique) au cours de cette tâche, tandis que les participants du groupe témoin n’étaient pas assistés. L’IA, la tâche de diagnostic médical et la maladie étaient fictives. L’ensemble du décor était une simulation pour éviter toute interférence avec des situations réelles.

Impact sur la prise de décision

Les participants assistés par le système d’IA biaisé ont commis le même type d’erreurs que l’IA, alors que le groupe témoin n’a pas commis ces erreurs. Ainsi, les recommandations de l’IA ont influencé les décisions des participants. Pourtant, la découverte la plus significative de la recherche est qu’après interaction avec le système d’IA, ces volontaires ont continué à imiter son erreur systématique lorsqu’ils ont commencé à effectuer la tâche de diagnostic sans aide.

En d’autres termes, les participants qui ont d’abord été assistés par l’IA biaisée ont reproduit son biais dans un contexte sans ce soutien, démontrant ainsi un biais héréditaire. Cet effet n’a pas été observé chez les participants du groupe témoin, qui ont réalisé la tâche sans aide dès le début.

Ces résultats montrent qu’une information biaisée par un modèle d’intelligence artificielle peut avoir un impact négatif durable sur les décisions humaines. La découverte d’un héritage de l’effet de biais de l’IA souligne la nécessité de poursuivre les recherches psychologiques et multidisciplinaires sur l’interaction IA-humain. En outre, une réglementation fondée sur des données probantes est également nécessaire pour garantir une IA juste et éthique, en tenant compte non seulement des caractéristiques techniques de l’IA, mais également des aspects psychologiques de l’IA et de la collaboration humaine.

Green River Formation Fossil Feather

Des plumes de dinosaures vieilles de 125 millions d’années révèlent des traces de protéines anciennes

Gavin Newsom nomme le président de la liste EMILY pour remplacer Feinstein

Gavin Newsom nomme le président de la liste EMILY pour remplacer Feinstein