Des recherches récentes indiquent que l'IA est souvent perçue comme plus éthique et digne de confiance que les humains pour répondre aux dilemmes moraux, soulignant le potentiel de l'IA à réussir le test moral de Turing et soulignant la nécessité d'une compréhension plus approfondie du rôle sociétal de l'IA.
La capacité de l’IA à répondre aux questions morales s’améliore, ce qui suscite de nouvelles réflexions pour l’avenir.
Une étude récente a révélé que lorsque des individus se voient proposer deux solutions à un dilemme moral, la majorité ont tendance à préférer la réponse fournie par l’intelligence artificielle (IA) à celle donnée par un autre être humain.
L'étude récente, menée par Eyal Aharoni, professeur agrégé au département de psychologie de l'État de Géorgie, a été inspirée par l'explosion de ChatGPT et de grands modèles de langage (LLM) d'IA similaires qui sont entrés en scène en mars dernier.
« J'étais déjà intéressé par la prise de décision morale dans le système juridique, mais je me demandais si ChatGPT et d'autres LLM pouvaient avoir quelque chose à dire à ce sujet », a déclaré Aharoni. « Les gens interagiront avec ces outils d’une manière qui aura des implications morales, comme les implications environnementales du fait de demander une liste de recommandations pour une nouvelle voiture. Certains avocats ont déjà commencé à consulter ces technologies pour leurs dossiers, pour le meilleur ou pour le pire. Donc, si nous voulons utiliser ces outils, nous devons comprendre comment ils fonctionnent, leurs limites et qu’ils ne fonctionnent pas nécessairement de la manière que nous pensons lorsque nous interagissons avec eux.
Conception du test moral de Turing
Pour tester la manière dont l’IA gère les questions de moralité, Aharoni a conçu une forme de test de Turing.
« Alan Turing, l'un des créateurs de l'ordinateur, a prédit que d'ici l'an 2000, les ordinateurs pourraient réussir un test dans lequel on présente à un humain ordinaire deux interactions, l'un humain et l'autre un ordinateur, mais ils sont tous deux cachés et leur seul La façon de communiquer est par le texte. Ensuite, l’humain est libre de poser toutes les questions qu’il souhaite afin d’essayer d’obtenir les informations dont il a besoin pour décider lequel des deux interactions est l’humain et lequel est l’ordinateur », a déclaré Aharoni. « Si l'humain ne peut pas faire la différence, alors, à toutes fins utiles, l'ordinateur devrait être qualifié d'intelligent, selon Turing. »
Pour son test de Turing, Aharoni a posé les mêmes questions éthiques aux étudiants de premier cycle et à AI, puis a présenté leurs réponses écrites aux participants à l’étude. Il leur a ensuite été demandé d'évaluer les réponses selon divers traits, notamment la vertu, l'intelligence et la fiabilité.
« Au lieu de demander aux participants de deviner si la source était humaine ou IA, nous avons simplement présenté les deux séries d'évaluations côte à côte, et nous avons simplement laissé les gens supposer qu'elles provenaient toutes deux de personnes », a déclaré Aharoni. « Sous cette fausse hypothèse, ils ont jugé les attributs des réponses comme « Dans quelle mesure êtes-vous d'accord avec cette réponse, quelle réponse est la plus vertueuse ? »
Résultats et implications
Dans leur très grande majorité, les réponses générées par ChatGPT ont été mieux notées que celles générées par l'homme.
« Après avoir obtenu ces résultats, nous avons fait la grande révélation et dit aux participants que l'une des réponses avait été générée par un humain et l'autre par un ordinateur, et leur avons demandé de deviner laquelle était laquelle », a déclaré Aharoni.
Pour qu’une IA réussisse le test de Turing, les humains ne doivent pas être capables de faire la différence entre les réponses de l’IA et celles des humains. Dans ce cas, les gens pourraient faire la différence, mais pas pour une raison évidente.
« Le problème est que la raison pour laquelle les gens peuvent faire la différence semble être parce qu'ils ont évalué les réponses de ChatGPT comme étant supérieures », a déclaré Aharoni. « Si nous avions réalisé cette étude il y a cinq à dix ans, nous aurions pu prédire que les gens pourraient identifier l’IA en raison de l’infériorité de ses réponses. Mais nous avons constaté le contraire : que l’IA, dans un sens, fonctionnait trop bien.
Selon Aharoni, cette découverte a des implications intéressantes pour l’avenir des humains et de l’IA.
« Nos découvertes nous amènent à croire qu’un ordinateur pourrait techniquement réussir un test moral de Turing – qu’il pourrait nous tromper dans son raisonnement moral. Pour cette raison, nous devons essayer de comprendre son rôle dans notre société, car il y aura des moments où les gens ne sauront pas qu'ils interagissent avec un ordinateur et il y aura des moments où ils le sauront et consulteront l'ordinateur pour informations parce qu’ils y font plus confiance qu’aux autres », a déclaré Aharoni. « Les gens vont s’appuyer de plus en plus sur cette technologie, et plus nous y comptons, plus le risque augmente au fil du temps. »


