Un nouvel article affirme que l’intelligence de l’IA, telle qu’elle est vue dans des systèmes comme ChatGPT, est fondamentalement différente de l’intelligence humaine en raison de son manque d’incarnation et de compréhension. Cette différence met en évidence que l’IA ne partage pas les préoccupations humaines ni les liens avec le monde.
Un article récent d’Anthony Chemero de l’UC explique la pensée de l’IA par opposition à la pensée humaine.
L’essor de l’intelligence artificielle a suscité des réactions variées de la part des responsables technologiques, des responsables gouvernementaux et du grand public. Beaucoup sont enthousiasmés par les technologies d’IA comme ChatGPT, les considérant comme des outils bénéfiques capables de révolutionner la société.
Cependant, il existe également un sentiment d’inquiétude chez certains, qui craignent que toute technologie qualifiée d’« intelligente » puisse posséder la capacité de surpasser le contrôle et la domination humaine.
La nature distincte de l’IA de l’intelligence humaine
Anthony Chemero, de l’Université de Cincinnati, professeur de philosophie et de psychologie au Collège des Arts et des Sciences de l’UC, affirme que la compréhension de l’IA est brouillée par la linguistique : que bien qu’elle soit effectivement intelligente, l’IA ne peut pas être intelligente de la même manière que les humains, même bien que « il puisse mentir et que des BS aiment son créateur ».
Anthony Chemero, éminent professeur-chercheur de philosophie et de psychologie à l’Université de Cincinnati. Crédit : Andrew Higley/UC Marketing + Marque
Selon notre usage quotidien du mot, l’IA est certainement intelligente, mais il existe des ordinateurs intelligents et ce depuis des années, explique Chemero dans un article qu’il a co-écrit dans la revue Comportement humain.
Caractéristiques et limites de l’IA
Pour commencer, l’article indique que ChatGPT et d’autres systèmes d’IA sont des modèles de langage étendus (LLM), formés sur d’énormes quantités de données extraites d’Internet, dont une grande partie partage les préjugés des personnes qui publient les données.
« Les LLM génèrent des textes impressionnants, mais ils composent souvent des textes entiers », déclare-t-il. « Ils apprennent à produire des phrases grammaticales, mais nécessitent beaucoup plus de formation que les humains. Ils ne savent pas vraiment ce que signifient les choses qu’ils disent », dit-il. « Les LLM diffèrent de la cognition humaine car ils ne sont pas incarnés. »
Les gens qui ont fait des LLM qualifient d’« hallucinant » lorsqu’ils inventent des choses ; bien que Chemero dise : « il vaudrait mieux appeler cela ‘conneries’ », parce que les LLM se contentent de faire des phrases en ajoutant à plusieurs reprises le mot suivant le plus probable statistiquement – et ils ne savent pas ou ne se soucient pas de savoir si ce qu’ils disent est vrai.
Et avec un peu d’incitation, dit-il, on peut obtenir un outil d’IA pour dire « des choses désagréables qui sont racistes, sexistes et autrement biaisées ».
L’élément humain dans le renseignement
L’intention de l’article de Chemero est de souligner que les LLM ne sont pas intelligents de la même manière que les humains le sont parce que les humains sont incarnés : des êtres vivants qui sont toujours entourés d’autres humains et d’environnements matériels et culturels.
« Cela nous amène à nous soucier de notre propre survie et du monde dans lequel nous vivons », dit-il, soulignant que les LLM n’existent pas vraiment dans le monde et ne se soucient de rien.
Le principal point à retenir est que les LLM ne sont pas intelligents comme le sont les humains parce qu’ils « s’en foutent », dit Chemero, ajoutant : « Les choses comptent pour nous. Nous sommes engagés dans notre survie. Nous nous soucions du monde dans lequel nous vivons.


