Dans une enquête auprès des chercheurs de l'IA, la plupart disent que les modèles actuels d'IA sont peu susceptibles de conduire à une intelligence générale artificielle avec des capacités de niveau humain, même si les entreprises investissent des milliards de dollars dans cet objectif

De nombreuses entreprises d'IA disent que leurs modèles sont sur la voie d'une intelligence générale artificielle, mais tout le monde n'est pas d'accord
Les entreprises technologiques affirment depuis longtemps que la simple élargissement de leurs modèles d'IA actuels conduira à l'intelligence générale artificielle (AGI), qui peut égaler ou dépasser les capacités humaines. Mais comme les performances des modèles les plus récentes ont atteint un plateau, les chercheurs de l'IA doutent que la technologie d'aujourd'hui conduira à des systèmes superintelligents.
Dans une enquête auprès de 475 chercheurs d'IA, environ 76% des répondants ont déclaré qu'il était «improbable» ou «très peu probable» que la réduction des approches actuelles réussirait à atteindre AGI. Les résultats font partie d'un rapport de l'Association for the Advancement of Artificial Intelligence, une société scientifique internationale basée à Washington DC.
Il s'agit d'un changement notable d'attitude par rapport à l'optimisme «La mise à l'échelle est tout ce dont vous avez besoin» qui a stimulé les entreprises technologiques depuis le début de la flèche génératrice de l'IA en 2022. La plupart des réalisations de pointe depuis lors ont été basées sur des systèmes appelés modèles de transformateurs, qui se sont améliorés dans les performances car ils ont été formés à une augmentation des volumes de données. Mais ils semblent avoir stagné dans les versions les plus récentes, qui n'ont montré que des changements progressifs dans la qualité.
«Les vastes investissements dans la mise à l'échelle, non accompagnés par des efforts comparables pour comprendre ce qui se passait, m'a toujours semblé égaré», explique Stuart Russell à l'Université de Californie à Berkeley, membre du panel qui a organisé le rapport. «Je pense que, il y a environ un an, cela a commencé à devenir évident pour tout le monde que les avantages de la mise à l'échelle au sens conventionnel avaient atteint un plateau.»
Néanmoins, les entreprises technologiques prévoient de dépenser collectivement 1 billion de dollars pour les centres de données et les puces au cours des prochaines années pour soutenir leurs ambitions d'IA.
Le battage médiatique autour des technologies d'IA peut expliquer pourquoi 80% des répondants au sondage ont également déclaré que les perceptions actuelles des capacités de l'IA ne correspondent pas à la réalité. «Les systèmes proclamés correspondaient aux performances humaines – comme sur les problèmes de codage ou les problèmes de mathématiques – commettent toujours des erreurs à tête osseuse», explique Thomas Dietterich à l'Oregon State University, qui a contribué au rapport. «Ces systèmes peuvent être très utiles comme outils pour aider à la recherche et au codage, mais ils ne remplaceront aucun travailleur humain.»
Les sociétés d'IA se sont plus récemment concentrées sur la mise à l'échelle dite du temps d'inférence, qui implique des modèles d'IA en utilisant plus de puissance de calcul et en prenant plus de temps pour traiter les requêtes avant de répondre, explique Arvind Narayanan à l'Université de Princeton. Mais il dit que cette approche est «peu susceptible d'être une solution miracle» pour atteindre AGI.
Bien que les entreprises technologiques décrivent fréquemment AGI comme leur objectif ultime, la définition même d'AGI est instable. Google Deepmind l'a décrit comme un système qui peut surpasser tous les humains sur un ensemble de tests cognitifs, tandis que Huawei a suggéré d'atteindre cette étape nécessite un corps qui permet d'interagir avec l'IA avec son environnement. En ce qui concerne Microsoft et Openai, un rapport interne a déclaré qu'ils ne considéreraient AGI réalisé que lorsque OpenAI a développé un modèle qui peut générer 100 milliards de dollars de bénéfices.


