La révélation de Issues.fr selon laquelle un ministre britannique demande à Chatgpt des conseils soulève la question du rôle que ces nouveaux outils d'IA devraient jouer au gouvernement – et si nous devrions vraiment les considérer comme intelligents

L'administration Trump veut rationaliser le gouvernement américain, en utilisant l'IA pour stimuler l'efficacité
Qu'est-ce que l'intelligence artificielle? C'est une question avec laquelle les scientifiques se débattent depuis l'aube de l'informatique dans les années 1950, quand Alan Turing a demandé: « Les machines peuvent-elles penser? » Maintenant que les grands modèles de langue (LLM) comme Chatgpt ont été déchaînés sur le monde, trouver une réponse n'a jamais été aussi pressant.
Bien que leur utilisation se soit déjà répandue, les normes sociales autour de ces nouveaux outils d'IA évoluent encore rapidement. Les élèves devraient-ils les utiliser pour écrire des essais? Vont-ils remplacer votre thérapeute? Et peuvent-ils tuer le gouvernement?
Cette dernière question est posée aux États-Unis et au Royaume-Uni. Dans le cadre de la nouvelle administration Trump, le groupe de travail du ministère de l'efficacité du gouvernement (DOGE) d'Elon Musk élimine les travailleurs fédéraux et déploie un chatbot, Gsai, à ceux qui restent. Pendant ce temps, le Premier ministre britannique, Keir Starmer, a appelé AI une «opportunité en or» qui pourrait aider à remodeler l'État.
Certes, il y a un travail gouvernemental qui pourrait bénéficier de l'automatisation, mais les LLM sont-ils le bon outil pour le travail? Une partie du problème est que nous ne pouvons toujours pas convenir de ce qu'ils sont. Cela a été bien démontré cette semaine, quand Nouveau scientifique a utilisé les lois sur la liberté d'information (FOI) pour obtenir les interactions Chatgpt de Peter Kyle, le secrétaire d'État britannique pour les sciences, l'innovation et la technologie. Les politiciens, les experts en matière de confidentialité des données et les journalistes – notamment nous – ont été stupéfaits que cette demande a été accordée, étant donné des demandes similaires pour l'historique de recherche de Google d'un ministre, par exemple, serait généralement rejetée.
Le fait que les dossiers aient été publiés suggèrent que le gouvernement britannique considère utiliser Chatgpt comme plus semblable à une conversation ministérielle avec les fonctionnaires par e-mail ou WhatsApp, qui sont tous deux soumis à des lois FOI. Les interactions de Kyle avec Chatgpt n'indiquent pas une forte dépendance à l'égard de l'IA pour avoir élaboré une politique sérieuse – l'une de ses questions concernait les podcasts sur lesquels il devrait apparaître. Pourtant, le fait que la demande de FOI ait été accordée suggère que certains au sein du gouvernement semblent croire que l'IA peut être conversée avec un humain, ce qui est préoccupant.
Comme Nouveau scientifique A largement rapporté que les LLM actuelles ne sont pas intelligentes dans un sens significatives et sont tout aussi susceptibles de cracher des inexactitudes convaincantes que pour offrir des conseils utiles. De plus, leurs réponses refléteront également les biais inhérents aux informations qu'ils ont ingérées.
En effet, de nombreux scientifiques de l'IA sont de plus en plus de l'idée que les LLM ne sont pas une voie vers l'objectif élevé de l'intelligence générale artificielle (AGI), capable de faire correspondre ou de dépasser tout ce qu'un humain peut faire – une machine qui peut le penser, comme Turing l'aurait dit. Par exemple, dans une récente enquête auprès des chercheurs de l'IA, environ 76% des répondants ont déclaré qu'il était «improbable» ou «très peu probable» que les approches actuelles réussissent à atteindre AGI.
Au lieu de cela, nous devons peut-être penser à ces IA d'une manière nouvelle. Écriture dans le journal Science Cette semaine, une équipe de chercheurs de l'IA dit qu'ils «ne devraient pas être considérés principalement comme des agents intelligents, mais comme un nouveau type de technologie culturelle et sociale, permettant aux humains de profiter des informations que d'autres humains ont accumulées». Les chercheurs comparent les LLM à «des technologies passées telles que l'écriture, l'impression, les marchés, les bureaucraties et les démocraties représentatives» qui ont transformé la façon dont nous accédons et traitons les informations.
Encadré de cette manière, les réponses à de nombreuses questions deviennent plus claires. Les gouvernements peuvent-ils utiliser les LLM pour augmenter l'efficacité? Presque certainement, mais seulement lorsqu'il est utilisé par des personnes qui comprennent leurs forces et leurs limites. Les interactions avec les chatbots devraient-elles être soumises aux lois sur la liberté de l'information? Peut-être, mais les coupes existantes conçues pour donner aux ministres un «espace sûr» pour la délibération interne devraient s'appliquer. Et peut-il, comme le pensent Turing, les machines le pensent? Non. Pas encore.


