Les programmes intégrés en langage naturel (NLEP) ont été introduits pour améliorer la fonctionnalité des grands modèles de langage. En générant du code Python pour répondre aux requêtes, les NLEP augmentent la précision, l'efficacité et la transparence. Cette approche permet aux modèles de gérer diverses tâches plus efficacement et pourrait également bénéficier à la confidentialité des données et aux modèles plus petits. Crédit : Issues.fr.com
Les chercheurs ont développé une technique appelée programmes intégrés en langage naturel (NLEP) qui améliore les performances des grands modèles linguistiques en générant des programmes Python pour résoudre des tâches complexes.
Cette méthode améliore non seulement précision et l'efficacité, mais augmente également la transparence, car les utilisateurs peuvent voir et modifier directement le code généré. Les NLEP permettent aux grands modèles comme GPT-4 de résoudre une plus large gamme de tâches avec une plus grande précision et pourraient potentiellement améliorer la confidentialité des données et les performances des modèles plus petits sans recyclage approfondi.
Améliorer les capacités de raisonnement des grands modèles de langage
Les grands modèles linguistiques tels que ceux qui alimentent ChatGPT ont montré des performances impressionnantes sur des tâches telles que la rédaction de notes juridiques, l'analyse du sentiment des avis clients ou la traduction de documents dans différentes langues.
Ces modèles d’apprentissage automatique utilisent généralement uniquement le langage naturel pour traiter les informations et répondre aux requêtes, ce qui peut rendre difficile l’exécution de tâches nécessitant un raisonnement numérique ou symbolique.
Par exemple, un grand modèle linguistique pourrait être capable de mémoriser et de réciter une liste des récents présidents américains et de leurs anniversaires, mais ce même modèle pourrait échouer si on lui posait la question « Quels présidents américains élus après 1950 sont nés un mercredi ? » (La réponse est Jimmy Carter.)

Une nouvelle technique permet aux grands modèles de langage comme GPT-4 de résoudre plus précisément les tâches de raisonnement numérique ou symbolique en écrivant un programme Python dans un code qui génère la bonne réponse à la requête d'un utilisateur. Crédit : Christine Daniloff, MIT ; iStock
Améliorer les capacités des modèles grâce aux NLEP
Des chercheurs de MIT et ailleurs ont proposé une nouvelle technique qui permet aux grands modèles linguistiques de résoudre des tâches de langage naturel, d'analyse mathématique et de données et de raisonnement symbolique en générant des programmes.
Leur approche, appelée programmes intégrés en langage naturel (NLEP), consiste à demander à un modèle de langage de créer et d'exécuter un programme Python pour résoudre la requête d'un utilisateur, puis de générer la solution en langage naturel.
Précision et transparence améliorées
Ils ont découvert que les NLEP permettaient aux grands modèles linguistiques d’atteindre une plus grande précision sur un large éventail de tâches de raisonnement. L’approche est également généralisable, ce qui signifie qu’une invite NLEP peut être réutilisée pour plusieurs tâches.
Les NLEP améliorent également la transparence, puisqu’un utilisateur peut vérifier le programme pour voir exactement comment le modèle a raisonné sur la requête et corriger le programme si le modèle a donné une mauvaise réponse.
« Nous voulons que l’IA puisse réaliser des raisonnements complexes de manière transparente et fiable. Il reste encore beaucoup à faire, mais nous avons montré que combiner les capacités de programmation et de langage naturel dans de grands modèles de langage constitue une première étape très prometteuse vers un avenir où les gens pourront pleinement comprendre et faire confiance à ce qui se passe à l’intérieur de leur modèle d’IA », déclare Hongyin Luo, PhD '22, postdoctorante au MIT et co-auteure principale d’un article sur les NLEP.
Luo est rejoint sur le papier par les co-auteurs principaux Tianhua Zhang, étudiant diplômé de l'Université chinoise de Hong Kong ; et Jiaxin Ge, étudiant de premier cycle à l'Université de Pékin ; Yoon Kim, professeur adjoint au Département de génie électrique et d'informatique du MIT et membre du Laboratoire d'informatique et d'intelligence artificielle (CSAIL); auteur principal James Glass, chercheur principal et responsable du groupe des systèmes de langage parlé au CSAIL; et d'autres. La recherche sera présentée à la conférence annuelle du chapitre nord-américain de l'Association for Computational Linguistics.
Conception et mécanisme opérationnel du NLEP
De nombreux modèles de langage courants fonctionnent en prédisant le mot ou le jeton suivant à partir d'une entrée en langage naturel. Bien que des modèles comme GPT-4 puissent être utilisés pour écrire des programmes, ils intègrent ces programmes dans le langage naturel, ce qui peut entraîner des erreurs dans le raisonnement ou les résultats du programme.
Avec les NLEP, les chercheurs du MIT ont adopté l’approche inverse. Ils ont demandé au modèle de générer un programme étape par étape entièrement en code Python, puis d’intégrer le langage naturel nécessaire au programme.
Un NLEP est un modèle de résolution de problèmes en quatre étapes. Tout d'abord, le modèle appelle les packages ou fonctions nécessaires pour résoudre la tâche. La deuxième étape consiste à importer des représentations en langage naturel des connaissances requises par la tâche (comme une liste des anniversaires des présidents américains). Pour la troisième étape, le modèle implémente une fonction qui calcule la réponse. Et pour la dernière étape, le modèle génère le résultat sous forme de ligne de langage naturel avec une visualisation automatique des données, si nécessaire.
« C’est comme une calculatrice numérique qui vous donne toujours le bon résultat de calcul tant que le programme est correct », explique Luo.
L'utilisateur peut facilement examiner le programme et corriger directement les erreurs dans le code plutôt que de devoir réexécuter l'intégralité du modèle pour résoudre le problème.
Cette approche offre également une plus grande efficacité que d'autres méthodes. Si un utilisateur a de nombreuses questions similaires, il peut générer un programme de base, puis remplacer certaines variables sans avoir à exécuter le modèle à plusieurs reprises.
Pour inciter le modèle à générer un NLEP, les chercheurs lui donnent une instruction globale pour écrire un programme Python, fournir deux exemples NLEP (un avec des mathématiques et un avec un langage naturel) et une question de test.
« En général, lorsque les gens font ce genre de tâches en quelques étapes, ils doivent quand même concevoir des instructions pour chaque tâche. Nous avons découvert que nous pouvons avoir une seule instruction pour de nombreuses tâches, car il ne s’agit pas d’une instruction qui apprend aux étudiants de LLM à résoudre un problème, mais d’une instruction qui leur apprend à résoudre de nombreux problèmes en écrivant un programme », explique Luo.
« Le fait que les modèles de langage raisonnent avec du code ouvre de nombreuses opportunités d'utilisation des outils, de validation des résultats, de compréhension plus structurée des capacités et de la façon de penser du modèle, et bien plus encore », explique Leonid Karlinsky, scientifique principal au MIT-IBM Watson AI Lab.
« Pas de magie ici »
Les NLEP ont atteint une précision supérieure à 90 % lorsqu'il a demandé à GPT-4 de résoudre une série de tâches de raisonnement symbolique, comme le suivi d'objets mélangés ou le jeu de 24, ainsi que des tâches de suivi d'instructions et de classification de textes. Les chercheurs ont constaté que les NLEP présentaient même une précision 30 % supérieure à celle des méthodes d'incitation spécifiques à la tâche. La méthode a également montré des améliorations par rapport aux LLM open source.
En plus d’améliorer la précision des modèles linguistiques à grande échelle, les NLEP pourraient également améliorer la confidentialité des données. Étant donné que les programmes NLEP sont exécutés localement, les données sensibles des utilisateurs n’ont pas besoin d’être envoyées à une entreprise comme OpenAI ou Google pour être traitées par un modèle.
De plus, les NLEP peuvent permettre aux petits modèles linguistiques d’être plus performants sans avoir besoin de recycler un modèle pour une certaine tâche, ce qui peut être un processus coûteux.
« Il n’y a pas de magie ici. Nous n’avons pas de modèle de langage plus coûteux ou plus sophistiqué. Nous utilisons simplement la génération de programmes au lieu de la génération de langage naturel, et nous pouvons améliorer considérablement les performances », explique Luo.
Cependant, un NLEP s'appuie sur la capacité de génération de programme du modèle, de sorte que la technique ne fonctionne pas aussi bien pour les modèles plus petits qui ont été formés sur des ensembles de données limités. À l'avenir, les chercheurs prévoient d'étudier des méthodes qui pourraient permettre à des modèles linguistiques plus petits de générer des NLEP plus efficaces. En outre, ils souhaitent étudier l'impact des variations d'invite sur les NLEP afin d'améliorer la robustesse des processus de raisonnement du modèle.
Cette recherche a été financée, en partie, par le Centre d’intelligence perceptuelle et interactive de Hong Kong.