in ,

Pourquoi j'ai changé d'avis sur l'IA et vous devriez le faire aussi

Pourquoi j'ai changé d'avis sur l'IA et vous devriez le faire aussi

Les partisans et les sceptiques ont des opinions bien arrêtées sur les outils d'IA comme ChatGPT, mais après une expérience de codage d'ambiance, j'ai réalisé que les deux camps avaient tort, dit Jacob Aron

Pourquoi j'ai changé d'avis sur l'IA et vous devriez le faire aussi

Il est temps de repenser notre relation avec l'IA

Il est indéniable que le lancement de ChatGPT a été un événement historique significatif, mais est-ce parce qu’il s’agissait du premier pas glorieux vers un avenir superintelligent ou parce que c’était le début d’un monde rempli de vendeurs d’huile de serpent IA ? J'ai longtemps pensé que les grands modèles de langage, la technologie derrière les chatbots IA, étaient fascinants mais imparfaits, me plaçant fermement dans le camp de l'huile de serpent. Mais une semaine passée à coder des vibrations a révélé quelque chose de surprenant : les promoteurs comme les sceptiques ont tort.

Tout d’abord, je devrais expliquer. Le codage vibratoire, si vous n'êtes pas familier, est un terme inventé il y a environ un an par Andrej Karpathy, un chercheur en IA qui a co-fondé et travaillé chez OpenAI. Il fait référence au processus de développement de logiciels en « vibrant » avec un modèle d’IA, en lui donnant des instructions dans un langage simple tout en lui permettant de générer le code réel. Récemment, j'ai vu des gens dire que les derniers outils – Claude Code et ChatGPT Codex – étaient devenus étonnamment bons en matière de codage, comme dans un article dans Le New York Times intitulé « La perturbation de l'IA que nous attendions est arrivée ».

J'ai décidé d'expérimenter ces outils et j'ai été étonné par les résultats. En quelques jours seulement, avec une expérience limitée du codage, j'ai créé des applications personnellement utiles, comme un sélecteur de livres audio qui vérifie ce qui est disponible dans ma bibliothèque locale, et une application combinée appareil photo et téléprompteur qui fonctionne sur mon téléphone.

Cela peut vous sembler ennuyeux, et c’est tout à fait normal, pour des raisons que j’expliquerai plus tard. Ce qui est important ici, c'est que ce processus m'a permis de m'impliquer plus profondément dans des produits comme ChatGPT qu'auparavant. Auparavant, j'ai tenté des expériences mineures, j'ai été dégoûté par l'écriture générique, la flagornerie ou les résultats de recherche inexacts, et j'ai rebondi. Pour ces nouveaux projets de codage, mon utilisation prolongée m'a fait réaliser quelque chose que je n'avais pas réalisé auparavant : la façon dont les LLM ont été produits produit une machine que je suis destiné à détester.

Très peu d'entre nous ont été exposés à un LLM « brut », c'est-à-dire un modèle statistique qui a été formé sur une vaste collection de données pour produire un texte plausiblement représentatif. Au lieu de cela, la majorité d’entre nous utilisent une technologie qui a été médiatisée par un processus appelé apprentissage par renforcement à partir de la rétroaction humaine (RLHF). Les entreprises d’IA utilisent des humains pour évaluer le texte produit par un LLM brut, récompensant les réponses perçues comme confiantes, utiles et engageantes tout en pénalisant les contenus préjudiciables ou les réponses susceptibles de décourager une majorité d’utilisateurs d’interagir avec leurs produits.

C’est ce processus RLHF qui produit la « voix de chatbot » générique que vous connaissez probablement. Il s’agit d’un processus qui s’inscrit dans les valeurs implicites du producteur, depuis l’attitude générale de la Silicon Valley consistant à « avancer vite et casser les choses » jusqu’à l’idéologie plus spécifique infusée par Elon Musk de Grok, le chatbot X controversé.

Actuellement, il est très difficile d’amener un chatbot à exprimer son incertitude, à contredire l’utilisateur ou à arrêter son élan. Cela est devenu plus évident pour moi lorsque j'ai rencontré un problème insoluble avec mon téléprompteur. J'avais essayé de créer une application qui superposerait du texte sur mon application de caméra existante, en supposant que ce serait plus facile que de créer une caméra à partir de zéro, mais le code que ChatGPT produisait continuait d'échouer. Il a suggéré à plusieurs reprises des correctifs, me poussant à avancer dans le projet. Ce n’est que lorsque j’ai réalisé que les subtilités du système d’exploitation Android, avec lesquelles je ne vous ennuierai pas, signifiaient que créer une application tout-en-un serait beaucoup plus facile. Dès que j’ai demandé à ChatGPT de produire ceci, cela a fonctionné instantanément.

En tirant cette leçon, j'ai commencé à demander à ChatGPT de se remettre constamment en question et de me remettre en question. J'ai exigé un scepticisme vigilant. « Jacob souhaite que l'assistant utilise par défaut une analyse axée sur les preuves : évitez l'extrapolation, signalez explicitement l'inférence par rapport aux preuves, et préférez énoncer l'incertitude ou s'arrêter lorsque les preuves sont minces, à moins que l'utilisateur ne demande de la spéculation », n'est qu'un des cadres (générés par lui-même) que j'ai imposés dans sa mémoire. En d’autres termes, j’ai construit un modèle spécialement conçu pour fonctionner avec mon profil psychologique, en démontant soigneusement les valeurs d’OpenAI et en les remplaçant par les miennes.

Ce n'est pas parfait. Il est très difficile pour un LLM de lutter contre sa formation RLHF, et le défaut continue de s'infiltrer. Mais cela signifie que je dispose désormais d’un outil qui me sert de miroir cognitif quelque peu utile. Je ne l'ai pas utilisé pour écrire cet article, à la fois parce que son style d'écriture est encore terriblement turgescent et parce que Nouveau scientifiqueà juste titre, a des règles strictes contre la copie générée par l'IA, mais je l'ai utilisé pour réfléchir à cet article. J'ai demandé à mon miroir cognitif de sonder les arguments et les contre-arguments, rejetant bon nombre de ses conclusions comme étant fausses ou fallacieuses. J'ai extrait de la valeur, mais cela a nécessité de la prudence et du travail, sans laisser l'IA faire le gros du travail. Surtout, mon cerveau est resté pleinement engagé à tout moment.

Cela m'amène à renforcer une conclusion à laquelle j'étais déjà parvenue : s'engager dans la production de l'IA de quelqu'un d'autre est, dans presque tous les cas, fonctionnellement inutile. Vous ne pouvez rien gagner du texte généré par l'IA qui ne serait pas mieux reçu en invitant vous-même une IA. Je continue également de réfuter l’idée selon laquelle l’IA est réellement intelligente de quelque manière que ce soit – je considère plutôt les LLM comme une aide cognitive, comme une calculatrice ou un traitement de texte. Avec ce cadrage, en tant qu’outil privé et non en tant que machine à conquérir le monde, j’en vois désormais l’avantage. Pour cette raison, il est vrai que vous ne vous souciez pas de mon application de téléprompteur. Ce qui devrait vous passionner, c'est la possibilité de résoudre vos propres problèmes à votre manière.

C’est ici que notre paradigme actuel d’IA introduit un autre problème. À mon avis, le meilleur LLM serait celui qui s'exécute sur votre propre ordinateur, sans connexion à une entreprise privée. Il doit être traité comme un outil expérimental dangereux sur lequel vous avez un contrôle total. Cela me rappelle le mème selon lequel les ingénieurs logiciels gardent une arme chargée à côté de leur imprimante, au cas où elle ferait un bruit qu'ils ne reconnaîtraient pas. Malheureusement, gérer votre propre LLM de pointe n'est actuellement pas possible pour diverses raisons, notamment parce que le boom de l'IA fait grimper les prix du matériel dont vous avez besoin.

Je dois également aborder le péché originel des LLM : la violation potentielle du droit d'auteur. De par sa conception, cette technologie ne peut être construite que sur des données ingérées à grande échelle, essentiellement l’intégralité des documents textuels de l’humanité. Il est indéniable que des entreprises comme OpenAI ont construit leurs modèles en utilisant des textes protégés par le droit d'auteur sans autorisation, même si la question de savoir si cela était réellement illégal fait l'objet de procès en cours. Un LLM privé aurait les mêmes problèmes, mais je peux voir des solutions, telles que des modèles du secteur public, effectivement graciés par les gouvernements et distribués gratuitement pour le bénéfice de tous, et non des entreprises privées. Je reste également préoccupé par l'impact environnemental des centres de données, mais là encore, cela pourrait être en partie atténué par une distribution plus large de LLM fonctionnant sur nos propres machines.

J'accepte que certaines personnes qui liront ceci m'accuseront de l'avoir vendu aux frères technologiques. Tout ce que je peux dire, c'est que je n'ai pas révisé ma position de longue date sur les LLM en tant que technologie fascinante, dangereuse et parfois extraordinaire.

Ce que j’ai réalisé, c’est que la principale manière dont nous utilisons la technologie, via des chatbots astucieux comme ChatGPT, est le point où une grande partie du mal entre en jeu et peut se propager dans le monde. Les LLM ne devraient pas être installés et produits, imposés dans chaque aspect de nos vies avec un emoji pétillant qui veut être votre ami. Il vaudrait bien mieux que nous utilisions ces outils de manière réfléchie, en augmentant les frictions, en étant pleinement conscients et prudents des dommages potentiels qu’ils peuvent causer. Ici, une métaphore utile dresse sa tête à crocs. Je ne veux pas de l'huile de serpent d'OpenAI. Je veux des serpents.

La Golden Girl Alysa Liu fait un tour de victoire

La Golden Girl Alysa Liu fait un tour de victoire

Une gestion à impact réduit peut favoriser la récupération des forêts et le stockage du carbone