Les humains apprennent très différemment aux machines, grâce à notre mémoire biaisée et malléable – et c'est une bonne chose, dit Charan Ranganathdirecteur du Dynamic Memory Lab à l'Université de Californie, Davis

L'intelligence artificielle fait battre les humains – du moins en ce qui concerne les jeux comme les échecs et le go, identifiant la structure 3D des protéines, générant des stratégies d'investissement… la liste s'allonge encore et encore. Certains soutiennent que des modèles comme Chatgpt sont déjà au seuil de l'intelligence humaine. Le chef d'Openai Sam Altman a même jeté son enfant à naître sous le bus, affirmant que «mon enfant ne grandira jamais être plus intelligent que l'IA».
Les capacités de l'IA moderne sont certainement impressionnantes, mais je suis profondément sceptique quant aux comparaisons entre les humains et les machines. L'IA (à l'heure actuelle et dans un avenir prévisible) n'est pas si intelligente, ou du moins ce n'est pas comme les humains – et c'est une bonne chose.
L'apprentissage est au cœur du comportement intelligent et les humains apprennent différemment les machines. Les modèles d'IA apprennent progressivement, en parcourant une quantité massive de données d'entraînement. La puissance requise pour le faire peut éliminer un réseau électrique entier. En revanche, les besoins en puissance du cerveau humain sont comparables à une ampoule à incandescence, en partie parce qu'ils sont conçus pour apprendre avec très peu de données. Une IA pourrait traiter tous les pixels d'une image, tandis que les humains extraient les informations de quelques regards pour construire des souvenirs visuels.
Malgré leur économie, les cerveaux humains sont remarquablement flexibles, par rapport à la nature fragile de l'IA contemporaine. Lorsque des modèles de pointe reçoivent un flux continu de nouvelles informations qui s'écartent de ce qui avait été apprise précédemment, il peut entraîner un «oubli catastrophique», qui, pour l'apprentissage automatique, est aussi mauvais qu'il y paraît. Pour contourner le problème, il est nécessaire de désactiver l'apprentissage dans un modèle entièrement formé avant de le libérer dans la nature.
Les humains, en revanche, apprennent continuellement tout au long de leur vie sans crainte d'oublier catastrophique car ils combinent la mémoire sémantique, qui reflète une connaissance progressive accumulée du monde, et la mémoire épisodique, qui reflète des souvenirs d'événements spécifiques. Un enfant pouvait compter sur la mémoire sémantique pour apprendre que les oiseaux ont généralement des plumes, des becs et des ailes qu'ils utilisent pour voler. Quand ils voient qu'un pingouin, qui a des caractéristiques similaires, ne peut pas voler mais nage, la mémoire épisodique leur permet d'apprendre rapidement cette exception sans oublier les caractéristiques typiques des oiseaux.
Je suis certain que la prochaine génération d'IA incorporera une sorte de mémoire épisodique, mais je soupçonne que les ingénieurs ne voudraient pas imiter pleinement la mémoire humaine. Comme je le décris dans mon livre, Pourquoi nous nous souvenonsNos souvenirs peuvent être étonnamment fragmentés, biaisés et malléables. La nature sélective et parfois inexacte de la mémoire humaine nous rend mal adaptés à des tâches bien définies comme les échecs, mais il nous permet de naviguer de manière flexible dans un monde incertain et en évolution rapide. Les humains n'ont pas le corps complet de connaissances incorporées dans des modèles comme Chatgpt, mais nous pouvons nous tourner vers nos souvenirs épisodiques de nos expériences vécues pour générer des innovations uniques et des œuvres d'imagination.
Les comparaisons entre l'intelligence humaine et artificielle sont erronées car elles reflètent différentes contraintes de conception. Les cerveaux humains, qui sont conçus pour la survie et la reproduction dans le monde physique, pressent autant d'informations que possible à partir de très peu de données et d'énergie, tandis que les meilleures applications d'IA peuvent découvrir des aiguilles dans des backs de foin de données massives qui submergeraient nos cerveaux-frugaux de ressources.
Plutôt que d'essayer de dépasser l'intelligence humaine, nous sommes mieux servis par des machines qui complètent nos propres idiosyncrasies. Et peut-être que Sam Altman devrait être plus optimiste quant au sort de sa progéniture.
Charan Ranganath est l'auteur du livre Why We Remember: Reveuling the Hidden Power of Memory


