Méfiez-vous des leaders de la technologie qui font des déclarations grandioses sur l'intelligence artificielle. Ils ont perdu de vue la réalité, dit Balle de Philippe

Demis Hassabis, PDG de Google Deepmind et un prix Nobel pour son rôle dans le développement de l'algorithme AI Alphafold pour prédire les structures des protéines, a fait une affirmation étonnante sur le 60 minutes spectacle en avril. Avec l'aide de l'IA comme Alphafold, a-t-il dit, la fin de toutes les maladies est à portée de main, « peut-être dans la prochaine décennie ». Avec cela, l'interview a évolué.
Pour ceux qui travaillent réellement sur le développement de médicaments et le durcissement, cette affirmation est risible. Selon le chimiste médicinal Derek Lowe, qui a travaillé pendant des décennies sur la découverte de médicaments, les déclarations de Hassabis «me donnent envie de passer du temps à regarder silencieusement par la fenêtre, me mettant des mots inintelligibles». Mais vous n'avez pas besoin d'être un expert pour reconnaître l'hyperbole: l'idée que toutes les maladies se termineront dans environ une décennie est absurde.
Certains ont suggéré que les remarques de Hassabis ne sont qu'un autre exemple de la procédure des chefs de technologie, peut-être pour attirer les investisseurs et le financement. N'est-ce pas comme Elon Musk faisant des prévisions idiotes sur les colonies martiennes, ou Sam Altman d'Openai affirmant que l'intelligence générale artificielle (AGI) est juste à nos côtés? Mais bien que cette vision cynique puisse avoir une certaine validité, elle permet à ces experts de s'absenter et sous-estime le problème.
C'est une chose lorsque les autorités apparentes font de grandes revendications en dehors de leur domaine d'expertise (voir Stephen Hawking sur l'IA, les extraterrestres et les voyages spatiaux). Mais il pourrait sembler que Hassabis reste dans sa voie ici. Sa citation Nobel mentionne les nouveaux produits pharmaceutiques comme un avantage potentiel des prédictions d'Alphafold, et la libération de l'algorithme s'est accompagnée de titres des médias sans fin sur la révolution de la découverte de médicaments.
De même, lorsque son collègue 2024 Nobel Laureat Geoffrey Hinton, ancien conseiller de l'IA chez Google, a affirmé que les modèles de grande langue (LLM), il a aidé à créer un travail d'une manière qui ressemble à l'apprentissage humain, il semblait parler de la connaissance approfondie. Alors tant pis les cris de protestation de ceux qui recherchent la cognition humaine – et, dans certains cas, sur l'IA aussi.
Ce que de tels cas semblent révéler, c'est que, étrangement, certains de ces experts de l'IA semblent refléter leurs produits: ils sont capables de produire des résultats remarquables tout en ayant une compréhension d'eux qui est, au mieux, de la peau profonde et cassante.
Voici un autre exemple: Daniel Kokotajlo, un chercheur qui a quitté Openai sur les préoccupations concernant son travail vers AGI et est maintenant directeur exécutif du projet Futures en Californie, a déclaré: « Nous attrapons notre AIS, et nous sommes sûrs qu'ils savaient que ce qu'ils disaient était faux. » Son langage anthropomorphe des connaissances, des intentions et de la tromperie montre que Kokotajlo a perdu de vue ce que sont réellement les LLM.
Les dangers de supposer que ces experts savent mieux sont illustrés dans le commentaire d'Hinton en 2016 que, grâce à l'IA, «les gens devraient cesser de former des radiologues maintenant». Heureusement, les experts en radiologie ne le croyaient pas, bien que certains soupçonnent un lien entre sa remarque et les préoccupations croissantes des étudiants en médecine concernant les perspectives d'emploi en radiologie. Hinton a depuis révisé cette affirmation – mais imaginez à quel point cela aurait eu plus de force s'il avait déjà reçu le Nobel. Il en va de même pour les commentaires de Hassabis sur la maladie: l'idée que l'IA fera le lourdeur pourrait engendrer la complaisance, lorsque nous avons besoin de l'opposé exact, à la fois scientifiquement et politiquement.
Ces prophètes «experts» ont tendance à obtenir très peu de recul des médias, et je peux personnellement attester que même certains scientifiques intelligents les croient. De nombreux dirigeants du gouvernement donnent également l'impression qu'ils ont avalé le battage médiatique des PDG technologiques et des gourous de la Silicon Valley. Mais je recommande que nous commencions à traiter leurs déclarations comme celles des LLM elles-mêmes, en rencontrant leur confiance superficielle avec le scepticisme jusqu'à ce que les faits soient vérifiés.
Philip Ball est un écrivain scientifique basé à Londres. Son dernier livre est How Life


