Certains chercheurs pensent que le dernier modèle géant et cher d'Openai est un signe que les entreprises technologiques ne peuvent pas continuer à progresser en augmentant continuellement

GPT-4.5 est le dernier modèle de chatbot d'Openai
OpenAI a dévoilé son dernier modèle d'IA, GPT-4.5, mais le patron de l'entreprise dit qu'il est à court de matériel pour l'alimenter. Si une IA toujours plus grande ne peut plus être exécutée à grande échelle, alors regardons-nous la fin des progrès rapides de la technologie, et peut-être même l'éclatement d'une bulle?
Il y a certainement des signes que les choses ne se déroulent pas comme prévu dans OpenAI. Au 12 février récemment, le PDG Sam Altman a reconnu sur X que l'offre de produits de la société avait créé une image déroutante – au moment de la rédaction, OpenAI a offert 15 modèles d'IA différents – et exprimé à la place le désir de revenir à une «intelligence unifiée magique». Ce modèle unifié devait être GPT-5, et il devait être proposé à un niveau limité aux clients même non payants d'OpenAI.
Mais lors d'un événement de lancement hier, Openai a plutôt offert une version progressivement mise à jour de GPT-4. Un article de blog d'entreprise appelé GPT-4.5 son «modèle le plus important et le meilleur pour le chat à ce jour», mais Altman a déclaré qu'un manque de capacité informatique signifiait qu'elle ne pouvait offrir le produit qu'à un petit nombre de clients. «C'est un modèle géant et coûteux», a déclaré Altman. «Nous avons beaucoup grandi et sommes hors des GPU (processeurs qui fournissent la puissance de calcul pour l'IA).»
À la suite de cela, OpenAI évalue son nouveau modèle élevé. Le GPT-4,5 coûte 75 $ par 1 000 000 de jetons d'entrée et 150 $ par production. Son modèle le moins cher coûte respectivement 0,15 $ et 0,60 $.
Les commentaires d'Altman suggèrent que GPT-4.5 est beaucoup plus grand que les modèles précédents, bien qu'il soit plus de 10 fois plus efficace que GPT-4, selon la documentation OpenAI. Openai n'a pas répondu à une demande de commentaires ou de clarification.
La mise à l'échelle constante qui a réalisé des progrès rapides dans l'IA ne peut pas continuer pour toujours, Dit Sasha Luccioni à la société AI Embrasing Face. « La façon actuelle de formation et de déploiement du LLMS (modèles de grande langue) est largement inefficace – c'est essentiellement l'intelligence brute-forcing. Bien sûr, cela ne frappe pas un mur », dit-elle.
Alors qu'Altman a affirmé que GPT-4.5 a «une magie que je n'ai jamais ressenti auparavant», Luccioni n'est pas convaincu. «L'utilisation de termes comme« magie »et« AGI »(intelligence générale artificielle) fait que les gens qui rendent ces modèles semblent tout-puissants», explique Luccioni. « Mais je dirais plus qu'Altman est le sorcier d'Oz, nous distrayant pour que nous ne regardions pas derrière le rideau. »
En effet, les entreprises d'IA hésitent à ouvrir leurs modèles à une étude scientifique, en partie en raison de la protection des secrets d'entreprise, mais peut-être aussi parce qu'elles ne veulent pas exposer les sources de leurs données de formation.
Ils sont également en même temps que de révéler les exigences matérielles exactes, la consommation d'énergie ou le coût. Lorsque les détails sont publiés, comme pour Deepseek – le modèle chinois qui a été censé correspondre aux performances des modèles de pointe à une fraction du coût et de la puissance de calcul – ils sont difficiles à vérifier. En vérité, l'industrie est impénétrable à une analyse objective.
Andrew Rogoyski à l'Université de Surrey, au Royaume-Uni, affirme que l'approche de l'industrie au cours des cinq dernières années, pour se développer toujours, consommer plus d'énergie et alimenter dans plus de données de formation, allait inévitablement se heurter à des contraintes à un moment donné, mais il y a des efforts en cours pour les surmonter ou les remonter. «Si le coût est trop élevé (et) l'exigence de calcul est trop élevée, cela le rend non viable en tant qu'entreprise», explique Rogoyski. « Il est donc dans l'intérêt de tout le monde de faire tomber cela. »
Rogoyski ne voit pas les LLM actuels comme l'avenir à long terme de l'IA. Des techniques telles que la distillation, qui a diminué les modèles d'IA tout en conservant les fonctionnalités, peuvent rendre les futurs modèles plus efficaces et moins chers à exécuter. Mais il existe également de nouvelles architectures à l'horizon qui pourraient exécuter des modèles même plus rapidement existants, notamment l'informatique neuromorphique, les puces en silicium sur mesure et même les ordinateurs quantiques.
Que les entreprises puissent ou non devenir suffisamment rapides pour rester en activité est la «question de 64 milliards de dollars», explique Rogoyski. «C'est un peu une soupe darwinienne d'idées en ce moment, et il y aura ceux qui survivent et prospèrent et ceux qui disparaissent.»


