Les employés d'OpenAI profitent peut-être d'un congé durement gagné pendant les vacances de printemps à l'échelle de l'entreprise cette semaine, mais comme le prouve la nouvelle annonce de financement de 122 milliards de dollars publiée quelques instants avant la mise sous presse de cet article, le monde de l'IA ne dort jamais. La nouvelle capitale arrive dans la foulée du rapport de la semaine dernière selon lequel OpenAI se préparait à lancer un nouveau modèle d'IA avancé, nommé Spud. Lors d'une réunion à l'échelle de l'entreprise mardi dernier, le PDG Sam Altman a informé le personnel réuni : « Les choses avancent plus vite que beaucoup d'entre nous ne l'espéraient ».
Ce type de fuites inspire inévitablement d’un côté une crédulité haletante et de l’autre une vision cynique du cycle de battage médiatique sans fin de recherche d’investissements. Comme d’habitude, la réalité se situe probablement quelque part entre les deux. Comme me l’a dit un chercheur d’OpenAI ce week-end : « Tous les modèles les plus récents sont meilleurs que les plus anciens – et les modèles sont proches ou dépassent l’intelligence humaine depuis un certain temps. »
La semaine prochaine, nous commencerons à avoir quelques indices supplémentaires sur ce que pense OpenAI. Parallèlement à la sortie prochaine du modèle Spud, j'ai appris que le laboratoire prévoit de publier une série de nouveaux articles et propositions décrivant de nouvelles idées politiques pour l'ère de la superintelligence. Un premier document, qui sera publié la semaine prochaine, fait partie d'un effort de recherche plus large, dirigé par le PDG Altman, le futuriste en chef Joshua Achiam et le vice-président des affaires mondiales Chris Lehane, qui se concentrera sur la politique industrielle et les solutions aux perturbations économiques à l'ère de l'IA.
Une source proche du projet a expliqué que l’idée est de « voir plus grand d’un point de vue politique sur les questions sociétales à mesure que la technologie progresse vers la superintelligence ». Cette personne a taquiné certains « démarreurs de conversation » potentiellement controversés destinés à impliquer un échantillon plus large de la société dans le débat sur l’IA.
Ceux avec qui j'ai parlé n'ont pas approfondi les détails, mais ont discuté de la nécessité de « repenser le contrat social » et de construire « une superintelligence qui fonctionne pour tout le monde ». C'est certainement des sons un peu comme s’ils suggéraient une certaine forme de redistribution des richesses (une idée que les milliardaires adorent). Mais la vérité est qu’une étude financée par Altman sur le revenu de base universel s’est conclue en 2024 avec des résultats quelque peu décevants. Les chercheurs ont découvert que les avantages des paiements mensuels sans conditions avaient tendance à « s’estomper au cours des deuxième et troisième années du programme ». Espérons que cette nouvelle initiative de recherche ait abouti à une solution meilleure et plus concrète à la prochaine perte d’emplois due à l’IA.
Ces évolutions sont également intrigantes dans le contexte des restructurations entreprises par l'entreprise au cours des dernières semaines. Mardi dernier, OpenAI a annoncé la fermeture de son modèle de génération vidéo, Sora, et la dissolution de son accord de licence d'un milliard de dollars avec Disney, à la grande surprise de la société de divertissement. OpenAI a également abandonné son projet controversé de publier un compagnon érotique.
Entre-temps, l'entreprise a réorganisé ses efforts en matière de sûreté et de sécurité et a annoncé que sa Fondation OpenAI prévoit de dépenser 1 milliard de dollars au cours de l'année prochaine pour la recherche médicale, la résilience de l'IA et les programmes communautaires. Même son groupe de produits a été renommé AGI Deployment.
Ces mouvements semblent tous indiquer qu’une entreprise est sur le point de… quelque chose. Une introduction en bourse, dont nous savons qu’elle est prévue pour plus tard cette année ? Être irrémédiablement en retrait par rapport à ses concurrents d'Anthropic et de Google ? Une véritable rupture technologique ?
Il y a aussi les élections de mi-mandat de 2026 qui approchent à grands pas – sans doute le premier cycle électoral au cours duquel l’IA et ses ramifications seront véritablement une priorité pour les électeurs américains. Peut-être que l'entreprise a pris conscience du fait que la popularité lamentable de l'IA est vouée à la rattraper sous la forme d'une réglementation stricte.
En général, des expressions telles que « sécurité de l’IA » et « risque lié à l’IA » sont devenues de gros mots depuis que Donald Trump a pris ses fonctions pour la deuxième fois et « accélération » est devenue le cri de ralliement de la Silicon Valley. Mais le vent pourrait à nouveau s’inverser, une partie de l’euphorie autour de Trump et de son paradigme de déréglementation commençant à s’estomper. En février, OpenAI a recruté le chercheur en sécurité Dylan Scandinaro d'Anthropic pour diriger son équipe de préparation, qui semble désormais se doter de rôles axés sur les risques biologiques et chimiques frontaliers, les risques de cybersécurité et la sinistre « perte de contrôle ».
Il est intéressant de noter que les dirigeants d’OpenAI n’ont pas vraiment suivi le même chemin en matière de politique. Achiam a été vu pour la dernière fois en train de tweeter sur le fait que « les efforts du lobby pro-IA pour torpiller Alex Bores seront plus tard largement compris comme un but contre son camp inutile ». Beaucoup ont perçu cela comme un affront contre le président d'OpenAI, Greg Brockman, qui a investi des millions de dollars dans un super PAC dédié à l'attaque des candidats pro-réglementation comme Bores.
OpenAI n’est pas le seul laboratoire où le changement de ton se fait sentir. Anthropic a connu un énorme regain d'intérêt dans l'opinion publique suite à sa croisade contre ce qu'il prétendait être la portée excessive du ministère de la Défense. (Woke est de retour !) La semaine dernière, une fuite a révélé qu'Anthropic travaillait sur son propre nouveau modèle, nommé Mythos. Dans une déclaration à Fortune, un porte-parole de l'entreprise a déclaré que le modèle représente un « changement radical » dans les capacités – le projet de billet de blog divulgué mettant en garde contre des risques particuliers dans le domaine de la cybersécurité en raison de la sophistication du modèle.
Sabina Nong, enquêteuse sur la sécurité de l'IA au Future of Life Institute, a déclaré qu'elle se méfiait de ce « type renouvelé de construction narrative » dans les laboratoires frontaliers autour des « risques catastrophiques et des forces perturbatrices ». Parallèlement, elle constate une contre-tendance inquiétante : « Alors que les gens en parlent beaucoup plus souvent, le fait est que nous constatons encore moins d’engagement contraignant de la part des entreprises. »
Il est difficile d’échapper au sentiment que même dans les discussions et les mémos divulgués, ces laboratoires se produisent devant un public. Comme l’a écrit la semaine dernière le compte anonyme préféré de l’industrie de l’IA, « c’est une position difficile lorsque toutes vos communications privées sont de facto des communications publiques… les « projets de Manhattan » n’étaient pas vraiment dans l’espace des options, il vous suffit d’accélérer systématiquement vos adversaires en public.


