in , ,

Le risque pour la domination américaine de l’IA est la stagnation algorithmique

cc Robert Scoble, modified, https://www.flickr.com/photos/scobleizer/4870003098

Imaginez une application d’intelligence artificielle (IA) avec laquelle vous pouvez communiquer de manière significative pendant des moments de délibération minutieuse. Je ne parle pas du mimétisme de la communication popularisé par les chatbots alimentés par les grands modèles linguistiques (LLM), récemment incarnés dans le projet OpenAI. GPT-4o. J’imagine un modèle d’IA capable d’interagir de manière productive avec la littérature spécialisée, d’extraire et de reformuler des idées clés et de s’engager dans des échanges significatifs avec un expert humain. On imagine facilement l’applicabilité d’un tel modèle dans des domaines comme la recherche médicale. Pourtant, les systèmes d'apprentissage automatique qui ont retenu l'attention du monde entier – les IA génératives comme ChatGPT, Gemini et Claude – manquent de ressources intellectuelles et autonomie nécessaires pour prendre en charge de telles applications. Notre noble vision de l’IA reste pour l’instant une question de science-fiction.

La volonté de maîtriser l’IA en géopolitique n’est pas découragée par cette réalité. En effet, la situation géopolitique «brouiller» pour l’IA déclenchée en 2023—représentée par des États aussi divers que la Grande-Bretagne, la France, l’Allemagne, l’Inde, l’Arabie saoudite, les Émirats arabes unis, les États-Unis et la Chine – a sans aucun doute été déclenchée par l’IA générative et, plus largement, par l’apprentissage automatique. Cependant, certains recoins du monde de l’IA conçoivent l’apprentissage automatique comme simplement l’étape actuelle de l’IA de pointe, mais pas comme sa dernière étape.

Des paradigmes allant au-delà des stratégies d'apprentissage liées à l'apprentissage automatique sont recherchés, par exemple, par l'Institut d'intelligence artificielle générale de Pékin (BIGAI), soutenu par l'État, créé en 2020. En tant que centre de sécurité et de technologies émergentes en 2023 rapport Comme le montre l’illustration, BIGAI a été fondée en partie par des chercheurs désillusionnés par les approches du « big data », notamment le directeur Zhu Songchun, formé aux États-Unis, à la recherche de modèles d’IA « inspirés par le cerveau ». Le thème de la recherche de BIGAI est « petites données, grande tâche ».

L'importance stratégique de l'IA « petites données » est également reconnue par l'Australie. Groupe IA de Kingston, composé de spécialistes de l'IA dont l'objectif est de coordonner les stratégies nationales australiennes de recherche et d'éducation en IA. En février 2023 déclaration, le Groupe a reconnu le désavantage comparatif de l'Australie en termes de taille économique et d'accès à de vastes ensembles de données utilisés pour former des modèles d'apprentissage automatique. Ils identifient donc la nécessité de développer une « capacité de petites données » qui permettrait à l’Australie d’être compétitive dans la « conception de systèmes d’IA à partir de petits ensembles de données ».

De plus, les efforts indiens pour adopter l’innovation technologique ont été soulignés par le Premier ministre Narendra Modi dans son discours de juin 2023. adresse au Congrès américain, tout en appelant à la collaboration de son pays avec l'Amérique à travers le Initiative sur les technologies critiques et émergentes (iCET). Mais il convient tout aussi bien de mentionner le projet de Modi. réunion avec un chercheur en IA Amit Shethdirecteur du Institut d'intelligence artificielle de l'Université de Caroline du Sud.

En décembre 2023, Sheth a présenté l'IA suivante vision à la troisième conférence annuelle des secrétaires en chef de l'Inde : les États-Unis ont dirigé les deux phases initiales de l'IA. L’IA « symbolique » a dominé la première vague tandis que l’IA « statistique » (c’est-à-dire l’apprentissage automatique) actuellement à la mode domine la deuxième vague. L’Inde peut et doit, affirme Sheth, «dominer la phase III de l'IA.» La troisième vague fait référence aux modèles d'IA capables de s'adapter au contexte, avec un paradigme émergent dans cette veine connu sous le nom de IA neuro-symbolique, qui combine les techniques des deux vagues pour obtenir de nouvelles capacités. Même si l’IA générative est importante pour IndeSheth dit Les responsables indiens ont déclaré que « l’IA neurosymbolique… pilotera la prochaine, troisième phase de l’IA ».

Si cette conceptualisation du développement de l’IA vous semble familière, il convient de rappeler qu’elle remonte à la Defense Advanced Research Projects Agency (DARPA) des États-Unis. La DARPA fait la distinction entre les deux premières vagues d'IA dans lesquelles les modèles sont d'abord régis par des règles, puis apprennent via des associations statistiques de données. Cependant, dans les deux vagues, les modèles manquent de capacités de raisonnement robustes dans des situations nouvelles. DARPA »troisième vague» envisage des modèles capables de «raisonnement contextuel», un effort incarné dans son 2018 IA Suivant campagne à « aller au-delà des techniques d’apprentissage automatique de la deuxième vague » (et évident dans son 2022 Apprentissage et raisonnement neuro-symbolique assurés programme).

Les efforts de la DARPA évoluent continuellement. Pourtant, la conceptualisation tripartite de l’IA est une relique de l’ère pré-ChatGPT, et les décideurs politiques américains risquent de perdre de vue son importance stratégique.

Le retranchement américain dans la deuxième vague

Même si l’apprentissage automatique restera pendant un certain temps indispensable aux acteurs étatiques souhaitant devenir des acteurs majeurs de l’IA, la raison pour laquelle des États comme la Chine, l’Australie et l’Inde encouragent de telles recherches est que les techniques de pointe en matière d’apprentissage automatique ne le permettent pas. offrir les capacités requises pour prendre en charge des applications telles que notre hypothétique agent médical.

Pourtant, une grande partie de l’attention des décideurs politiques américains sur l’IA est ancrée dans l’ère et la substance de l’IA « big data ». Le président Biden en 2023 Décret exécutif sur une IA sûre, sécurisée et digne de confiancepar exemple, invoque la loi sur la production de défense pour exiger que les entreprises envisagent de développer ou développent activement des « modèles fondamentaux à double usage » dont la formation dépasse le seuil de calcul de 1 026 opérations à virgule flottante (FIASCO) rendre compte de ces développements et tests au ministère du Commerce. L’idée, comme le dit Paul Scharre, est que la puissance de calcul est un «proxy brut» pour les capacités du modèle. Le mandat reflète une croyance plus large dans l’efficacité de l’augmentation de la taille des modèles et des ensembles de données sur lesquels ils sont formés, ainsi que de la puissance de calcul que cela nécessite.

De plus, le gouvernement Biden tué d'octobre 2022 informatique avancée contrôles à l'exportation sur les entreprises chinoises – et par la suite, en constante évolution restrictions– repose sur l’idée que les conceptions et les équipements de fabrication américains de semi-conducteurs ne peuvent pas permettre le développement chinois de modèles d’IA avancés. L’hypothèse implicite est que l’IA de pointe s’appuiera indéfiniment sur les données massives et la puissance de calcul qui caractérisent aujourd’hui les modèles d’apprentissage automatique.

Parmi les premières critiques à l’encontre des contrôles à l’exportation d’octobre 2022, Martijn Rasser et Kevin Wolf– plaidant en leur faveur – a noté que de tels contrôles constituent un « risque calculé » dans la mesure où ils pourraient augmenter le « potentiel de percées dans l’IA qui comblent certaines des lacunes de l’apprentissage profond… en poursuivant ce qu’on appelle l’IA hybride », faisant référence à Neuro- IA symbolique.

La critique était pertinente, mais tardive. BIGAI a été créé pour aller au-delà de l’apprentissage automatique en 2020, bien avant l’élargissement de la liste de contrôles à l’exportation de l’administration Biden. L’Australie et l’Inde, pour leur part, reconnaissent l’importance de la recherche sur l’IA hybride tout en entretenant des relations comparativement plus harmonieuses avec les États-Unis.

Le recours aux contrôles à l’exportation pour renforcer l’avance américaine en matière d’IA dans certains pays sous-champs de l’IA – notamment dans le traitement du langage naturel – place effectivement les États-Unis dans la deuxième vague, actuellement dominante, de l’IA (apprentissage automatique statistique). Le piège de cet enracinement est que, quels que soient les avantages qu’elle rapporte à l’industrie et à la défense américaines à court et moyen termes, l’avenir à long terme de l’IA pourrait appartenir aux États qui adoptent une voie plus active et délibérée au-delà de l’apprentissage automatique. Le recours à la restriction de l’accès aux outils informatiques avancés et aux travailleurs est donc insuffisant pour que les États-Unis conservent leur domination sur l’IA.

Un effort concerté pour harmoniser la recherche à la fois au niveau national et avec des partenaires internationaux sélectionnés dans un paradigme émergent comme l’IA neuro-symbolique est nécessaire.

Préserver et étendre la domination américaine de l’IA

Il existe des preuves provisoires selon lesquelles les décideurs politiques américains comprennent la nécessité de s'engager dans les efforts nationaux d'IA des États partenaires, y compris ceux dont liens avec la Chine se sont rapprochés plus étroitement que ne le permettait le confort. Un bon exemple est celui de Microsoft accord récent investir 1,5 milliard de dollars dans le conglomérat d’IA G42 basé à Abu Dhabi, précédé de négociations avec l’administration Biden. Mohammed Soliman du Middle East Institute, dans un rapport d'avril 2024 témoignage au Commission d'examen économique et de sécurité entre les États-Unis et la Chineaffirme qu’il s’agit en partie d’une franche reconnaissance du fait que des États comme les Émirats arabes unis ont l’intention de devenir des leaders en matière d’IA.

Cette reconnaissance ne représente toutefois qu’une partie des efforts nécessaires déployés par les décideurs politiques américains. Une grande partie de la deuxième vague de recherche fondamentale sur l'IA se déroule dans le secteur privé, où des entreprises comme Google et OpenAI franchi de nouvelles étapes dans le traitement du langage naturel. Microsoft, dans son Partenariat avec OpenAI – et maintenant aussi avec G42 – on ne peut pas s'attendre à ce qu'ils prennent les mesures nécessaires pour sécuriser de nouvelles techniques pour l'IA de troisième vague qui prennent en charge des applications à enjeux élevés lors d'une course aux armements en matière d'IA d'entreprise sur l'IA générative.

Une action cohérente du gouvernement américain doit donc être entreprise pour équilibrer la balance, notamment en harmonisant et en élargissant les initiatives existantes.

Un modèle utile est le partenariat du ministère de la Défense en 2023 avec la National Science Foundation pour financer le Institut d'IA pour l'intelligence artificielle et naturelle (ARNI). Le Partenariat aide à financer un effort visant à relier « les progrès majeurs réalisés dans les systèmes (d’IA) à la révolution dans notre compréhension du cerveau ». L'interdisciplinarité de l'ARNI fait écho à un chœur de voix sur les fruits potentiels de l'IA Neuro-Symbolique : c'est inspiré par la capacité de l'esprit humain à raisonner, à faire des analogies et à s'engager dans une planification à long terme, en mettant l'accent sur la construction d'algorithmes prenant en charge des applications explicables ; il offre potentiellement «garanties de performance« absent du deep learning ; et il propose adaptabilité pas vu dans l’apprentissage profond. Les décideurs politiques peuvent donc se tourner vers l'ARNI recherche interdisciplinaire et un programme de financement comme exemple de recherches futures adaptées aux besoins de l'IA de troisième vague.

En outre, des acteurs industriels plus petits mais tournés vers l’avenir devraient être impliqués. Il s'agit notamment d'entreprises comme Symbolique car son équipe vise à tirer parti d'une branche appliquée de mathématiques construire un modèle explicable capable de raisonner de manière structurée avec moins de données d'entraînement et de puissance de calcul et Versets IA dont le scientifique en chef Karl Friston dit l'entreprise « vise à proposer des modèles 99 % plus petits » sans sacrifier la qualité. De tels travaux pourraient contribuer aux fondements de la troisième vague d’IA.

Enfin, les États-Unis devraient recruter de manière sélective leurs partenariats pour promouvoir la recherche sur l’IA hybride ciblant les déficiences des modèles d’IA contemporains. Notamment, la montée de «minilatéraux« comme le Dialogue quadrilatéral sur la sécurité et AUKUS facilitent la coopération sur les technologies émergentes. Même s’il faut faire preuve de retenue pour empêcher que les technologies avancées ne tombent entre des mains adverses, les États-Unis devraient envisager des initiatives ciblant des domaines spécifiques de la recherche sur l’IA hybride, d’autant plus que des partenariats comme AUKUS envisagent la participation d’entreprises. Japon dans (au moins) les activités du Pilier II et comme Corée du Sud pèse en partageant sa technologie militaire avancée.

L’Amérique, si elle souhaite faire plus que simplement conserver son avantage concurrentiel dans la deuxième vague de l’IA, doit prendre ces mesures pour créer et exploiter sa troisième vague.

Vincent J. Carchidi est chercheur non-résident au programme de technologies stratégiques et de cybersécurité du Middle East Institute. Il est également membre de l'initiative NextGen 2024 de Foreign Policy for America. Ses opinions sont les siennes. Vous pouvez le suivre LinkedIn et X.

SciTechDaily

De superbes aurores illuminent la nuit pendant une tempête géomagnétique épique

SciTechDaily

Le mythe du masque brisé ? Une nouvelle recherche révèle que le port de masques faciaux n’a pas réduit le risque d’infection au COVID après la première vague Omicron