in

Un dispositif matériel avancé réduit la consommation d'énergie de l'IA par 1000

SciTechDaily

Les chercheurs de l'Université du Minnesota ont présenté une innovation matérielle appelée CRAM, réduisant la consommation d'énergie de l'IA jusqu'à 2 500 fois en traitant les données en mémoire, promettant des avancées significatives dans l'efficacité de l'IA.

Cet appareil pourrait réduire d’au moins 1 000 fois la consommation énergétique de l’intelligence artificielle.

Des chercheurs en ingénierie de l'Université du Minnesota Twin Cities ont développé un dispositif matériel avancé qui pourrait réduire la consommation d'énergie dans intelligence artificielle (IA) les applications informatiques d’au moins un facteur 1 000.

La recherche est publiée dans npj Informatique non conventionnelleune revue scientifique à comité de lecture publiée par Nature. Les chercheurs possèdent plusieurs brevets sur la technologie utilisée dans l'appareil.

Face à la demande croissante d’applications d’IA, les chercheurs ont cherché des moyens de créer un processus plus économe en énergie, tout en maintenant des performances élevées et des coûts faibles. Généralement, les processus d’intelligence artificielle ou de machine transfèrent des données entre la logique (où les informations sont traitées au sein d’un système) et la mémoire (où les données sont stockées), consommant ainsi une grande quantité d’énergie.

Introduction à la technologie CRAM

Une équipe de chercheurs du Collège des sciences et de l'ingénierie de l'Université du Minnesota a démontré un nouveau modèle dans lequel les données ne quittent jamais la mémoire, appelé mémoire vive computationnelle (CRAM).

« Ce travail est la première démonstration expérimentale de CRAM, où les données peuvent être traitées entièrement dans la matrice de mémoire sans avoir besoin de quitter la grille où un ordinateur stocke les informations », a déclaré Yang Lv, chercheur postdoctoral du département de génie électrique et informatique de l'Université du Minnesota et premier auteur de l'article.

Mémoire vive computationnelle

Un dispositif matériel conçu sur mesure devrait permettre à l'intelligence artificielle d'être plus économe en énergie. Crédit : Université du Minnesota Twin Cities

L'Agence internationale de l'énergie (AIE) a publié une prévisions de la consommation énergétique mondiale en mars 2024, prévoyait que la consommation énergétique de l'IA devrait doubler, passant de 460 térawattheures (TWh) en 2022 à 1 000 TWh en 2026. Cela équivaut à peu près à la consommation d'électricité de l'ensemble du Japon.

Selon les auteurs du nouveau document, un système basé sur CRAM apprentissage automatique On estime que l'accélérateur d'inférence permet une amélioration de l'ordre de 1 000. Un autre exemple a montré des économies d'énergie de 2 500 et 1 700 fois par rapport aux méthodes traditionnelles.

Evolution de la recherche

Cette recherche a nécessité plus de deux décennies de travail,

« Notre concept initial d'utiliser des cellules mémoire directement pour le calcul il y a 20 ans était considéré comme fou », a déclaré Jian-Ping Wang, auteur principal de l'article et professeur distingué McKnight et titulaire de la chaire Robert F. Hartmann au département de génie électrique et informatique de l'université du Minnesota.

« Avec un groupe d'étudiants en constante évolution depuis 2003 et une équipe de professeurs véritablement interdisciplinaire constituée à l'Université du Minnesota – de la physique, de la science et de l'ingénierie des matériaux, de l'informatique et de l'ingénierie à la modélisation et à l'analyse comparative, et à la création de matériel – nous avons pu obtenir des résultats positifs et avons maintenant démontré que ce type de technologie est réalisable et prêt à être intégré dans la technologie », a déclaré Wang.

Cette recherche fait partie d'un effort cohérent et de longue date s'appuyant sur les recherches révolutionnaires et brevetées de Wang et de ses collaborateurs sur les dispositifs à jonctions tunnel magnétiques (MTJ), qui sont des dispositifs nanostructurés utilisés pour améliorer les disques durs, les capteurs et d'autres systèmes microélectroniques, y compris la mémoire vive magnétique (MRAM), qui a été utilisée dans des systèmes embarqués tels que les microcontrôleurs et les montres intelligentes.

L'architecture CRAM permet le véritable calcul dans et par la mémoire et brise le mur entre le calcul et la mémoire comme goulot d'étranglement dans l'architecture traditionnelle de von Neumann, une conception théorique pour un ordinateur à programme stocké qui sert de base à presque tous les ordinateurs modernes.

« En tant que substrat informatique numérique en mémoire extrêmement économe en énergie, la CRAM est très flexible dans la mesure où le calcul peut être effectué à n’importe quel endroit de la matrice mémoire. En conséquence, nous pouvons reconfigurer la CRAM pour qu’elle réponde au mieux aux besoins de performance d’un ensemble diversifié d’algorithmes d’IA », a déclaré Ulya Karpuzcu, experte en architecture informatique, co-auteure de l’article et professeure agrégée au département de génie électrique et informatique de l’université du Minnesota. « Elle est plus économe en énergie que les blocs de construction traditionnels des systèmes d’IA actuels. »

CRAM effectue les calculs directement dans les cellules mémoire, en utilisant efficacement la structure du réseau, ce qui élimine le besoin de transferts de données lents et gourmands en énergie, a expliqué Karpuzcu.

La mémoire vive à court terme (RAM) la plus efficace utilise quatre ou cinq transistors pour coder un ou zéro, mais une MTJ, un dispositif spintronique, peut effectuer la même fonction avec une fraction de l'énergie, avec une vitesse plus élevée et résiste aux environnements difficiles. Les dispositifs spintroniques exploitent le spin des électrons plutôt que la charge électrique pour stocker les données, offrant une alternative plus efficace aux puces traditionnelles à base de transistors.

Actuellement, l’équipe prévoit de travailler avec les leaders de l’industrie des semi-conducteurs, notamment ceux du Minnesota, pour fournir des démonstrations à grande échelle et produire le matériel nécessaire pour faire progresser les fonctionnalités de l’IA.

En plus de Lv, Wang et Karpuzcu, l'équipe comprenait les chercheurs du département de génie électrique et informatique de l'université du Minnesota, Robert Bloom et Husrev Cilasun ; le professeur distingué McKnight et titulaire de la chaire Robert et Marjorie Henle, Sachin Sapatnekar ; et les anciens chercheurs postdoctoraux Brandon Zink, Zamshed Chowdhury et Salonik Resch ; ainsi que des chercheurs de l'université d'Arizona : Pravin Khanal, Ali Habiboglu et le professeur Weigang Wang

Ce travail a été soutenu par des subventions de l'Agence américaine pour les projets de recherche avancée de défense (DARPA), le National Institute of Standards and Technology (NIST), la National Science Foundation (NSF) et Cisco Inc. Des recherches portant notamment sur la modélisation de nanodispositifs ont été menées en collaboration avec le Minnesota Nano Center et des travaux de simulation/calcul ont été réalisés avec le Minnesota Supercomputing Institute de l'Université du Minnesota.

SciTechDaily

Le jumeau de Jupiter ? Le télescope Webb dévoile un sosie givré à seulement 12 années-lumière

SciTechDaily

Chaos climatique : de nouvelles recherches suggèrent que les humains sont à l'origine de changements sans précédent dans les régimes de précipitations