in

Le gouvernement américain veut aller «All In» sur l'IA. Il y a de grands risques

Le gouvernement américain veut aller «All In» sur l'IA. Il y a de grands risques

Dans le cadre d'un plan d'action nouvellement publié pour l'intelligence artificielle, la technologie sera intégrée dans les fonctions du gouvernement américain. Le plan, annoncé le 23 juillet, est une autre étape de la poussée de l'administration Trump pour une «stratégie IA-First».

En juillet, par exemple, le ministère américain de la Défense a remis 200 millions de dollars de contrats à Anthropic, Google, OpenAI et XAI. Le XAI d'Elon Musk a annoncé «Grok for Guricol», où les agences fédérales peuvent acheter des produits d'IA par le biais de la General Services Administration. Et tout ce qui vient après des mois de rapports que le groupe consultatif a appelé le ministère de l'efficacité du gouvernement a eu accès aux données personnelles, aux informations sur la santé, aux informations fiscales et autres données protégées contre divers ministères, y compris le Département du Trésor et les affaires anciens. L'objectif est de tout agréger dans une base de données centrale.

Mais les experts s'inquiètent des risques potentiels de confidentialité et de cybersécurité de l'utilisation d'outils d'IA sur de telles informations sensibles, en particulier en tant que garde-corps de précaution, tels que la limitation qui peut accéder à certains types de données, sont desserrés ou ignorés.

Pour comprendre les implications de l'utilisation d'outils d'IA pour traiter la santé, les données financières et autres Nouvelles scientifiques Selon Bo Li, un expert en IA et en sécurité de l'Université de l'Illinois Urbana-Champaign, et Jessica Ji, un expert en IA et en cybersécurité au Center for Security et Emerging Technology de l'Université de Georgetown à Washington, DC, cette interview a été éditée pour la durée et la clarté.

SN: Quels sont les risques d'utiliser des modèles d'IA sur des données privées et confidentielles?

Li: Le premier est la fuite de données. Lorsque vous utilisez des données sensibles pour former ou affiner le modèle, il peut mémoriser les informations. Supposons que vous ayez des données sur les patients formées au modèle et que vous interrogez le modèle demandant combien de personnes ont une maladie particulière, le modèle peut y répondre exactement ou peut fuir les informations qui [a specific] la personne a cette maladie. Plusieurs personnes ont montré que le modèle peut même fuir les numéros de carte de crédit, les adresses e-mail, votre adresse résidentielle et d'autres informations sensibles et personnelles.

Deuxièmement, si les informations privées sont utilisées dans la formation du modèle ou en tant qu'informations de référence pour la génération de la récupération, le modèle pourrait utiliser ces informations pour d'autres inférences [such as tying personal data together].

SN: Quels sont les risques associés à la consolidation des données de différentes sources en un seul ensemble de données?

Ji: Lorsque vous avez des données consolidées, vous faites simplement une cible plus grande pour les pirates contradictoires. Plutôt que d'avoir à pirater quatre agences différentes, ils peuvent simplement cibler votre source de données consolidée.

Dans le contexte américain, auparavant, certaines organisations ont évité de combiner, par exemple, des informations personnellement identifiables et liant le nom et l'adresse de quelqu'un avec les conditions de santé qu'ils peuvent avoir.

En consolidant les données gouvernementales pour former des systèmes d'IA, il existe des risques de confidentialité majeurs qui y sont associés. L'idée que vous pouvez établir des liens statistiques entre certaines choses dans un ensemble de données important, contenant en particulier des informations sensibles telles que les informations financières et médicales et de santé, porte simplement des libertés civiles et des risques de confidentialité assez abstraits. Certaines personnes seront affectées négativement, mais elles peuvent ne pas être en mesure de lier les impacts à ce système d'IA.

SN: Quelles cyberattaques sont possibles?

Li: Une attaque d'adhésion est une, ce qui signifie que si vous avez un modèle formé avec des données sensibles, en interrogeant les modèles, vous voulez savoir, essentiellement l'adhésion, si une personne en particulier est dans ce [dataset] ou non.

Le deuxième est l'attaque d'inversion du modèle, dans laquelle vous récupérez non seulement les membres mais aussi l'instance totale des données de formation. Par exemple, il y a une personne avec un dossier de son âge, de son nom, de son adresse e-mail et de son numéro de carte de crédit, et vous pouvez récupérer l'ensemble des enregistrements à partir des données de formation.

Ensuite, l'attaque de vol du modèle signifie que vous volez réellement les poids du modèle [or parameters]et vous pouvez récupérer le modèle [and can leak additional data].

SN: Si le modèle est sécurisé, serait-il possible de contenir le risque?

Li: Vous pouvez sécuriser le modèle de certaines manières, comme en formant un modèle de garde-corps, qui identifie les informations sensibles dans l'entrée et la sortie et essaie de les filtrer, en dehors du modèle principal en tant que pare-feu d'IA. Ou il existe des stratégies pour former le modèle pour oublier les informations, ce qui est appelé désapprentissage. Mais il ne résout finalement pas le problème car, par exemple, le désapprentissage peut nuire aux performances et ne peut pas non plus garantir que vous désapprendez certaines informations. Et pour les modèles de garde-corps, nous aurons besoin de garde-corps de plus en plus forts pour toutes sortes d'attaques diverses et de fuites d'informations sensibles. Je pense donc qu'il y a des améliorations du côté de la défense, mais pas encore une solution.

SN: Quelles seraient vos recommandations pour l'utilisation de l'IA avec des données sensibles, publiques et gouvernementales?

Ji: Prioriser la sécurité et la réflexion sur les risques et les avantages et s'assurer que vos processus de gestion des risques existants peuvent s'adapter à la nature des outils d'IA.

Ce que nous avons entendu de diverses organisations à la fois au sein du gouvernement et du secteur privé, c'est que vous avez une très forte messagerie descendante de votre PDG ou de votre chef d'agence pour adopter immédiatement les systèmes d'IA pour suivre les rivaux. Ce sont les personnes qui sont basses qui sont chargées de mettre en œuvre réellement les systèmes d'IA et, souvent, ils sont soumis à beaucoup de pression pour faire appel aux systèmes très rapidement sans réfléchir aux ramifications.

Li: Chaque fois que nous utilisons le modèle, nous devons le coupler avec un modèle de garde-corps comme étape de défense. Peu importe à quel point il est bon ou mauvais, au moins vous devez obtenir un filtre afin que nous puissions offrir une certaine protection. Et nous devons continuer à faire équipe rouge [with ethical hackers to assess weaknesses] Pour ces types d'applications et de modèles afin que nous puissions découvrir de nouvelles vulnérabilités au fil du temps.

SN: Quels sont les risques de cybersécurité d'utiliser l'IA?

Ji: Lorsque vous introduisez ces modèles, il existe un risque basé sur les processus où vous, en tant qu'organisation, avez moins de contrôle, de visibilité et de compréhension de la façon dont les données sont diffusées par vos propres employés. Si vous n'avez pas de processus en place qui, par exemple, interdit aux gens d'utiliser un chatbot AI commercial, vous n'avez aucun moyen de savoir si vos travailleurs mettent des parties de votre base de code dans un modèle commercial et demandez une assistance au codage. Ces données pourraient potentiellement être exposées si le chatbot ou la plate-forme qu'ils utilisent a des politiques qui disent qu'ils peuvent ingérer vos données d'entrée à des fins de formation. Donc, ne pas pouvoir suivre cela crée beaucoup de risques et d'ambiguïtés.

Chaleur, stress végétal et ozone: comment le changement climatique modifie l'air

Chaleur, stress végétal et ozone: comment le changement climatique modifie l'air

Une vue profonde d'Abell 3667 illumine le passé d'un groupe de galaxies et l'avenir de l'imagerie astronomique