in

Une nouvelle recherche met en garde : l’IA doit être mieux comprise et gérée

SciTechDaily

Un nouvel article discute du rôle complexe de l’IA dans la société, soulignant son potentiel à la fois bénéfique et néfaste. Il explore la contribution de l’IA à la sécurité nationale, son rôle dans l’exacerbation des problèmes sociétaux tels que la radicalisation et la polarisation, ainsi que l’importance de comprendre et de gérer ses risques. Crédit : Issues.fr.com

L’intelligence artificielle (IA) et les algorithmes ont la capacité et sont actuellement utilisés pour exacerber la radicalisation, renforcer la polarisation et propager le racisme et l’instabilité politique, selon un universitaire de l’Université de Lancaster.

Joe Burton, professeur de sécurité internationale à l’Université de Lancaster, affirme que l’IA et les algorithmes sont plus que de simples outils utilisés par les agences de sécurité nationale pour contrecarrer les activités malveillantes en ligne. Il suggère qu’ils peuvent également alimenter la polarisation, le radicalisme et la violence politique, devenant ainsi eux-mêmes une menace pour la sécurité nationale.

En outre, dit-il, les processus de sécurisation (présentant la technologie comme une menace existentielle) ont joué un rôle déterminant dans la manière dont l’IA a été conçue, utilisée et dans les résultats néfastes qu’elle a générés.

L’IA dans la titrisation et son impact sociétal

L’article du professeur Burton a été récemment publié dans la revue à fort impact d’Elsevier La technologie dans la société Journal.

« L’IA est souvent présentée comme un outil destiné à lutter contre l’extrémisme violent », explique le professeur Burton. « Voici l’autre côté du débat. »

L’article examine comment l’IA a été sécurisée tout au long de son histoire, ainsi que dans les représentations médiatiques et de la culture populaire, et en explorant des exemples modernes d’IA ayant des effets polarisants et radicalisants qui ont contribué à la violence politique.

L’IA dans la guerre et la cybersécurité

L’article cite la série de films classiques, The Terminator, qui dépeint un holocauste commis par une intelligence artificielle « sophistiquée et maligne », comme faisant plus que tout pour encadrer la prise de conscience populaire de l’intelligence artificielle et la crainte que la conscience machine puisse entraîner des conséquences dévastatrices pour l’humanité – en l’occurrence une guerre nucléaire et une tentative délibérée d’exterminer un espèces.

« Ce manque de confiance dans les machines, les peurs qui leur sont associées et leur association avec des menaces biologiques, nucléaires et génétiques pour l’humanité ont contribué à la volonté des gouvernements et des agences de sécurité nationale d’influencer le développement de la technologie, pour atténuer les risques et (dans certains cas) exploiter son potentiel positif », écrit le professeur Burton.

Selon le professeur Burton, les drones sophistiqués, tels que ceux utilisés dans la guerre en Ukraine, sont désormais capables d’une autonomie totale, y compris de fonctions telles que l’identification et la reconnaissance de cibles.

Et, bien qu’il y ait eu un vaste et influent débat de campagne, y compris à l’ONU, pour interdire les « robots tueurs » et tenir les humains au courant des décisions de vie ou de mort, l’accélération et l’intégration dans Les drones armés se sont, dit-il, poursuivis à un rythme soutenu.

Dans le domaine de la cybersécurité – la sécurité des ordinateurs et des réseaux informatiques – l’IA est largement utilisée, le domaine le plus répandu étant la (dés)information et la guerre psychologique en ligne.

Les actions du gouvernement de Poutine contre les processus électoraux américains en 2016 et le scandale Cambridge Analytica qui a suivi ont montré le potentiel de l’IA à être combinée avec le big data (y compris les médias sociaux) pour créer des effets politiques centrés sur la polarisation, l’encouragement des croyances radicales et la manipulation de l’identité. groupes. Cela a démontré le pouvoir et le potentiel de l’IA pour diviser les sociétés.

L’impact sociétal de l’IA pendant la pandémie

Et pendant la pandémie, l’IA a été considérée comme un outil positif pour suivre et tracer les virus mais cela a également suscité des inquiétudes concernant la vie privée et les droits de l’homme.

L’article examine la technologie de l’IA elle-même, en faisant valoir que des problèmes existent dans la conception de l’IA, les données sur lesquelles elle s’appuie, la manière dont elle est utilisée, ainsi que ses résultats et impacts.

Le document se termine par un message fort adressé aux chercheurs travaillant dans le domaine de la cybersécurité et des relations internationales.

« L’IA est certainement capable de transformer les sociétés de manière positive, mais présente également des risques qui doivent être mieux compris et gérés », écrit le professeur Burton, expert en cyberconflits et technologies émergentes et qui fait partie de l’initiative Science de sécurité et de protection de l’université.

« Comprendre les effets de division de la technologie à toutes les étapes de son développement et de son utilisation est clairement vital.

« Les chercheurs travaillant dans le domaine de la cybersécurité et des relations internationales ont la possibilité d’intégrer ces facteurs dans le programme de recherche émergent sur l’IA et d’éviter de traiter l’IA comme une technologie politiquement neutre.

« En d’autres termes, la sécurité des systèmes d’IA et la manière dont ils sont utilisés dans les luttes géopolitiques internationales ne devraient pas l’emporter sur les préoccupations concernant leurs effets sociaux. »

SciTechDaily

Le SLIM Moon Lander du Japon entre sur l’orbite lunaire

SciTechDaily

Le phénomène parfumé : les arbres de Noël et leur effet invisible sur la chimie de l’air intérieur