J'ai passé énormément de temps ces derniers temps à regarder du contenu créé par l'IA. J'ai regardé d'innombrables vidéos générées par l'IA sur des choses comme Will Smith et Donald Trump manger des spaghettis ensembleJ'ai vu des photos créées par l'IA de personnes donnant Conférences TED qui ne sont pas réellement réels. J'ai lu et écouté des histoires produites par l'IA qui sont devenues virales sur TikTok. Tout ce contenu est généré par des algorithmes qui deviennent plus sophistiqués de jour en jour, parfois même d'heure en heure. Et pour moi, le consommer relève en partie de la curiosité professionnelle, en partie de la fascination morbide et en partie du domaine que je me suis engagé à couvrir pour pouvoir comprendre l'avenir et la façon dont nous allons tous y vivre.
J'ai eu un aperçu effrayant de cet avenir récemment lorsque la nouvelle a éclaté que Trump avait accusé Kamala Harris d'utiliser l'IA pour simuler la foule de son rassemblement du Michigan à l'aéroport métropolitain de Détroit. Mon premier réflexe lorsque j'ai regardé l'image sur mon ordinateur de la foule massive n'était pas le scepticisme mais une véritable incertitude. En me penchant en avant pour me rapprocher de l'écran, j'ai vraiment a fait je me demande si l'image a été faite par une IA.
Il ne m’a pas fallu longtemps pour comprendre que ce n’était pas un faux. Les vérificateurs de faits et les médias ont confirmé la présence de 15 000 personnes à l’aéroport de Detroit. Mais mon doute initial a révélé un effet secondaire inquiétant de notre nouveau monde saturé d’IA : une fois que vous commencez à vivre dans le monde de l’IA, votre cerveau commence à tout remettre en question, que cela vous plaise ou non. Vous commencez à avoir le soupçon que même les images les plus simples sont effectivement fausses.
Le cycle électoral de 2024 a marqué un tournant dans l’utilisation de l’IA à des fins de manipulation politique. Nous avons assisté à un défilé inquiétant de tromperies numériques qui ne sont pas si différentes de l’ère post-vérité que nous avons connue en 2016, mais cette fois-ci, plus confuses et souvent plus terrifiantes. En janvier, par exemple, des appels automatisés générés par l’IA ont utilisé un deepfake du président Joe BidenLa voix de l'IA visant les électeurs du New Hampshire, les exhortant faussement à s'abstenir lors des primaires démocrates – une démonstration effrayante du potentiel de l'IA à créer du contenu audio convaincant mais entièrement fabriqué. Il y a aussi eu le flot constant de contenu IA sur les plateformes de médias sociaux, y compris des images de Taylor Swift soutenant Trump (elle ne l'a pas soutenu), des vidéos de rassemblements politiques avec des foules qui étaient en fait, ils sont manipulés, et les mèmes représentent des personnages politiques dans des scénarios fictifs (comme Trump tenant une arme tout en portant un pull orange, ou Biden faisant la même chose dans un fauteuil roulant).
Les contenus créés numériquement étaient partout, avec des clips audio générés par l’IA circulant sur TikTok, affirmant que Biden menaçait d’attaquer le Texas, une image de Harris lors d’un rassemblement de style communiste et des messages indiquant que des personnalités importantes soutenaient des candidats qu’elles n’avaient pas. À un moment donné, la Maison Blanche a dû intervenir, confirmant que l’audio de Biden menaçant d’attaquer le Texas était faux. Pendant ce temps, Le New York Times a été contraint de publier récemment une déclaration affirmant qu’il n’avait pas « publié un article légitimant une fausse affirmation selon laquelle la vice-présidente Kamala Harris était membre du Parti communiste ».
Même les tentatives d'exploiter l'IA à des fins de campagne apparemment légitimes ont soulevé des préoccupations éthiques, comme en témoigne un super PAC soutenant Doyen PhillipsL'échec de la campagne présidentielle de Trump a conduit à la création d'un bot interactif basé sur l'IA et utilisant la technologie d'OpenAI, conçu pour engager les électeurs. La création du bot a finalement conduit OpenAI à suspendre le compte du créateur, invoquant sa politique interdisant l'utilisation de ses outils pour les campagnes politiques et soulignant le paysage éthique complexe entourant le rôle de l'IA dans le discours politique.
Alors que nous réfléchissons aux implications de la première véritable « élection par l’IA », il est clair que nous entrons en territoire inconnu. La frontière entre réalité et fiction s’estompe à une vitesse alarmante. Mais ce cycle électoral n’est pas le pire des scénarios ; il est le signe avant-coureur de ce qui nous attend. D’ici les élections de mi-mandat de 2026, l’IA sera tellement avancée que, entre les mains des bonnes (ou des mauvaises) personnes, elle sera capable de générer du contenu vidéo hyperréaliste, qui pourrait être utilisé pour créer des récits politiques personnalisés adaptés au profil psychologique de chaque électeur, en s’appuyant à la fois sur vos plus grandes peurs et sur vos désirs les plus profonds.
En effet, la prochaine vague d’avancées de l’IA est sur le point de remodeler les élections futures d’une manière qui pourrait sembler aussi surréaliste aujourd’hui que l’était la vidéo IA il y a dix ans. Les agents IA, qui sont des programmes autonomes capables de prendre des décisions et d’interagir avec les humains de manière de plus en plus autonome et sophistiquée, devraient devenir la prochaine itération de cette technologie. Et même s’ils seront au départ assez inoffensifs – pensez à des assistants IA qui gèrent votre calendrier et vos e-mails, ou à des agents de voyage IA qui réserveront des voyages pour vous et votre famille, ou à un thérapeute IA disponible 24 heures sur 24 pour vous aider à résoudre vos problèmes de santé mentale – ces agents seront évidemment (et assez rapidement) utilisés de manière négative, en particulier pendant les cycles électoraux.
Par exemple, ils pourraient être utilisés pour nous cibler individuellement en fonction de nos biomarqueurs. Désolé, j'ai oublié de mentionner que les IA auront bientôt plus d'informations sur nous au niveau biologique, y compris sur notre santé et notre comportement. Pourquoi? Vous vous demandez peut-être. Parce que vous leur donnerez ces informations par le biais d’applications et de programmes avec lesquels vous interagissez ou avec lesquels vous interagissez déjà. Par exemple, lorsque vous demandez à une IA des informations sur un médicament que vous prenez, ou que vous lui demandez des idées de recettes pour le dîner, ou que vous lui posez des questions sur une maladie, elle connaît désormais toutes ces informations sur vous. Plus elle obtient d’informations, plus ces IA comprendront les préférences des électeurs avec une précision sans précédent. Cela signifie que les campagnes politiques pourraient adapter leurs messages non seulement à votre historique de vote, mais aussi à vos réactions physiques, mesurées par les changements de rythme cardiaque ou de conductance cutanée grâce à une caméra, comme le MIT a pu le faire dans des laboratoires de recherche, via votre téléphone ou votre télévision lorsque vous consommez des médias, ou simplement par les informations que vous saisissez sur votre ordinateur. (N’oubliez pas : chaque fois que vous écrivez une invite à une IA, elle apprend quelque chose sur vous.)
Vous n’avez pas encore peur ? Attendez de voir comment la technologie deepfake deviendra encore plus sophistiquée. Nous pourrions bientôt être confrontés à une réalité où les vidéos générées par l’IA seront impossibles à distinguer des séquences authentiques, ce qui permettra la création de contenu politique synthétique susceptible d’influencer même les électeurs les plus exigeants. Et si vous pensez que l’IA sera capable de détecter d’autres IA, il suffit de regarder ce qui s’est passé avec le texte l’année dernière : lorsque ChatGPT a fait ses débuts en novembre 2022, la technologie de détection de l’IA pouvait distinguer ce qui était fait par une IA de ce qui était fait par un être humain avec une précision de 95 %. Mais à mesure que les modèles d’IA sont devenus plus sophistiqués, la précision de ces outils de détection est tombée à 39,5 %. Bientôt, ce chiffre devrait chuter à près de zéro.
Le scénario cauchemardesque pour les prochaines élections est celui où toutes ces technologies se fondent essentiellement comme le T-1000 Terminator 2 Après qu'il se soit transformé en métal liquide, nous serons confrontés à un paysage électoral dans lequel des agents d'IA, armés de nos données biographiques et de nos profils psychologiques, créeront en temps réel des contenus hyper-personnalisés et truqués spécifiquement pour vous. Ces Détraqueurs numériques changeants de forme pourraient adapter leur message à la volée, passant d'un présentateur de nouvelles de confiance à votre célébrité préférée, tout en adaptant leurs mots à vos désirs et peurs subconscients. Ils sauront quand vous êtes le plus susceptible d'être persuadé en fonction des requêtes que vous tapez dans votre IA préférée – ou à laquelle vous parlez à ce moment-là. Ils le sauront également en fonction de vos habitudes de sommeil et, bien sûr, de votre bon vieux historique de navigation. Ils seront probablement même capables de prédire votre comportement de vote avant que vous n'ayez pris votre propre décision.
Nous, simples humains, n'aurons aucune chance de distinguer la réalité de la fiction. Nous vivrons dans un état d'incertitude perpétuelle, où chaque élément d'information politique que nous rencontrerons pourrait être une illusion soigneusement élaborée destinée à manipuler nos croyances et nos comportements. Et oui, il y a une et— il ne s’agit pas d’un futur dystopique lointain. C’est le monde vers lequel nous nous dirigeons à toute allure, et des dizaines de millions d’entre nous ont le pied sur l’accélérateur. Si vous pensez que vous pourrez passer outre les méthodes astucieuses de l’IA, croyez-moi, vu ce que j’ai ressenti après avoir remis en question la photo du rassemblement de Kamala Harris : cette incapacité passagère à faire confiance à mes propres yeux était incroyablement déstabilisante. Bientôt, ce ne sera plus un oubli momentané, ce sera notre réalité constante. Et je peux vous assurer, par expérience personnelle, que vivre dans un monde où l’on ne peut pas faire confiance à sa propre perception est aussi troublant que cela en a l’air.