Les élections américaines 2024 sous la menace de l'IA
Des images fabriquées de l'arrestation de Donald Trump à une vidéo décrivant un avenir dystopique sous Joe Biden, la course à la Maison Blanche en 2024 fait face à un déluge de désinformation technologique dans ce qui est largement présenté comme la première élection américaine sur l'IA.
Les militants des deux côtés de l'allée politique américaine exploitent des outils avancés alimentés par l'intelligence artificielle, que de nombreux experts en technologie considèrent comme une arme à double tranchant.
Les programmes d'IA peuvent cloner en un instant la voix d'une personnalité politique et créer des vidéos et des textes si apparemment réels que les électeurs pourraient avoir du mal à déchiffrer la vérité de la fiction, sapant ainsi la confiance dans le processus électoral.
Dans le même temps, les campagnes utiliseront probablement la technologie pour améliorer l'efficacité opérationnelle dans tous les domaines, depuis l'analyse de la base de données des électeurs jusqu'à la rédaction d'e-mails de collecte de fonds.
Une vidéo publiée en juin par la campagne présidentielle du gouverneur de Floride Ron DeSantis prétendait montrer l'ancien président Trump embrassant Anthony Fauci, l'un des punching-balls républicains préférés tout au long de la pandémie de coronavirus.
Les vérificateurs de l'AFP ont découvert que la vidéo utilisait des images générées par l'IA.
Après que Biden ait officiellement annoncé sa candidature à la réélection, le Parti républicain a publié en avril une vidéo qu'il a qualifiée de " regard généré par l'IA sur l'avenir possible du pays " s'il gagne.
Il montrait des images photoréalistes de la panique à Wall Street, de l'invasion de Taiwan par la Chine, de vagues d'immigrants dépassant les agents frontaliers et d'une prise de contrôle militaire de San Francisco au milieu d'une criminalité effroyable.
D'autres exemples d'images d'IA liés à la campagne incluent de fausses photos de Trump emmené par des policiers de New York et une vidéo de Biden déclarant un projet national pour soutenir l'effort de guerre de l'Ukraine contre la Russie.
"L'IA générative menace de dynamiser les campagnes de désinformation en ligne", a déclaré l'organisation à but non lucratif Freedom House dans un récent rapport, avertissant que la technologie était déjà utilisée pour diffamer les opposants électoraux aux États-Unis.
"Les pourvoyeurs de désinformation utilisent des images, des sons et des textes générés par l'IA, ce qui rend la vérité plus facile à déformer et plus difficile à discerner."
Plus de 50 % des Américains s'attendent à ce que les mensonges générés par l'IA aient un impact sur le résultat des élections de 2024, selon un sondage publié en septembre par le groupe de médias Axios et la société de renseignement économique Morning Consult.
Selon le sondage, environ un tiers des Américains ont déclaré qu'ils feraient moins confiance aux résultats à cause de l'IA.
Dans un environnement politique hyperpolarisé, les observateurs préviennent que de tels sentiments risquent d'alimenter la colère du public contre le processus électoral – un peu comme l'assaut du Capitole américain le 6 janvier 2021 par les partisans de Trump suite à de fausses allégations selon lesquelles les élections de 2020 lui auraient été volées.
"Grâce à des modèles (d'IA) faciles et peu coûteux à utiliser, nous allons être confrontés à un Far West de revendications et de demandes reconventionnelles de campagne, avec une capacité limitée à distinguer les faux des éléments réels et une incertitude quant à la manière dont ces appels affecteront l'élection. " a déclaré Darrell West de la Brookings Institution.
Dans le même temps, les progrès rapides de l'IA en ont également fait une ressource " révolutionnaire " pour comprendre les électeurs et les tendances de campagne à un " niveau très granulaire ", a déclaré Vance Reavie, directeur général de Junction AI.
Le personnel de la campagne comptait auparavant sur des consultants coûteux pour élaborer des plans de sensibilisation et passait des heures à rédiger des discours, des points de discussion et des publications sur les réseaux sociaux, mais l'IA a rendu le même travail possible en une fraction de ce temps, a déclaré Reavie à l'AFP.
Mais soulignant le potentiel d'abus, lorsque l'AFP a ordonné à ChatGPT, basé sur l'IA, de créer un bulletin de campagne en faveur de Trump, en lui alimentant les fausses déclarations de l'ancien président démystifiées par les vérificateurs de faits américains, il a produit - en quelques secondes - une campagne astucieuse.
Lorsque l'AFP a en outre incité le chatbot à rendre la newsletter " plus colérique ", celui-ci a régurgité les mêmes mensonges sur un ton plus apocalyptique.
Les autorités s'efforcent de mettre en place des garde-fous pour l'IA, plusieurs États américains, comme le Minnesota, ayant adopté des lois pour criminaliser les deepfakes visant à nuire aux candidats politiques ou à influencer les élections.
Lundi, Biden a signé un décret ambitieux visant à promouvoir l'utilisation " sûre, sécurisée et digne de confiance " de l'IA.
"Les deep fakes utilisent l'audio et la vidéo générés par l'IA pour salir les réputations... diffuser de fausses nouvelles et commettre des fraudes", a déclaré Biden lors de la signature de l'ordonnance.
Il s'est dit préoccupé par le fait que les fraudeurs pourraient prendre un enregistrement de trois secondes de la voix de quelqu'un pour générer un deepfake audio.
"J'en ai observé un", a-t-il déclaré.
"J'ai dit : 'Quand diable ai-je dit ça ?'"
© Copyright AFP 2024. All rights reserved.