Comment OpenAI veut lutter contre les fake news pour les élections de 2024
Le créateur de ChatGPT, OpenAI, a annoncé qu'il introduirait des outils pour lutter contre la désinformation avant les dizaines d'élections de cette année dans des pays qui abritent la moitié de la population mondiale.
Le succès sans précédent du générateur de texte ChatGPT a déclenché une révolution mondiale de l'intelligence artificielle, mais a également déclenché des avertissements selon lesquels de tels outils pourraient inonder Internet et le monde de désinformation et influencer les électeurs.
Alors que des élections sont prévues cette année dans des pays comme les États-Unis, l'Inde, l'Europe et la Grande-Bretagne, OpenAI a déclaré lundi qu'elle n'autoriserait pas l'utilisation de sa technologie, notamment ChatGPT et le générateur d'images DALL-E 3, pour des campagnes politiques.
"Nous voulons nous assurer que notre technologie ne soit pas utilisée d'une manière qui pourrait nuire" au processus démocratique, a déclaré OpenAI dans un article de blog.
"Nous travaillons toujours à comprendre dans quelle mesure nos outils pourraient être efficaces pour la persuasion personnalisée", ajoute-t-il.
"Jusqu'à ce que nous en sachions plus, nous n'autorisons pas les gens à créer des applications à des fins de campagne politique et de lobbying."
La désinformation et la mésinformation provoquées par l'IA constituent les plus grands risques mondiaux à court terme et pourraient nuire aux gouvernements nouvellement élus dans les principales économies, a averti le Forum économique mondial dans un rapport publié la semaine dernière.
Les craintes concernant la désinformation électorale ont commencé il y a des années, mais la disponibilité publique de puissants générateurs de texte et d'images basés sur l'IA a accru la menace, disent les experts, surtout si les utilisateurs ne peuvent pas facilement savoir si le contenu qu'ils voient est faux ou manipulé.
OpenAI a déclaré lundi qu'il travaillait sur des outils qui attribueraient une attribution fiable au texte généré par ChatGPT, et donneraient également aux utilisateurs la possibilité de détecter si une image a été créée à l'aide de DALL-E 3.
"Au début de cette année, nous mettrons en œuvre les informations d'identification numériques de la Coalition pour la provenance et l'authenticité du contenu, une approche qui code les détails sur la provenance du contenu à l'aide de la cryptographie", a indiqué la société.
La coalition, également connue sous le nom de C2PA, vise à améliorer les méthodes d'identification et de traçage des contenus numériques. Ses membres comprennent Microsoft, Sony, Adobe et les sociétés d'imagerie japonaises Nikon et Canon.
OpenAI a déclaré que ChatGPT, lorsqu'on lui poserait des questions de procédure sur les élections américaines, comme par exemple où voter, dirigerait les utilisateurs vers des sites Web faisant autorité.
"Les leçons tirées de ce travail éclaireront notre approche dans d'autres pays et régions", a déclaré la société.
Il a ajouté que DALL-E 3 dispose de " garde-fous " qui empêchent les utilisateurs de générer des images de personnes réelles, y compris de candidats.
L'annonce d'OpenAI fait suite aux mesures révélées l'année dernière par les géants américains de la technologie, Google et Meta, la société mère de Facebook, visant à limiter l'interférence électorale, notamment grâce à l'utilisation de l'IA.
L'AFP a déjà démystifié des deepfakes - des vidéos falsifiées - montrant le président américain Joe Biden annonçant une conscription militaire et l'ancienne secrétaire d'État Hillary Clinton soutenant le gouverneur de Floride Ron DeSantis à la présidence.
Des images et des enregistrements audio falsifiés de politiciens ont circulé sur les réseaux sociaux avant l'élection présidentielle de ce mois-ci à Taiwan, a constaté l'AFP Fact Check.
Bien qu'une grande partie de ce contenu soit de mauvaise qualité et qu'il ne soit pas immédiatement clair s'il a été créé avec des applications d'IA, les experts affirment que la désinformation alimente une crise de confiance dans les institutions politiques.
© Copyright AFP 2024. All rights reserved.