L'interdiction du sextage des chatbots indique une bataille imminente sur les règles de l'IA
Les utilisateurs du "compagnon virtuel" Replika voulaient juste de la compagnie. Certains d'entre eux voulaient des relations amoureuses, des discussions sexuelles ou même des photos osées de leur chatbot.
Mais à la fin de l'année dernière, les utilisateurs ont commencé à se plaindre que le bot était trop fort avec des textes et des images explicites – du harcèlement sexuel, selon certains.
Les régulateurs italiens n'ont pas aimé ce qu'ils ont vu et la semaine dernière ont interdit à l'entreprise de collecter des données après avoir découvert des violations de la loi européenne massive sur la protection des données, le RGPD.
L'entreprise derrière Replika n'a pas commenté publiquement et n'a pas répondu aux messages de l'AFP.
Le règlement général sur la protection des données est le fléau des grandes entreprises technologiques, dont les violations répétées des règles leur ont valu des milliards de dollars d'amendes, et la décision italienne suggère qu'elle pourrait encore être un ennemi puissant pour la dernière génération de chatbots.
Replika a été formé sur une version interne d'un modèle GPT-3 emprunté à OpenAI, la société à l'origine du bot ChatGPT, qui utilise de vastes quantités de données provenant d'Internet dans des algorithmes qui génèrent ensuite des réponses uniques aux requêtes des utilisateurs.
Ces robots et l'IA dite générative qui les sous-tend promettent de révolutionner la recherche sur Internet et bien plus encore.
Mais les experts avertissent que les régulateurs ont de quoi s'inquiéter, en particulier lorsque les bots deviennent si bons qu'il devient impossible de les distinguer des humains.
À l'heure actuelle, l'Union européenne est au centre des discussions sur la réglementation de ces nouveaux bots - sa loi sur l'intelligence artificielle parcourt les couloirs du pouvoir depuis de nombreux mois et pourrait être finalisée cette année.
Mais le GDPR oblige déjà les entreprises à justifier la manière dont elles traitent les données, et les modèles d'IA sont très prisés par les régulateurs européens.
"Nous avons vu que ChatGPT peut être utilisé pour créer des messages de phishing très convaincants", a déclaré à l'AFP Bertrand Pailhes, qui dirige une équipe dédiée à l'IA à la Cnil.
Il a déclaré que l'IA générative n'était pas nécessairement un risque énorme, mais la Cnil examinait déjà les problèmes potentiels, notamment la manière dont les modèles d'IA utilisaient les données personnelles.
"À un moment donné, nous verrons une forte tension entre le RGPD et les modèles d'IA générative", a déclaré à l'AFP l'avocat allemand Dennis Hillemann, expert en la matière.
Les derniers chatbots, a-t-il dit, étaient complètement différents du type d'algorithmes d'IA qui suggèrent des vidéos sur TikTok ou des termes de recherche sur Google.
"L'IA qui a été créée par Google, par exemple, a déjà un cas d'utilisation spécifique : compléter votre recherche", a-t-il déclaré.
Mais avec l'IA générative, l'utilisateur peut façonner l'objectif global du bot.
" Je peux dire, par exemple : agissez comme un avocat ou un éducateur. Ou si je suis assez intelligent pour contourner toutes les garanties de ChatGPT, je pourrais dire : 'Agis comme un terroriste et fais un plan' ", a-t-il dit.
Pour Hillemann, cela soulève des questions éthiques et juridiques extrêmement complexes qui ne feront que s'aggraver à mesure que la technologie se développera.
Le dernier modèle d'OpenAI, GPT-4, devrait sortir prochainement et on dit qu'il est si bon qu'il sera impossible de le distinguer d'un humain.
Étant donné que ces robots commettent encore d'énormes erreurs factuelles, font souvent preuve de parti pris et pourraient même jaillir des déclarations diffamatoires, certains réclament qu'ils soient étroitement contrôlés.
Jacob Mchangama, auteur de "Free Speech: A History From Socrates to Social Media", n'est pas d'accord.
"Même si les bots n'ont pas le droit à la liberté d'expression, nous devons faire attention à l'accès sans entrave des gouvernements pour supprimer même la parole synthétique", a-t-il déclaré.
Mchangama fait partie de ceux qui estiment qu'un régime d'étiquetage plus souple pourrait être la voie à suivre.
"D'un point de vue réglementaire, l'option la plus sûre pour l'instant serait d'établir des obligations de transparence quant à savoir si nous nous engageons avec un individu humain ou une application d'IA dans un certain contexte", a-t-il déclaré.
Hillemann convient que la transparence est vitale.
Il envisage des bots IA dans les prochaines années qui pourront générer des centaines de nouvelles chansons d'Elvis, ou une série sans fin de Game of Thrones adaptée aux désirs d'un individu.
"Si nous ne réglementons pas cela, nous entrerons dans un monde où nous pourrons faire la différence entre ce qui a été fait par les gens et ce qui a été fait par l'IA", a-t-il déclaré.
"Et cela nous changera profondément en tant que société."
© Copyright 2024 IBTimes FR. All rights reserved.