Les « deepfakes » créés par l’intelligence artificielle (IA) qui imitent des personnalités politiques et des célébrités sont beaucoup plus répandus que les cyberattaques assistées par l’IA, selon une étude révolutionnaire de la division DeepMind de Google. Cette étude représente la première tentative de DeepMind de quantifier les utilisations nuisibles les plus courantes de la technologie de pointe de l’IA.
L’étude a révélé que l’élaboration de photos, de vidéos et de sons réalistes mais falsifiés de statistiques publiques est presque deux fois plus fréquente que l’utilisation abusive suivante de l’IA générative : la création d’informations bidon à l’aide d’équipements textuels tels que les chatbots pour diffuser des informations erronées sur le web. L’objectif principal de ceux qui utilisent abusivement les outils d’IA générative est toujours d’influencer l’opinion publique, une tendance qui représente 27 % des cas examinés. Cette découverte amplifie les questions relatives à l’influence que les « deepfakes » pourraient avoir sur les élections à l’échelle mondiale.
Ces dernières semaines, des deepfakes du Premier ministre britannique Rishi Sunak et d’autres dirigeants internationaux ont été diffusés sur des programmes tels que TikTok, X (anciennement Twitter) et Instagram. Ces incidents ont suscité des inquiétudes quant à l’influence qu’ils pourraient avoir sur les électeurs, agence seo Lille en particulier à l’approche des élections législatives au Royaume-Uni. Malgré les efforts déployés par les programmes de médias sociaux pour étiqueter ou éliminer ces articles, on craint que le public ne reconnaisse pas ces « deepfakes » comme étant faux, ce qui pourrait influencer l’opinion des électeurs.
Ardi Janjeva, chercheur associé à l’Alan Turing Institute, a souligné l’importance de l’étude, qui a permis de découvrir que les contenus générés par l’IA qui contaminent les informations accessibles au public pourraient « fausser notre compréhension collective de la réalité sociopolitique ». M. Janjeva a fait remarquer que même si l’impact immédiat des « deepfakes » sur le déroulement du vote n’est pas clair, les risques à long terme pour la démocratie sont considérables.
Les recherches menées par DeepMind, sous la direction de Sir Demis Hassabis, s’inscrivent dans le cadre d’un effort visant à évaluer les risques associés aux ressources génératives de l’IA, qui ont été rapidement développées et diffusées par de grandes entreprises technologiques à la recherche de profits. Alors que des outils tels que ChatGPT d’OpenAI et Gemini de Google sont de plus en plus répandus, les entreprises d’IA surveillent de plus en plus la diffusion de fausses informations et d’autres contenus nuisibles ou contraires à l’éthique créés par leurs technologies.
En mai, OpenAI a publié une enquête indiquant que des entités liées à la Russie, à l’Extrême-Orient, à l’Iran et à Israël ont utilisé ses outils pour générer et diffuser de la désinformation. Nahema Marchal, auteur principal de l’étude de DeepMind, a déclaré : « De nombreuses questions compréhensibles ont été soulevées au sujet de cyberattaques très sophistiquées facilitées par ces outils. En revanche, ce que nous avons vu, ce sont des utilisations abusives assez courantes de la GenAI [comme les deepfakes] qui pourraient passer un peu plus inaperçues ».
Les scientifiques de Google DeepMind et de Jigsaw ont évalué environ 200 incidents d’utilisation abusive de l’IA entre janvier 2023 et mars 2024. Ces incidents provenaient des plateformes de réseaux sociaux By et Reddit, ainsi que de blogs en ligne et de revues de presse. L’analyse a montré que la plupart des situations d’utilisation abusive impliquaient des outils facilement accessibles, nécessitant une expertise technique minimale, permettant ainsi à une plus large sélection de mauvaises étoiles d’utiliser l’IA générative.
Le deuxième motif le plus fréquent d’utilisation abusive de l’IA est le gain économique. Il s’agit notamment d’offrir des services de création de deepfakes, de produire des représentations nues de personnes authentiques ou d’utiliser l’IA pour produire d’énormes volumes de contenu, tels que de faux articles de presse.
Les conclusions de l’étude de DeepMind influenceront la manière dont l’entreprise améliore ses évaluations de la sécurité des conceptions d’IA. On espère que cette enquête influencera également la manière dont les concurrents et les autres parties prenantes perçoivent et abordent les inconvénients associés à l’IA générative.
La technologie de l’IA évoluant constamment, il est essentiel de comprendre et d’atténuer ses utilisations malveillantes. Les recherches de DeepMind éclairent le paysage actuel de l’utilisation abusive de l’IA et soulignent la nécessité de prendre des mesures énergiques pour protéger l’opinion publique et les processus démocratiques contre les effets potentiellement considérables des deepfakes et de la désinformation générés par l’IA.