La société survivra-t-elle aux deepfakes ?

Production massive de doute, manipulations politiques… les contenus générés par IA menacent notre démocratie et notre fonctionnement collectif.

Production de doute à grande échelle, manipulations politiques, atteintes à la réputation : les contenus générés par IA ne se résument pas à de simples vidéos distrayantes en attendant son bus. Des experts de l’Unil et de l’EPFL décryptent le phénomène et partagent des outils de protection.

Le mot « deepfake », contraction de « deep learning » et de « fake », apparaît de plus en plus dans les conversations publiques. Qu’il s’agisse d’images, de vidéos ou d’audios, tous ont en commun d’être créés ou modifiés par intelligence artificielle, avec un réalisme tel qu’il devient difficile de distinguer le vrai du faux. Mais créer des contrefaçons n’est pas nouveau, explique Olivier Glassey, sociologue au Laboratoire d’étude des sciences et des techniques (STS Lab) de l’Unil : « Les manipulations d’images ou de textes existent de longue date. Ce qui distingue les deepfakes, c’est à la fois le saut technologique accompli et la démocratisation de ces outils, désormais accessibles au plus grand nombre. »

Une production massive du doute
papeIA
Les images créées par IA sont de plus en plus réalistes. © Wikipédia, domaine public

À l’aide de quelques logiciels disponibles en ligne, il est aujourd’hui facile de créer avec l’IA. Certains utilisent les deepfakes pour gagner en visibilité sur Internet, ce qui peut générer des revenus importants lorsque l’audience est au rendez-vous. D’autres s’en servent pour décrédibiliser des personnalités, en particulier des responsables politiques. Certains encore cherchent simplement à s’amuser. Mais la majorité des deepfakes diffusés en ligne sont à caractère pornographique, et rapportent de l’argent soit grâce au volume de visionnage, soit dans le cadre de pratiques de chantage. Conséquence : sans même en avoir conscience, nous sommes de plus en plus exposés à des contenus créés par intelligence artificielle.

« Si vous allez sur les réseaux sociaux, sur TikTok par exemple, il y a tellement de deepfakes que la question de savoir si c’en est un ou pas se pose constamment, explique Olivier Glassey. Dès que ça sort un peu de l’ordinaire, on se demande : est-ce que c’est vrai ou pas ? » Le principal effet, selon lui, est l’instillation d’un doute systématique. « Quand ce doute préempte l’ensemble des contenus, il en transforme la lecture, cela peut nourrir des sentiments généralisés d’incertitude ou de lassitude. » Le rapport au vrai se trouble.

Le poids individuel et sociétal des deepfakes

Outre cette production de doute, les deepfakes peuvent faire des dégâts dans la construction de l’identité, notamment à cause des contenus pornographiques, continue le spécialiste de sociologie des sciences et techniques : « Les critiques sur la représentation stéréotypée des corps dans les médias sociaux se prolongent et se renforcent aujourd’hui avec les images générées par IA. Les entités artificielles qui prolifèrent, loin d’échapper aux biais, tendent à accentuer des stéréotypes souvent sexistes. »

trumpia
Deepfake d’une arrestation fictive de Donald Trump créée par l’IA Midjourney. © Wikipédia, domaine public

Nos sociétés aussi peuvent se retrouver métamorphosées par les deepfakes. « Si le doute envers les institutions politiques est suffisamment amplifié, cela peut être une manière de déstabiliser », poursuit le sociologue. C’est ce qui était arrivé en 2018 lorsque le président du Gabon Ali Bongo, affaibli par un AVC, apparaissait dans une vidéo du Nouvel-An. Les mouvements anormaux de ses yeux, en fait dus à l’accident, ont déclenché la rumeur qu’il s’agissait d’un deepfake et qu’il était véritablement mort. Une tentative de coup d’État a suivi. Parfois ce n’est pas seulement la diffusion de faux contenus qui ébranle, mais l’idée même qu’ils existent.

IA contre IA

Face à ces dérives, on s’affaire au Laboratoire de traitement des signaux multimédias de l’EPFL, qui lance une collaboration avec l’École des sciences criminelles de l’Unil. Touradj Ebrahimi, professeur à l’EPFL, est le responsable du groupe. « Il y a huit ans, on s’est intéressé à l’intelligence artificielle pour savoir comment elle pouvait nous aider à sécuriser des contenus. Ensuite, on a découvert que l’IA pouvait elle-même créer des versions modifiées, on a donc commencé à l’utiliser pour détecter ces modifications. » La difficulté ? La présence depuis peu d’une technologie nommée GAN pour Generative Adversarial Network (réseau antagoniste génératif), qui crée des contenus ultraréalistes grâce à l’entraînement parallèle de deux réseaux de neurones qui entrent en compétition. Le premier réseau génère un contenu synthétique, tandis que son adversaire tente de détecter s’il est réel. Ils s’améliorent mutuellement et génèrent ainsi des contenus de plus en plus difficiles à détecter.

Dans le laboratoire, les ingénieurs utilisent trois approches pour savoir si un contenu est authentique. Premièrement, ils essaient de détecter le style de l’IA utilisé pour le produire. En fonction du logiciel utilisé, le modèle employé pourra être reconnu… par une IA. « On contre le feu avec le feu », précise-t-il. Deuxièmement, le fact checking consiste à utiliser un réseau de vérificateurs de confiance (un ensemble d’acteurs, méthodes et systèmes) pour savoir si un contenu provient d’un autre contexte : « Par exemple, si une photo porte sur un événement qui se passe actuellement en Ukraine, mais qu’un vérificateur de confiance dit l’avoir déjà rencontrée trois ans auparavant, il s’agit vraisemblablement d’un faux contenu. » Dernière technique, les technologies de provenance, qui tentent de détecter une signature laissée expressément pendant sa création et ses modifications ultérieures. « C’est comme si on accumulait la trajectoire d’un contenu et qu’on pouvait le retracer ensuite. » Dans le cadre d’un projet d’encouragement du Canton de Vaud financé par [seal], le laboratoire de Touradj Ebrahimi tente d’améliorer ces technologies en collaboration avec l’Unil, qui génère des données, et la start-up Virtuosis, qui commercialise le tout.

Une interprétation large de la loi nécessaire

Il existe donc des méthodes technologiques de détection des deepfakes. Mais la technique suffit-elle ? « Le problème est global, il faut donc des solutions globales, répond Touradj Ebrahimi. Il faut aussi penser à des règles internationales pour réguler et légiférer là où c’est nécessaire. » En ce qui concerne le droit suisse, Quentin Jacquemin, doctorant en droit à l’Unil, explique qu’il n’existe ni définition juridique des deepfakes, ni loi dédiée à ce phénomène. Pour les réprimer, il faut donc appliquer les règles usuelles du droit civil et pénal, tout en ayant « une conception plus large que ce que la jurisprudence propose ».

En droit pénal, les deepfakes pornographiques sont par exemple interdits en ce qu’ils représentent des infractions qui peuvent être l’usurpation d’identité, l’atteinte à l’intégrité sexuelle ou l’atteinte à l’honneur. Mais la loi est floue dans certains cas, continue le doctorant : « Il n’est pas dit que le caractère pornographique d’un deepfake représentant un enfant nu généré par IA puisse être retenu. » En effet, le Tribunal fédéral retient en l’état que ce n’est pas pornographique si l’enfant n’est pas dans une position provocante ou si l’auteur n’a exercé aucune influence sur l’enfant lors de la prise de vue. « Il faut élargir l’interprétation pour inclure les nouvelles technologies », poursuit-il.

S’agissant des deepfakes qui visent à ébranler les processus politiques, il y a une « véritable lacune, affirme Quentin Jacquemin. Il n’y a qu’un seul article qui entre en cause et ça demande une interprétation très large pour sanctionner des deepfakes qui déstabilisent un opposant politique. » Le problème, selon lui, est que l’on travaille surtout de manière réactive en Suisse. « Étant donné l’impact énorme qu’une déstabilisation politique peut avoir, je pense que ça vaudrait la peine d’adopter une disposition de manière préventive, quitte à la supprimer ou à la modifier si elle n’est pas utilisée. »

Entre menace et appropriation
Certains détails ne trompent pas : c’est bien une intelligence artificielle qui a créé cette vidéo. Notez le mouvement peu naturel du chat à la sortie du lit. © Youtube / The Animal Vault TV

Qu’ils soient technologiques ou réglementaires, des outils existent donc pour lutter contre les risques que représentent les contenus créés par intelligence artificielle et éviter qu’ils déstabilisent trop nos fonctionnements sociétaux, politiques et individuels. D’autres questions, sociologiques ou même philosophiques, restent ouvertes, comme celles posées par le sociologue Olivier Glassey : « Comment les deepfakes nous impactent-ils et comment gérer nos convictions et valeurs dans cet environnement ? Comment peut-on se les approprier ? »

Pour aller plus loin…