Comment réagir face aux deepfakes

SamGregory_2019-hoch
Sam Gregory (CC0).

Dans une vidéo de 2018, Barack Obama regardait la caméra et lançait l’avertissement suivant :

« Nous entrons dans une ère où nos ennemis peuvent faire croire que n’importe qui dit n’importe quoi, à n’importe quel moment. Même si jamais ces personnes ne diraient de telles choses. »

Tous les éléments de la vidéo donnent à croire qu’il s’agit de Barack Obama. Pourtant, ce dernier n’a jamais prononcé ces mots.

En réalité, nous sommes confrontés à un deepfake : une photo, une vidéo ou un clip audio manipulé à l’aide d’une intelligence artificielle pour présenter une personne qui exprime des paroles qu’elle n’a jamais réellement prononcées ou effectue des gestes qu’elle n’a jamais réalisés.

Cet exemple est un projet du cinéaste Jordan Peele et du PDG de BuzzFeed, Jonah Peretti, visant à mettre en garde le public contre la désinformation en ligne. En utilisant des outils gratuits (et avec l’aide d’experts en montage), ils ont incrusté la voix et la bouche de Jordan Peele dans une vraie vidéo de Barack Obama.

Les productions hollywoodiennes utilisent ce type de technologie depuis longtemps. Mais, au cours des deux dernières années, elle a fait un pas de géant en matière d’accessibilité et de précision.

Ce procédé s’est fait connaître du grand public en 2018, avec une vague de vidéos trafiquées à l’aide d’une intelligence artificielle pour remplacer les visages d’acteurs pornographiques par ceux de célébrités. Le terme deepfake lui-même vient de du pseudo d’un utilisateur du site Reddit, Deepfakes, qui a conçu des vidéos de ce type qu’il partageait dans le groupe /r/deepfakes.

La multiplication de contenus à caractère pornographique a suscité des réactions décisives de la part de certaines plateformes qui, pour certaines, les ont qualifiés de pornographie non consensuelle. Le sous-groupe Reddit /r/deepfakes a été interdit en février 2018 pour cette raison.

Mais le nom est resté. Sans doute parce qu’il semble logique : deep se réfère au deep learning, à savoir les méthodes d’apprentissage automatiques, à l’instar des techniques utilisées pour créer ce type de contenus, et fake (« faux ») caractérise leur nature artificielle.  

Cette technologie devient de plus en plus accessible et ses applications s’étendent dans de multiples directions, y compris la production de contenus dits « plein corps », la création d’imitations en temps réel et la suppression homogène d’éléments précis des vidéos. Dans le monde entier, les inquiétudes grandissent quant aux incidences négatives que ces manipulations pourraient avoir sur les individus, les communautés et les démocraties.

Le risque de préjudice est réel. Toutefois, Sam Gregory, directeur de programme à l’organisation de défense des droits humains WITNESS, considère qu’au lieu de laisser la peur nous paralyser, nous devons nous concentrer sur la recherche de solutions. Il a publié une vaste étude sur les solutions possibles face à l’utilisation malveillante de deepfakes et de contenus synthétiques, qui repose sur ses conversations avec des experts du domaine.

Dans la catégorie des solutions techniques, nombre de plateformes, chercheurs et start ups explorent l’utilisation de l’intelligence artificielle pour détecter et éliminer ces hypertrucages. Il existe également des innovations dans le domaine de l’analyse vidéo qui visent à améliorer notre capacité à déterminer l’authenticité et la provenance des images et des vidéos. Citons par exemple ProofMode et TruePic, qui aident les journalistes et les particuliers à valider et à authentifier eux-mêmes les contenus.

Même s’il relève l’importance des solutions techniques, Sam Gregory indique qu’elles ne peuvent résoudre le problème à elles seules. « Il est essentiel de se demander quelles communautés pourraient être exclues des solutions techniques et qui possède le contrôle des données, déclare-t-il. Si les outils de traçage de la provenance deviennent obligatoires, ils pourraient être utilisés contre des individus qui ne peuvent y accéder ou qui choisissent de rester anonymes. »

Selon lui, les connaissances numériques représentent une solution essentielle pas assez explorée : « Comment faire en sorte que les gens posent des questions devant une image qui semble impeccable ? » Il estime qu’il est particulièrement urgent d’améliorer les compétences des personnes qui travaillent avec des groupes vulnérables et dont le travail pourrait être affecté négativement par cette technologie, par exemple les journalistes et les défenseurs des droits humains.

De nombreux gouvernements tentent d’identifier le meilleur moyen de lutter contre la désinformation en ligne. Toutefois, certains militants et chercheurs mettent en garde contre une interdiction pure et simple des hypertrucages. Ils craignent qu’une loi donnant à des représentants du gouvernement le pouvoir de décider ce qui est vrai ou faux, puisse être utilisée pour censurer des opinions impopulaires ou dissidentes.

Gregory indique également que la société civile devrait se positionner sur le rôle qui revient aux plateformes commerciales. « De bien des façons, les plateformes sont les mieux placées pour détecter les deepfakes parce qu’elles disposent de la plus grande quantité de données d’entraînement. En tant que société civile, nous devons maintenant être clairs sur ce que nous voulons qu’elles détectent et sur la manière dont nous voulons qu’elles en informent le public, les gouvernements et les principaux organismes de surveillance. »

Plus généralement, Sam Gregory nous met en garde contre les risques mais nous conseille aussi de ne pas céder au battage médiatique.

« Il est bon de ne pas envisager le pire, mais de profiter de ce moment pour avoir une discussion rationnelle. L’effet le plus néfaste de ces contenus tient au fait qu’ils poussent les gens à tout remettre en question. »

 

Comment empêcher les deepfakes d'éroder la confiance des internautes ?

Be the first to add your voice! There are no comments yet.