Introduction
Apparus en 2017 sur Reddit, les “deep fakes” se sont rapidement imposés comme l’une des manifestations les plus troublantes et innovantes de l’intelligence artificielle. Selon Deeptrace, environ 15 000 vidéos deep fakes circulaient déjà en 2019, un chiffre qui ne cesse de croître avec l’évolution technologique. Face à cette prolifération inquiétante, les principaux acteurs du numérique ont renforcé leurs moyens pour détecter et contrer ces contenus falsifiés. En Afrique, plusieurs pays ainsi que les institutions régionales, à l’instar de l’Union africaine, intensifient leurs efforts pour sécuriser et réguler l’espace numérique. Ils adaptent leurs cadres législatifs afin de lutter efficacement contre la désinformation.
Qu’est-ce qu’un deep fake ?
Les premiers procédés assimilables aux deep fakes sont apparus dès 1997, initialement conçus pour le doublage de films. Ce n’est que vingt ans plus tard qu’un internaute de Reddit popularise le terme “deep fake”. Le deep fake, ou hyper trucage en français, est un terme hybride formé à partir de Deep Learning (apprentissage profond) et de fake (faux). Il désigne des contenus générés par intelligence artificielle capables d’imiter de manière troublante la voix et l’apparence d’une personne. Concrètement, cette technologie repose sur des logiciels de synthèse qui combinent et superposent des fichiers audio ou vidéo existants pour créer une nouvelle séquence falsifiée. Grâce à cette méthode, il devient possible de faire dire ou faire n’importe quoi à une personnalité publique, à partir de simples images ou enregistrements disponibles en ligne. Politiques, artistes, dirigeants ou anonymes peuvent ainsi être transformés, malgré eux, en protagonistes de fausses informations ou de canulars viraux.
Comment reconnaître un deep fake ?
Malgré la progression des systèmes, certains red flags trahissent encore, à savoir : les yeux : clignements rares, regard “figé”, mouvements oculaires mal coordonnés ; Les expressions : micro-expressions absentes et les émotions qui ne “montent” pas aux yeux ; La Morphologie : la tête légèrement désalignée par rapport au corps et les transitions de visage “cousues”; La Peau : les teintes anormales et les zones pixellisées ; La Lumière: les éclairages incohérents et les ombres qui ne suivent pas les volumes ; L’audio : on relève très souvent une désynchronisation entre les lèvres et la voix, surtout sur les phrases rapides.
Réflexes pour ne pas tomber dans le piège
Face aux deep fakes, il est recommandé d’adopter une hygiène numérique systématique en mettant en place des procédures d’authentification fortes. Certaines entreprises ont décidé de renforcer leur cybersécurité, en surveillant leurs canaux officiels et en intégrant l’empreinte numérique. Les plateformes quant à elles, ont mis sur pied des détecteurs automatiques des contenus générés par l’IA.
Conclusion
La communauté scientifique et industrielle s’organise. Des bases de données ouvertes (comme celle publiée par des acteurs majeurs en 2019, contenant des milliers de vidéos synthétiques) ont accéléré l’entraînement des détecteurs automatiques. Mais la lutte reste asymétrique: plus on détecte, plus les générateurs s’affinent. D’où l’importance de combiner technologie, éducation du public et action réglementaire. Plus on détecte, plus les générateurs s’affinent. Une vigilance constante et une collaboration interdisciplinaire sont indispensables pour protéger nos démocraties et nos sociétés futures.
