Actualités| Cybercriminalité | Vecteurs d’attaque
Cette nouvelle a fait sensation. Le maire de Kiev, Vitali Klitschko, appelle la maire de Berlin Franziska Giffey. C’est ce que ça avait l’air au premier abord. En réalité, cependant, l’appel vidéo était faux. Au début, il n’était pas tout à fait clair s’il s’agissait d’un soi-disant deep fake ou d’un montage très professionnel de différents enregistrements. Entre-temps, cependant, on sait qu’un duo d’humoristes russes est responsable de l’incident.
Même si cet incident est peu susceptible d’être un deep fake, cette technologie présente un certain risque. Dans l’article suivant, nous expliquons ce que sont réellement les deep fakes, comment ils se produisent, quand ils deviennent dangereux et comment les reconnaître. Bonne lecture.
Fin juin, le maire de Berlin a reçu un appel vidéo du maire de Kiev, Vitali Klitschko. Il n’était pas évident au premier abord que l’appel était faux. Selon Franziska Giffey, les expressions faciales et les gestes correspondaient. Les mouvements de la bouche étaient également corrects. Elle n’avait des doutes qu’à cause du cours de la conversation. Lorsque le sujet de la tenue d’une journée de la rue Christopher à Kiev a été abordé, Franziska Giffey a soupçonné que quelque chose n’allait pas et a mis fin à la conversation. Le même match a été répété à Budapest, Madrid, Vienne et peut-être dans d’autres villes européennes.
On sait désormais qu’un duo d’humoristes russes est responsable des faux appels vidéo. Ils ont utilisé des méthodes d’ingénierie sociale pour accéder à la mairie et pouvoir passer l’appel vidéo. L’ingénierie sociale consiste à collecter des informations sur les personnes et, en fin de compte, à les utiliser de manière si habile qu’une relation de confiance se crée et que des informations sensibles sont transmises. Selon les deux auteurs, cette procédure est « très simple » et « fonctionne à chaque fois ».
Ils ne fournissent aucune information sur la manière dont la vidéo a réellement été réalisée. La seule information qu’ils ont partagée sur leur attaque est qu’il ne s’agit pas d’un deep fake.
Le terme « deep fake » vient de l’anglais et est composé des mots deep learning et fake. Ce sont des faux créés à l’aide d’une intelligence artificielle à partir d’images, d’enregistrements audio et films. Il existe plusieurs formes de deep fakes, dont certaines peuvent se produire en temps réel :
Il n’a jamais été aussi facile de créer des deepfakes qu’aujourd’hui : d’innombrables applications et programmes comme Reface ou DeepFaceLab permettent de créer des deepfakes en seulement quelques étapes. FakeApp est même disponible gratuitement pour ses utilisateurs, et le programme Avatarify permet à ses utilisateurs de se transformer en une personne (avatar) complètement différente et ainsi d’apparaître en temps réel lors de conversations vidéo via Skype, Zoom et Teams.
Comme mentionné précédemment, l’intelligence artificielle est utilisée pour créer des deepfakes. Les réseaux neuronaux et les algorithmes analysent le matériel audio, image et vidéo existant de la personne à imiter et créent de nouveaux contenus. Plus il y a de matériel original sur une personne, plus le résultat semble réaliste. Si les applications alimentées par l’IA disposent de matériel provenant d’une personne issue de différentes situations, perspectives et formats médias, elles apprennent rapidement les propriétés essentielles. L’IA peut alors transférer ces propriétés à d’autres matériaux sans modifier l’environnement.

L’exemple des faux appels de maire présenté illustre très bien les domaines possibles d’application. Même si ce n’est pas un deep fake – selon les auteurs – la motivation est clairement visible. Les humoristes appellent cela « divertissement » et « divertissement ». Les victimes, en revanche, parlent de « guerre moderne ». Cela décrit très bien la situation. Les deep fakes sont souvent utilisés à des fins de divertissement, car il peut être amusant de placer des personnalités connues dans des situations obscures et embarrassantes.
Cependant, cette technique peut aussi rapidement tourner à l’inverse et conduire à la discréditation des personnes ou à la diffusion de désinformation et de propagande.
Le gouvernement allemand avertit également que les deep fakes peuvent représenter un grand danger pour la société et la politique. Surtout lorsqu’elle est utilisée pour influencer les processus politiques et l’opinion publique.
Grâce aux avancées techniques, il est possible qu’il ne soit plus difficile de créer des deepfakes, même pour les profanes comme pour les débutants. De plus, la puissance de calcul et les performances de l’intelligence artificielle augmentent constamment. En conséquence, la qualité des deep fakes s’améliore rapidement. Il devient de plus en plus difficile de distinguer la vérité de la manipulation.
Les deep fakes ne vous accompagneront certainement pas dans la vie de tous les jours. L’utilisation des deepfakes est en effet très spécifique et dépend de la situation. Mais surtout lorsque des aspects politiques, socio-critiques ou explosifs sont abordés et que des vidéos sont utilisées pour le reportage, il peut être utile d’y jeter un œil plus attentif. Comme dans de nombreux autres cas, vous devez d’abord écouter votre intuition. Si vous voyez une vidéo d’une personne ou écoutez un enregistrement audio d’elle et que le comportement ou ce qui est dit vous semble étrange ou complètement contraire à l’apparence et au comportement « normaux » de la personne, cela peut être de la manipulation.
Comme mentionné, il peut être assez difficile de détecter les deepfakes ou les falsifications et manipulations en général à cause des progrès techniques. Cependant, les aspects suivants doivent être notés :
Vous pouvez lire plus d’informations sur les deep fakes ici :
Avez-vous déjà été en contact avec des deepfakes et souhaitez-vous partager vos expériences avec nous ? N’hésitez pas à nous contacter. Nous attendons cet échange avec impatience.