Aktuelles| Cyberkriminalität | Angriffsverktoren
Diese Nachricht hat hohe Wellen geschlagen. Kiews Bürgermeister Vitali Klitschko ruft Berlins Bürgermeisterin Franziska Giffey an. So sah es auf den ersten Blick aus. In Wirklichkeit war der Videoanruf jedoch eine Fälschung. Zunächst war nicht ganz klar, ob es sich um einen sogenannten Deep Fake handelt oder um eine sehr professionell gemachte Montage aus verschiedenen Aufnahmen. Inzwischen ist jedoch bekannt, dass ein russisches Komikerduo für den Vorfall verantwortlich ist.
Auch wenn es sich bei diesem Vorfall wahrscheinlich nicht um Deep Fakes handelt, geht von dieser Technologie ein gewisses Risiko aus. Was Deep Fakes eigentlich sind, wie sie auftreten, wann sie gefährlich werden und wie man sie erkennt, erklären wir im folgenden Beitrag. Viel Freude beim Lesen.
Ende Juni erhielt die Berliner Bürgermeisterin einen Videoanruf von Kiews Bürgermeister Vitali Klitschko. Dass es sich bei dem Anruf um eine Fälschung handelte, war auf den ersten Blick nicht zu erkennen. Laut Franziska Giffey stimmten Mimik und Gestik überein. Auch die Mundbewegungen waren korrekt. Ins Zweifeln kam sie nur aufgrund des Gesprächsverlaufs. Als das Thema einer Durchführung eines Christopher Street Day in Kiew zur Sprache kam, ahnte Franziska Giffey, dass etwas nicht stimmen konnte und brach das Gespräch ab. Das gleiche Spiel wiederholte sich in Budapest, Madrid, Wien und vielleicht noch in anderen europäischen Städten.
Inzwischen ist bekannt, dass ein russisches Komikerduo für die gefälschten Videoanrufe verantwortlich ist. Sie haben Social-Engineering-Methoden genutzt, um sich Zugang ins Rathaus zu verschaffen und den Videoanruf durchführen zu können. Beim Social Engineering geht es darum, Informationen über Personen zu sammeln und diese schließlich so geschickt einzusetzen, dass ein Vertrauensverhältnis entsteht und sensible Informationen weitergegeben werden. Laut den beiden Tätern ist diese Vorgehensweise „sehr einfach“ und „funktioniert jedes Mal“.
Darüber wie das Video tatsächlich entstanden ist, machen sie keine Angaben. Die einzige Information, die sie über ihren Angriff teilten, ist, dass es sich nicht um einen Deep Fake handelt.
Der Begriff „Deep Fake“ kommt aus dem Englischen und setzt sich aus den Wörtern Deep Learning und Fake zusammen. Dabei handelt es sich um Fälschungen, die mit Hilfe künstlicher Intelligenz aus Bildern, Audio- und Filmaufnahmen erstellt werden. Es gibt verschiedene Formen von Deep Fakes, von denen einige in Echtzeit ablaufen können:
Noch nie war es so einfach wie heute, Deep Fakes zu erstellen: Unzählige Apps und Programme wie Reface oder DeepFaceLab ermöglichen es, in wenigen Schritten Deep Fakes zu erstellen. FakeApp steht seinen Nutzern sogar kostenlos zur Verfügung und das Programm Avatarify ermöglicht es seinen Nutzern, sich in eine völlig andere Person (Avatar) zu verwandeln und so in Echtzeit in Videochats mit Skype, Zoom und Teams zu erscheinen.
Wie bereits erwähnt, wird künstliche Intelligenz eingesetzt, um Deep Fakes zu realisieren. Neuronale Netze und Algorithmen analysieren vorhandenes Audio-, Bild- und Videomaterial der zu imitierenden Person und erstellen neue Inhalte. Je mehr Originalmaterial einer Person vorhanden ist, desto realistischer wirkt das Ergebnis. Steht den KI- betriebenen-Anwendungen Material von einer Person aus verschiedenen Situationen, Perspektiven und Medienformaten zur Verfügung, lernen sie schnell die wesentlichen Eigenschaften. Die KI kann diese Eigenschaften dann auf andere Materialien übertragen, ohne die Umgebung zu verändern.
Das vorgestellte Beispiel der gefälschten Bürgermeister-Anrufe illustriert mögliche Einsatzgebiete sehr gut. Auch wenn es sich – laut den Tätern – nicht um einen Deep Fake handelt, ist die Motivation deutlich zu erkennen. Die Komiker nennen es „Unterhaltung“ und „Entertainment“. Die Opfer hingegen sprechen von „moderner Kriegsführung„. Das beschreibt die Situation sehr gut. Oft werden Deep Fakes zu Unterhaltungszwecken eingesetzt, da es amüsant sein kann, bekannte Persönlichkeiten in obskure und peinliche Situationen zu bringen.
Allerdings kann diese Technik auch schnell ins Gegenteil umschlagen und dazu führen, dass Personen diskreditiert oder Desinformationen und Propaganda verbreitet werden.
Auch die Bundesregierung warnt, dass Deep Fakes eine große Gefahr für Gesellschaft und Politik darstellen können. Besonders dann, wenn sie zur Beeinflussung von politischen Prozessen sowie der öffentlichen Meinung eingesetzt wird.
Durch die technischen Entwicklungen ist es möglich, dass es selbst für Laien und Einsteiger keine Herausforderung mehr darstellt, Deep Fakes zu kreieren. Darüber hinaus steigen Rechenleistung und Leistungsfähigkeit von künstlicher Intelligenz stetig. Dadurch verbessert sich die Qualität von Deep Fakes rapide. Es wird immer schwieriger Wahrheit von Manipulation zu unterscheiden.
Deep Fakes werden Sie sicherlich nicht im alltäglichen Leben begleiten. Der Einsatz von Deep Fakes ist tatsächlich sehr spezifisch und situationsabhängig. Aber insbesondere wenn politische, gesellschaftskritische oder brisante Aspekte angesprochen werden und für die Berichterstattung Videomaterial eingesetzt wird, kann es sich lohnen, etwas genauer hinzusehen. Wie in vielen anderen Fällen auch, sollten Sie zunächst auf Ihr Bauchgefühl hören. Wenn Sie ein Video einer Person sehen oder eine Tonaufnahme dieser hören und Ihnen das Verhalten oder das Gesagte seltsam vorkommen oder völlig konträr zum „normalen“ Auftreten und Verhalten der Person ist, kann es sich um eine Manipulation handeln.
Wie angesprochen, kann es aufgrund des technischen Fortschritts recht schwierig sein, Deep Fakes oder auch ganz allgemein Fälschungen und Manipulationen zu erkennen. Die folgenden Aspekte sollten jedoch beachtet werden:
Weitere Informationen zum Thema Deep Fakes, lesen Sie hier:
Sie sind bereits mit Deep Fakes in Berührung gekommen und würden gern Ihre Erfahrungen mit uns teilen? Melden Sie sich gern bei uns. Wir freuen uns auf den Austausch.
News | Cybercrime | Attack vectors
This news caused quite a stir. Kiev’s mayor Vitali Klitschko calls Berlin’s mayor Franziska Giffey. That’s how it looked at first glance. In reality, however, the video call was fake. At first, it was not entirely clear whether it was a so-called deep fake or a very professionally made montage of different recordings. However, it has since emerged that a Russian comedy duo was responsible for the incident.
Even if this incident is probably not a deep fake, this technology poses a certain risk. In the following article, we explain what deep fakes actually are, how they occur, when they become dangerous and how to recognise them. Enjoy reading.
At the end of June, the mayor of Berlin received a video call from the mayor of Kiev, Vitali Klitschko. At first glance, it was not apparent that the call was fake. According to Franziska Giffey, the facial expressions and gestures were consistent. Even the mouth movements were correct. She only began to have doubts because of the way the conversation was going. When the topic of a Christopher Street Day event in Kiev came up, Franziska Giffey suspected that something was wrong and ended the call. The same thing happened in Budapest, Madrid, Vienna and possibly other European cities.
It is now known that a Russian comedy duo is responsible for the fake video calls. They used social engineering methods to gain access to the town hall and make the video call. Social engineering involves gathering information about people and then using it skilfully to establish a relationship of trust so that sensitive information is passed on. According to the two perpetrators, this method is ‘very simple’ and ‘works every time.’
They did not provide any details about how the video was actually made. The only information they shared about their attack is that it was not a deep fake.
The term ‘deep fake’ comes from the English and is a combination of the words ‘deep learning’ and ‘fake.’ These are fakes created with the help of artificial intelligence from images, audio and film recordings. There are different forms of deep fakes, some of which can run in real time:
It has never been easier to create deep fakes: countless apps and programmes such as Reface or DeepFaceLab make it possible to create deep fakes in just a few steps. FakeApp is even available to its users free of charge, and the Avatarify programme allows its users to transform themselves into a completely different person (avatar) and appear in real time in video chats with Skype, Zoom and Teams.
As already mentioned, artificial intelligence is used to create deep fakes. Neural networks and algorithms analyse existing audio, image and video material of the person to be imitated and create new content. The more original material of a person is available, the more realistic the result appears. If AI-powered applications have access to material of a person from different situations, perspectives and media formats, they quickly learn the essential characteristics. The AI can then transfer these characteristics to other materials without changing the environment.
The example of the fake mayor calls illustrates possible areas of application very well. Even if – according to the perpetrators – it is not a deep fake, the motivation is clear. The comedians call it ‘entertainment.’ The victims, on the other hand, speak of ‘modern warfare.’ That describes the situation very well. D
Kontaktieren Sie uns.
Unser Team ist für Sie da!
Telefon: +49 30 95 999 8080
E-Mail: info@perseus.de
© 2025 Perseus Technologies GmbH. All rights reserved