Aktuelles| Cyberkriminalität | Angriffsverktoren
Diese Nachricht hat hohe Wellen geschlagen. Kiews Bürgermeister Vitali Klitschko ruft Berlins Bürgermeisterin Franziska Giffey an. So sah es auf den ersten Blick aus. In Wirklichkeit war der Videoanruf jedoch eine Fälschung. Zunächst war nicht ganz klar, ob es sich um einen sogenannten Deep Fake handelt oder um eine sehr professionell gemachte Montage aus verschiedenen Aufnahmen. Inzwischen ist jedoch bekannt, dass ein russisches Komikerduo für den Vorfall verantwortlich ist.
Auch wenn es sich bei diesem Vorfall wahrscheinlich nicht um Deep Fakes handelt, geht von dieser Technologie ein gewisses Risiko aus. Was Deep Fakes eigentlich sind, wie sie auftreten, wann sie gefährlich werden und wie man sie erkennt, erklären wir im folgenden Beitrag. Viel Freude beim Lesen.
Ende Juni erhielt die Berliner Bürgermeisterin einen Videoanruf von Kiews Bürgermeister Vitali Klitschko. Dass es sich bei dem Anruf um eine Fälschung handelte, war auf den ersten Blick nicht zu erkennen. Laut Franziska Giffey stimmten Mimik und Gestik überein. Auch die Mundbewegungen waren korrekt. Ins Zweifeln kam sie nur aufgrund des Gesprächsverlaufs. Als das Thema einer Durchführung eines Christopher Street Day in Kiew zur Sprache kam, ahnte Franziska Giffey, dass etwas nicht stimmen konnte und brach das Gespräch ab. Das gleiche Spiel wiederholte sich in Budapest, Madrid, Wien und vielleicht noch in anderen europäischen Städten.
Inzwischen ist bekannt, dass ein russisches Komikerduo für die gefälschten Videoanrufe verantwortlich ist. Sie haben Social-Engineering-Methoden genutzt, um sich Zugang ins Rathaus zu verschaffen und den Videoanruf durchführen zu können. Beim Social Engineering geht es darum, Informationen über Personen zu sammeln und diese schließlich so geschickt einzusetzen, dass ein Vertrauensverhältnis entsteht und sensible Informationen weitergegeben werden. Laut den beiden Tätern ist diese Vorgehensweise „sehr einfach“ und „funktioniert jedes Mal“.
Darüber wie das Video tatsächlich entstanden ist, machen sie keine Angaben. Die einzige Information, die sie über ihren Angriff teilten, ist, dass es sich nicht um einen Deep Fake handelt.
Der Begriff „Deep Fake“ kommt aus dem Englischen und setzt sich aus den Wörtern Deep Learning und Fake zusammen. Dabei handelt es sich um Fälschungen, die mit Hilfe künstlicher Intelligenz aus Bildern, Audio- und Filmaufnahmen erstellt werden. Es gibt verschiedene Formen von Deep Fakes, von denen einige in Echtzeit ablaufen können:
Noch nie war es so einfach wie heute, Deep Fakes zu erstellen: Unzählige Apps und Programme wie Reface oder DeepFaceLab ermöglichen es, in wenigen Schritten Deep Fakes zu erstellen. FakeApp steht seinen Nutzern sogar kostenlos zur Verfügung und das Programm Avatarify ermöglicht es seinen Nutzern, sich in eine völlig andere Person (Avatar) zu verwandeln und so in Echtzeit in Videochats mit Skype, Zoom und Teams zu erscheinen.
Wie bereits erwähnt, wird künstliche Intelligenz eingesetzt, um Deep Fakes zu realisieren. Neuronale Netze und Algorithmen analysieren vorhandenes Audio-, Bild- und Videomaterial der zu imitierenden Person und erstellen neue Inhalte. Je mehr Originalmaterial einer Person vorhanden ist, desto realistischer wirkt das Ergebnis. Steht den KI- betriebenen-Anwendungen Material von einer Person aus verschiedenen Situationen, Perspektiven und Medienformaten zur Verfügung, lernen sie schnell die wesentlichen Eigenschaften. Die KI kann diese Eigenschaften dann auf andere Materialien übertragen, ohne die Umgebung zu verändern.
Das vorgestellte Beispiel der gefälschten Bürgermeister-Anrufe illustriert mögliche Einsatzgebiete sehr gut. Auch wenn es sich – laut den Tätern – nicht um einen Deep Fake handelt, ist die Motivation deutlich zu erkennen. Die Komiker nennen es „Unterhaltung“ und „Entertainment“. Die Opfer hingegen sprechen von „moderner Kriegsführung„. Das beschreibt die Situation sehr gut. Oft werden Deep Fakes zu Unterhaltungszwecken eingesetzt, da es amüsant sein kann, bekannte Persönlichkeiten in obskure und peinliche Situationen zu bringen.
Allerdings kann diese Technik auch schnell ins Gegenteil umschlagen und dazu führen, dass Personen diskreditiert oder Desinformationen und Propaganda verbreitet werden.
Auch die Bundesregierung warnt, dass Deep Fakes eine große Gefahr für Gesellschaft und Politik darstellen können. Besonders dann, wenn sie zur Beeinflussung von politischen Prozessen sowie der öffentlichen Meinung eingesetzt wird.
Durch die technischen Entwicklungen ist es möglich, dass es selbst für Laien und Einsteiger keine Herausforderung mehr darstellt, Deep Fakes zu kreieren. Darüber hinaus steigen Rechenleistung und Leistungsfähigkeit von künstlicher Intelligenz stetig. Dadurch verbessert sich die Qualität von Deep Fakes rapide. Es wird immer schwieriger Wahrheit von Manipulation zu unterscheiden.
Deep Fakes werden Sie sicherlich nicht im alltäglichen Leben begleiten. Der Einsatz von Deep Fakes ist tatsächlich sehr spezifisch und situationsabhängig. Aber insbesondere wenn politische, gesellschaftskritische oder brisante Aspekte angesprochen werden und für die Berichterstattung Videomaterial eingesetzt wird, kann es sich lohnen, etwas genauer hinzusehen. Wie in vielen anderen Fällen auch, sollten Sie zunächst auf Ihr Bauchgefühl hören. Wenn Sie ein Video einer Person sehen oder eine Tonaufnahme dieser hören und Ihnen das Verhalten oder das Gesagte seltsam vorkommen oder völlig konträr zum „normalen“ Auftreten und Verhalten der Person ist, kann es sich um eine Manipulation handeln.
Wie angesprochen, kann es aufgrund des technischen Fortschritts recht schwierig sein, Deep Fakes oder auch ganz allgemein Fälschungen und Manipulationen zu erkennen. Die folgenden Aspekte sollten jedoch beachtet werden:
Weitere Informationen zum Thema Deep Fakes, lesen Sie hier:
Sie sind bereits mit Deep Fakes in Berührung gekommen und würden gern Ihre Erfahrungen mit uns teilen? Melden Sie sich gern bei uns. Wir freuen uns auf den Austausch.
Kontaktieren Sie uns.
Unser Team ist für Sie da!
Telefon: +49 30 95 999 8080
E-Mail: info@perseus.de
© 2025 Perseus Technologies GmbH. All rights reserved