Cybersicherheit | IT-Schutz | Angriffsvektoren
Künstliche Intelligenz – oder kurz „KI“ – soll menschliches Denken möglichst automatisiert oder mechanisiert nachbilden. Auch für die Cyber Security spielt KI zunehmend eine wichtige Rolle: Sie wird sowohl als Angriffswaffe als auch zur Abwehr von Cyberattacken eingesetzt. Welche Seite wird am Ende gewinnen?
Es ist der Alptraum für jeden Cyber Security-Experten: Cyberattacken, die von Künstlicher Intelligenz unterstützt werden. Phishing-E-Mails, die auf Social Engineering setzen und bestimmte Verhaltensweisen exakt analysieren, wären mit KI um ein vielfaches schädlicher. Sie könnte dabei helfen, Mail-Texte zu verfassen, die nicht mehr von denen echter Absender unterscheidbar wären. Die Angriffe würden intelligent automatisiert, Malware-Attacken liefen schneller und effektiver. Und das Bedrohlichste dabei: Bei jedem gescheiterten Angriff lernt der Angreifer selbst aus seinen Fehlern und verbessert seine Techniken bei jeder weiteren Attacke.
Doch was Cyber Security-Experten als ernstzunehmende Bedrohung Kopfschmerzen bereitet, bietet gleichzeitig auch die Chance, die eigenen Schutzschilder gegen Cyberattacken zu verstärken und Angreifer besser identifizieren zu können. KI wird also Fluch und Segen gleichzeitig sein.
KI als Angriffswaffe
Cyberkriminelle setzen Künstliche Intelligenz zunehmend als Waffe ein. Mithilfe von Penetrationstechniken, Verhaltensanalysen und Verhaltensnachahmung kann KI Angriffe deutlich schneller, koordinierter und effizienter ausführen – und das auf tausende von Zielen gleichzeitig.
KI sucht Schwachstellen
Cyber-Angreifer verwenden KI, die automatisch sehr viele Schnittstellen in der IT des Opfers auf Schwachstellen untersucht. Bei einem „Treffer“ kann die KI unterscheiden, ob ein Angriff an der Schwachstelle das System lahmlegen oder ob sie Einfalltor für einen bösartigen Code sein kann.
„KI-as-a-Service“
Hacker bieten im Darknet bereits KI-basierte Systeme als „KI-as-a-Service“ an. Das sind vorgefertigte IT-Lösungen für kriminelle Hacker ohne größere Kenntnisse im Umgang mit künstlicher Intelligenz. Damit sinkt die Eintrittsbarriere auch für viele kleinere Hacker-Gangs.
Passwörter erraten
Es existieren bereits jetzt KI-basierende Systeme, die durch maschinelles Lernen automatisiert Passwörter erraten können. Darüber hinaus entstehen neue Gefahren für KI-geschützte EDV-Netzwerke:
KI-gesteuerte Malware
Am häufigsten nutzen Cyberkriminelle KI in Zusammenhang mit Malware, die per E-Mail versendet wird. Die Schadsoftware kann durch KI noch besser das Benutzerverhalten imitieren: Intelligente Assistenten können Texte in so hoher semantischer Qualität schaffen, dass Empfänger diese von echten Mails nur noch sehr schwer unterscheiden können.
Selbstlernende Phishing-Attacken
Eine Phishing-Mail an den Schreibstil des Absenders anzupassen, erforderte bislang Menschenkenntnis und Hintergrundwissen. Mit Hilfe von KI-Systemen lassen sich online verfügbare Informationen gezielter extrahieren, um Websites, Links oder E-Mails auf die Zielperson einer Attacke zuzuschneiden. KI-Systeme lernen dabei aus Fehlern und Erfolgen der Vergangenheit und verbessern mit jedem Angriff ihre Taktik.
KI als Schutzschild
KI wird für die Cyber Security eine große Rolle bei der Bedrohungserkennung und der Abwehr von Cyberangriffen spielen. Lernende Algorithmen sollen die Verhaltensmuster der Angreifer und ihrer Programme erkennen und gezielt gegen sie vorgehen.
Zeitsparend Muster erkennen
KI-Anwendungen sind besonders stark in der Erkennung und dem Vergleich von Mustern, indem sie schnell aus großen Datenmengen das Wesentliche herausfiltert und aufbereitet. Dank dieser Mustererkennung ist es leicht, versteckte Kanäle aufzuspüren, über die Daten abgeschöpft werden – und zwar schneller als menschliche Analysten dies könnten.
Spam-Mails identifizieren
Die klassischen Filtermethoden zur Identifizierung und Klassifizierung von Spam-Mails anhand statistischer Modelle, Blacklists oder Datenbank-Lösungen stoßen an ihre Grenzen. KI-Lösungen können dazu beitragen, komplexe Muster und Strukturen von Spam-Mails zu identifizieren und zu erlernen.
Berechtigte Nutzer authentifizieren
Passive, kontinuierliche Authentifizierung ist ein Zukunftsfeld für KI-Algorithmen. Sensordaten aus Beschleunigungsmessgeräten oder Gyroskopen werden während der Nutzung des Geräts erhoben und ausgewertet. So verhindert KI eine unberechtigte Nutzung des Geräts.
Malware erkennen
Die konventionelle Malware-Erkennung basiert zumeist auf der Prüfung der Signaturen von Dateien und Programmen. Erscheint eine neue Form von Malware, vergleicht die KI diese dann mit bisherigen Formen in ihrer Datenbank und entscheidet, ob die Malware automatisch abgewehrt werden soll. In Zukunft könnte sich KI dahingehend entwickeln, dass sie beispielsweise Ransomware erkennt, bevor diese Daten verschlüsselt.
Angreifer per Algorithmen ausspähen
Hacker nutzen fast immer eingeschleuste Programme oder Befehle. Künstliche Intelligenzen könnten hier etwa lernen, welche Programme ein Schadcode öffnet, welche Dateien er überschreibt oder löscht, welche Daten er hoch- oder runterlädt. Nach entsprechenden Mustern kann der trainierte KI-Algorithmus dann auf den Rechnern von Nutzern Ausschau nach verdächtigen Aktivitäten halten.
Identität von Angreifern entschlüsseln
Auch die Identität von Angreifern könnten die Algorithmen der KI bald herausfinden. Denn Programmierer hinterlassen individuelle Spuren in ihrem Programmcode. Die finden sich unter anderem im Stil der Kommentare, die Programmierer in ihren Programmzeilen dazuschreiben. Lernalgorithmen können diese Spuren extrahieren und so den Code einem Autor zuordnen.
Cyber Security ohne Menschen nicht möglich
Cyber Security sollte auf jeden fall nicht ausschließlich der Künstlichen Intelligenz (KI) überlassen werden. Erfolgreich im Kampf gegen die Cyberangriffe kann nur ein Team aus Mensch und Maschine sein. Denn die Bedrohungslage verändert sich fast täglich. Neue Angriffsmethoden, neue Schwachstellen und immer wieder menschliches Fehlverhalten führen zu einem komplexen Mix an Eventualitäten, auf die ein rein KI-basiertes System niemals vorbereitet werden kann.
Vertrauen Sie daher lieber unserer Expertise! Sprechen Sie uns an, damit wir gemeinsam ein Cyber-Security-Konzept für Ihr Unternehmen entwickeln können.
Cyber security | IT protection | Attack vectors
Artificial intelligence – or AI for short – aims to replicate human thinking as automatically or mechanically as possible. AI is also playing an increasingly important role in cyber security, where it is used both as a weapon and to defend against cyber attacks. Which side will win in the end?
It is every cyber security expert’s nightmare: cyber attacks supported by artificial intelligence.
Phishing emails that rely on social engineering and precisely analyse certain behaviours would be many times more damaging with AI. It could help to compose email texts that would be indistinguishable from those of real senders. Attacks would be intelligently automated, and malware attacks would run faster and more effectively. And the most threatening thing about it is that with every failed attack, the attacker learns from their mistakes and improves their techniques with each subsequent attack.
But what causes headaches for cyber security experts as a serious threat also offers an opportunity to strengthen their own defences against cyber attacks and better identify attackers. AI will therefore be both a curse and a blessing.
AI as a weapon
Cybercriminals are increasingly using artificial intelligence as a weapon. With the help of penetration techniques, behavioural analysis and behaviour mimicry, AI can carry out attacks much faster, in a more coordinated and efficient manner – and on thousands of targets simultaneously.
AI searches for vulnerabilities
Cyber attackers use AI that automatically scans a large number of interfaces in the victim’s IT system for vulnerabilities. When it finds one, the AI can distinguish whether an attack on the vulnerability could paralyse the system or provide a gateway for malicious code.
‘AI-as-a-service’
Hackers are already offering AI-based systems as ‘AI-as-a-service’ on the darknet. These are ready-made IT solutions for criminal hackers without extensive knowledge of artificial intelligence. This lowers the barrier to entry for many smaller hacker gangs.
Guessing passwords
AI-based systems already exist that can automatically guess passwords through machine learning. In addition, new threats are emerging for AI-protected IT networks:
AI-driven malware
Cybercriminals most commonly use AI in conjunction with malware sent via email. AI enables the malware to imitate user behaviour even more effectively: intelligent assistants can create texts with such high semantic quality that recipients find it very difficult to distinguish them from genuine emails.
Self-learning phishing attacks
Until now, adapting a phishing email to the writing style of the sender required human insight and background knowledge. With the help of AI systems, information available online can be extracted in a more targeted manner to tailor websites, links or emails to the target of an attack. AI systems learn from past mistakes and successes and improve their tactics with each attack.
AI as a protective shield
AI will play a major role in cyber security in detecting threats and defending against cyber attacks. Learning algorithms are designed to recognise the behaviour patterns of attackers and their programmes and take targeted action against them.
Time-saving pattern recognition
AI applications are particularly strong at recognising and comparing patterns by quickly filtering out and processing the essential information from large amounts of data.
Thanks to this pattern recognition, it is easy to detect hidden channels through which data is skimmed – and faster than human analysts could.
Identifying spam emails
Traditional filter methods for identifying and classifying spam emails using statistical models, blacklists or database solutions are reaching their limits. AI solutions can help identify and learn complex patterns and structures in spam emails.
Authenticate authorised users
Passive, continuous authentication is a future field for AI algorithms. Sensor data from accelerometers or gyroscopes is collected and evaluated while the device is in use. In this way, AI prevents unauthorised use of the device.
Detect malware
Conventional malware detection is mostly based on checking the signatures of files and programmes. When a new form of malware appears, AI compares it with previous forms in its database and decides whether the malware should be automatically blocked. In the future, AI could develop to the point where it recognises ransomware before it encrypts data, for example.
Spying on attackers using algorithms
Hackers almost always use infiltrated programmes or commands. Artificial intelligence could learn which programmes malicious code opens, which files it overwrites or deletes, and which data it uploads or downloads. Based on corresponding patterns, the trained AI algorithm can then look for suspicious activity on users‘ computers.
Decrypting the identity of attackers
AI algorithms could soon be able to identify attackers. This is because programmers leave individual traces in their program code. These can be found, among other things, in the style of the comments that programmers add to their program lines. Learning algorithms can extract these traces and thus assign the code to an author.
Cyber security is not possible without humans
Cyber security should definitely not be left to artificial intelligence (AI) alone. Only a team of humans and machines can be successful in the fight against cyber attacks. This is because the threat landscape changes almost daily. New attack methods, new vulnerabilities and repeated human error lead to a complex mix of eventualities that a purely AI-based system can never be prepared for.
So put your trust in our expertise! Contact us so that we can work with you to develop a cyber security concept for your company.