Source de l’image : photographie possédée via unsplash
05.03.2021

IA en cybersécurité : attaquer à la fois l’arme et le bouclier protecteur

Cybersécurité | Protection informatique | Vecteurs d’attaque

L’intelligence artificielle – ou « IA » en abrégé – est conçue pour reproduire la pensée humaine de manière aussi automatisée ou mécanisée que possible. L’IA joue également un rôle de plus en plus important en cybersécurité : elle est utilisée à la fois comme arme d’attaque et pour se défendre contre les cyberattaques. Quel camp gagnera finalement ?

C’est le cauchemar pour tout expert en cybersécurité : des cyberattaques soutenues par l’intelligence artificielle. Les emails de phishing qui reposent sur l’ingénierie sociale et analysent précisément certains comportements seraient bien plus nuisibles avec l’IA. Il pourrait être utile d’écrire des textos d’e-mail qui ne seraient plus distinguables de ceux des expéditeurs réels. Les attaques seraient intelligemment automatisées, les attaques contre les malwares se dérouleraient plus rapidement et plus efficacement. Et le plus menaçant, c’est qu’à chaque attaque ratée, l’attaquant apprend de ses propres erreurs et améliore ses techniques à chaque attaque suivante.

Mais ce qui cause des maux de tête aux experts en cybersécurité en tant que menace sérieuse offre aussi la possibilité de renforcer leurs propres boucliers de protection contre les cyberattaques et de mieux identifier les attaquants. L’IA sera donc à la fois une malédiction et une bénédiction.

L’IA comme arme offensive

Les cybercriminels utilisent de plus en plus l’intelligence artificielle comme arme. Grâce à des techniques de pénétration, à l’analyse comportementale et à l’imitation comportementale, l’IA peut mener des attaques beaucoup plus rapidement, mieux coordonnées et efficacement – et sur des milliers de cibles en même temps.

L’IA recherche des vulnérabilités

Les cyberattaquants utilisent l’IA, qui examine automatiquement un grand nombre d’interfaces dans l’informatique de la victime à la recherche de vulnérabilités. En cas de « collision », l’IA peut distinguer si une attaque sur la vulnérabilité peut paralyser le système ou si elle peut servir de passerelle pour du code malveillant.

« IA-as-a-Service »

Les hackers proposent déjà des systèmes basés sur l’IA sur le darknet sous le nom d’« IA en tant que service ». Ce sont des solutions informatiques prêtes à l’emploi pour les hackers criminels sans aucune connaissance majeure de l’intelligence artificielle. Cela abaisse également la barrière d’entrée pour de nombreux petits groupes de hackers.

Devinez les mots de passe
Des systèmes basés sur l’IA existent déjà et peuvent deviner automatiquement les mots de passe grâce à l’apprentissage automatique. De plus, de nouveaux dangers apparaissent pour les réseaux informatiques protégés par l’IA :

Logiciels malveillants pilotés par l’IA
Les cybercriminels utilisent le plus souvent l’IA en lien avec des malwares envoyés par email. Le malware peut imiter encore mieux le comportement de l’utilisateur grâce à l’IA : les assistants intelligents peuvent créer des textes d’une telle qualité sémantique que les destinataires ont beaucoup de mal à les distinguer des e-mails réels.

Attaques de phishing auto-apprenant
Adapter un e-mail de phishing au style d’écriture de l’expéditeur a jusqu’à présent nécessité une connaissance de la nature humaine et des connaissances préalables. Grâce aux systèmes d’IA, les informations disponibles en ligne peuvent être extraites de manière plus ciblée afin d’adapter les sites web, liens ou e-mails à la cible d’une attaque. Les systèmes d’IA apprennent des erreurs et des succès passés et améliorent leurs tactiques à chaque attaque.

L’IA comme bouclier protecteur

L’IA jouera un rôle majeur dans la cybersécurité dans la détection des menaces et la défense contre les cyberattaques. Les algorithmes d’apprentissage sont censés reconnaître les comportements des attaquants et de leurs programmes et prendre des mesures ciblées contre eux.

Reconnaissance de motifs qui fait gagner du temps

Les applications d’IA sont particulièrement efficaces pour reconnaître et comparer les schémas en filtrant et traitant rapidement les éléments essentiels à partir de grandes quantités de données. Cette reconnaissance de motifs facilite la détection de canaux cachés qui collectent des données, plus rapidement que les analystes humains.

Identifiez les courriels spam
Les méthodes classiques de filtrage pour identifier et classer les e-mails spam sur la base de modèles statistiques, de listes noires ou de solutions de bases de données atteignent leurs limites. Les solutions d’IA peuvent aider à identifier et à apprendre des schémas et structures complexes des courriels indésirables.

Authentifier les utilisateurs autorisés
L’authentification passive et continue est un domaine futur pour les algorithmes d’IA. Les données des capteurs provenant des accéléromètres ou gyroscopes sont collectées et évaluées lors de l’utilisation de l’appareil. De cette manière, l’IA empêche l’utilisation non autorisée de l’appareil.

Détection de malwares
La détection conventionnelle des logiciels malveillants repose généralement sur la vérification des signatures de fichiers et de programmes. Lorsqu’un nouveau type de malware apparaît, l’IA le compare alors avec les formulaires précédents de sa base de données et décide si le malware doit être automatiquement repoussé. À l’avenir, l’IA pourrait évoluer pour détecter un ransomware, par exemple, avant qu’elle ne chiffre les données.

Espionnage des attaquants à l’aide d’algorithmes

Les hackers utilisent presque toujours des programmes ou des commandes infiltrés. Les intelligences artificielles pourraient apprendre ici, par exemple, quels programmes s’ouvrent un code malveillant, quels fichiers ils écrasent ou suppriment, et quelles données ils téléchargent ou téléchargent. Selon les schémas correspondants, l’algorithme d’IA entraîné peut alors rechercher des activités suspectes sur les ordinateurs des utilisateurs.

Déchiffrer l’identité des attaquants

Les algorithmes de l’IA pourraient également bientôt découvrir l’identité des attaquants. Cela s’explique par le fait que les programmeurs laissent des traces individuelles dans leur code de programme. On peut notamment les retrouver dans le style des commentaires que les programmeurs écrivent dans leurs lignes de programme. Les algorithmes d’apprentissage peuvent extraire ces traces et ainsi attribuer le code à un auteur.

La cybersécurité n’est pas possible sans des personnes

La cybersécurité ne devrait certainement pas être laissée exclusivement à l’intelligence artificielle (IA). Seule une équipe d’hommes et de machines peut réussir dans la lutte contre les cyberattaques. Parce que la situation de la menace change presque quotidiennement. De nouvelles méthodes d’attaque, de nouvelles vulnérabilités et des erreurs humaines répétées conduisent à un mélange complexe de contingences pour lesquelles un système purement basé sur l’IA ne pourra jamais être préparé.

Il vaut donc mieux faire confiance à notre expertise ! Contactez-nous afin que nous puissions développer ensemble un concept de cybersécurité pour votre entreprise.