L'IA dans le domaine de la cybersécurité : L'impact de l'IA sur la lutte contre la cybercriminalité

Christine Ferrusi Ross

écrit par

Christine Ross

May 22, 2025

Christine Ferrusi Ross

écrit par

Christine Ross

Christine Ross est Senior Product Marketing Manager chez Akamai, où elle dirige les messages de mise sur le marché pour Bot Manager. Avant Akamai, elle a travaillé avec des start-up de blockchain et de sécurité sur l'adéquation produit/marché et le positionnement. Elle a également passé de nombreuses années en tant qu'analyste du secteur, aidant les organisations à acheter et gérer les technologies et services émergents.

Il est vrai que l'IA peut améliorer les cybermenaces, mais son potentiel d'amélioration de la cybersécurité est tout aussi important.
Il est vrai que l'IA peut améliorer les cybermenaces, mais son potentiel d'amélioration de la cybersécurité est tout aussi important.

Sommaire

Le paysage en constante évolution de la cybersécurité optimisée par l'IA

L'intelligence artificielle (IA) transforme rapidement presque tous les secteurs d'activité, et la cybersécurité ne fait pas exception. L'impact de l'IA dans le domaine se manifeste à deux niveaux : d'une part, les cybercriminels l'utilisent pour mener des cyberattaques plus sophistiquées et ciblées ; d'autre part, l'IA est à l'origine d'avancées significatives dans les défenses de cybersécurité, ce qui permet aux équipes de sécurité d'identifier les attaques et d'y répondre avec plus de rapidité et de précision que jamais.

Dans cet article de blog, nous allons nous pencher sur cette transformation de la cybersécurité en explorant la façon dont les experts en cybersécurité utilisent l'IA pour répondre à des attaques plus sophistiquées et ciblées.

Lutter contre les vulnérabilités digitales grâce à la cybersécurité optimisée par l'IA

Les cybervulnérabilités ont considérablement augmenté ces dernières années, et l'évolution rapide de l'intelligence artificielle joue un rôle clé dans cette croissance exponentielle. L'IA permet aux cybercriminels et aux pirates informatiques d'exploiter plus efficacement les vulnérabilités, d'éviter la détection, d'exécuter des attaques plus sophistiquées et de faire évoluer leurs opérations.

L'essor des cyberattaques basées sur l'IA : le recours à l'IA par les attaquants pour déjouer les systèmes de sécurité

La Figure 1 montre les principales façons dont l'IA peut amplifier les cyberattaques, notamment :

  • Attaques par hameçonnage basées sur l'IA 

  • Logiciels malveillants et ransomwares optimisés par l'apprentissage automatique

  • L'IA dans l'ingénierie sociale

Examples of attacks that are now being bolstered by AI Fig. 1: Examples of attacks that are now being bolstered by AI

Attaques par hameçonnage basées sur l'IA

Une attaque par hameçonnage est un type de cyberattaque qui consiste à piéger un individu en se faisant passer pour une source fiable, afin de le pousser à divulguer des informations sensibles. 

Grâce aux techniques basées sur l'IA, telles que les deepfakes et les usurpations d'identité avancées basées sur l'IA, les attaques par hameçonnage sont désormais plus réalistes et plus personnelles, et donc de plus en plus difficiles à détecter. Par exemple, les appels frauduleux existent depuis des années, mais l'IA permet aujourd'hui aux attaquants d'inclure les informations personnelles d'une personne proche de leur cible. 

Dans les attaques par hameçonnage alimentées par l'IA, les cybercriminels emploient divers modèles d'apprentissage d'IA, tels que l'analyse comportementale, le clonage vocal et les modèles de traitement du langage naturel (NLP), afin de créer des imitations cybernétiques hyper-réalistes générées par l'IA. À l'aide de ces technologies, les attaquants peuvent reproduire de manière convaincante l'apparence, la voix, ou même la façon d'écrire et de parler d'amis et de collègues. Ils peuvent ainsi tromper plus facilement leurs cibles et augmenter leur taux de réussite.

Les tout derniers outils pour l'hameçonnage basé sur l'IA : les deepfakes

L'apprentissage automatique est de plus en plus utilisé pour créer des deepfakes dans divers formats, tels que des vidéos, des images et des fichiers audio qui semblent authentiques, mais qui sont entièrement créés. La montée en puissance des technologies de deepfake est une menace croissante et les conséquences d'une attaque par deepfake peuvent être dévastatrices. 

Début 2024, un employé à Hong Kong a participé à un appel vidéo avec des escrocs qui ont utilisé des deepfakes de ses collègues pour le convaincre de leur transférer 25 millions de dollars à partir des fonds de l'entreprise.

L'utilisation de l'IA par les opérateurs de bots pour réagir plus rapidement après leur détection

La gestion des bots a toujours ressemblé au jeu du chat et de la souris : les entreprises de sécurité créent de meilleurs systèmes de détection ; les opérateurs de bots trouvent le moyen d'y échapper ; les entreprises de sécurité créent de nouveaux systèmes de détection et l'histoire se répète.

L'IA permet aux opérateurs de bots d'adapter leur comportement de manière plus sophistiquée afin de réduire le temps nécessaire pour échapper aux nouveaux systèmes de détection, d'utiliser des méthodologies d'attaque plus réactives et de reproduire davantage l'interaction humaine. Plusieurs signes peuvent indiquer un opérateur de bots utilisant l'IA :

  • Évolution rapide des tactiques : les méthodes d'attaque évoluent rapidement en réponse à la détection.

  • Comportements plus fluctuants : les bots basés sur l'IA peuvent utiliser des techniques telles que le fuzzing automatisé pour explorer les permutations afin de contourner les défenses.

  • Imitation des interactions humaines : cela désigne l'imitation avancée du comportement des utilisateurs réels, à travers notamment des schémas aléatoires de clics, de frappes ou de mouvements de souris.

Logiciels malveillants et ransomwares optimisés par l'apprentissage automatique

Les cybermenaces basées sur l'IA se présentent sous de nombreuses formes. Ces dernières années, l'évolution rapide des logiciels malveillants basés sur l'IA a permis aux attaquants de développer des logiciels malveillants plus évasifs et adaptables, ce qui améliore considérablement l'efficacité des attaques par logiciel malveillant et par ransomware.

Les ransomwares, un type de logiciel malveillant qui consiste à chiffrer les données d'une victime, puis à lui demander une rançon en échange de leur libération, sont encore plus redoutables avec l'intégration de l'IA. Les cybercriminels peuvent désormais utiliser l'IA dans les attaques oar ransomware pour éviter la détection et exécuter des attaques plus rapides et plus complexes.

Les logiciels malveillants adaptatifs basés sur l'IA permettent aux pirates de contourner plus efficacement les mesures de sécurité. En analysant le trafic réseau, ce type de logiciel malveillant optimisé par l'apprentissage automatique apprend à imiter le comportement légitime des utilisateurs et peut modifier ses actions, son style de communication et son code afin d'éviter d'être détecté par les systèmes de sécurité traditionnels. 

En outre, les algorithmes d'apprentissage automatique permettent aux pirates d'identifier plus précisément les vulnérabilités des systèmes de sécurité, de cibler les données les plus précieuses et d'adapter les méthodes de chiffrement aux caractéristiques spécifiques d'un système, ce qui rend plus difficile le déchiffrement des informations volées. Certains cybercriminels utilisent également l'IA pour automatiser certaines tâches, telles que le chiffrement, afin d'accélérer les attaques et de laisser aux victimes moins de temps pour réagir.

L'IA dans l'ingénierie sociale

Dans les attaques d'ingénierie sociale, les pirates s'appuient sur la manipulation et la tromperie psychologiques pour obtenir des informations ou des ressources sensibles de leurs cibles. En utilisant l'IA dans l'ingénierie sociale, les attaquants peuvent élaborer des escroqueries plus personnalisées et ainsi plus difficiles à identifier pour les individus.

L'analyse par l'IA permet aux cybercriminels d'échafauder des escroqueries d'ingénierie sociale hautement personnalisées. Désormais, les attaquants peuvent ajouter dans leurs e-mails d'hameçonnage et autres communications des informations personnelles, des références à des événements récents et des déclencheurs émotionnels à partir de l'empreinte digitale de leur cible, ce qui donne une impression d'authenticité et permet de gagner plus facilement sa confiance. 

Les cybermenaces comme les chatbots alimentés par l'IA se multiplient, car les attaquants utilisent de plus en plus l'IA conversationnelle pour augmenter leur portée. Les modèles de chatbot d'IA peuvent désormais imiter les conversations humaines avec une précision impressionnante, en composant des arguments persuasifs et en apprenant à exploiter les signaux émotionnels. Les attaquants s'appuient sur des chatbots d'IA pour automatiser les interactions et gagner du temps, ce qui leur permet de cibler un plus grand nombre de victimes sans avoir à engager eux-mêmes la conversation.

Le rôle de l'IA dans la détection des menaces et la sécurité

Il est vrai que l'IA peut améliorer les cybermenaces, mais son potentiel d'amélioration de la cybersécurité est tout aussi important. En appliquant la puissance de l'apprentissage automatique, les technologies d'IA de recherche des menaces peuvent aider les organisations à détecter les menaces et à y répondre avec plus de précision et de rapidité que les mesures traditionnelles.

Voici quelques exemples d'utilisation de l'IA dans l'amélioration des systèmes de sécurité :

Améliorer la détection des menaces avec l'IA

Les outils de cybersécurité basés sur l'IA, alimentés par des algorithmes d'apprentissage automatique, peuvent analyser de grandes quantités de données en temps réel, apprendre des modèles et identifier les anomalies susceptibles d'indiquer des menaces potentielles. La vitesse de ces analyses permet aux professionnels de la cybersécurité de détecter les incidents liés à la sécurité avec plus de rapidité et de précision que jamais. 

Des outils avancés d'apprentissage automatique peuvent également aider les professionnels de la sécurité à identifier des menaces particulièrement difficiles à détecter, telles que les mouvements latéraux. Les mouvements latéraux sont la tactique employée par les attaquants pour naviguer dans un réseau sans être repérés, afin d'identifier les cibles à forte valeur ajoutée et d'étendre leur accès.

Par exemple, Akamai utilise des réseaux neuronaux graphiques (GNN, graph neural networks) pour détecter les mouvements latéraux potentiels au sein d'un réseau. Les GNN commencent par apprendre les interactions types entre les ressources d'un réseau, puis utilisent ces connaissances pour prédire les interactions futures. Si le comportement d'un actif s'écarte fortement du modèle établi, il est signalé comme un indicateur potentiel de mouvement latéral.

La Figure 2 illustre la façon dont Akamai utilise l'IA dans ses services de cybersécurité Akamai Guardicore Segmentation et Akamai Hunt.

The threat detection process used by the Akamai security research team Fig. 2: The threat detection process used by the Akamai security research team

Hiérarchiser les menaces et automatiser les réponses

L'IA joue un autre rôle essentiel dans l'amélioration des opérations de sécurité en permettant la réponse automatisée aux incidents, ce qui améliore considérablement les temps de réponse par rapport aux interventions manuelles humaines. En accélérant la réponse aux menaces, la réponse aux incidents automatisée par l'IA aide les entreprises à atténuer les dommages potentiels avant qu'un problème ne puisse s'aggraver.

Voici comment cela fonctionne : Une fois qu'une menace est détectée, les systèmes basés sur l'IA exécutent automatiquement des actions prédéfinies pour neutraliser le risque, telles que l'isolation d'un actif affecté ou le blocage du trafic malveillant à l'intérieur d'un réseau. En outre, les algorithmes d'IA d'apprentissage automatique évaluent et déterminent la gravité des menaces et hiérarchisent les réponses en fonction de l'urgence.

En raison de leur vitesse incroyable et de leur capacité à traiter simultanément plusieurs menaces, les systèmes d'IA offrent aux entreprises une approche plus efficace de la gestion des risques, en leur permettant de traiter de nouvelles menaces en temps réel et à grande échelle.

Améliorer les renseignements prédictifs sur les menaces

Les professionnels de la cybersécurité peuvent utiliser l'intelligence artificielle pour prévoir et prévenir les menaces potentielles en fonction des tendances historiques, ce qui peut augmenter la précision de leurs capacités de détection des menaces.

Les modèles d'IA d'apprentissage automatique analysent de grands ensembles de données à partir de diverses sources. Grâce à cette analyse des informations issues des rapports d'incidents précédents, des journaux de sécurité, des modèles de trafic réseau, etc., les équipes de cybersécurité peuvent commencer à identifier les tendances et les modèles, ce qui leur permet de mieux comprendre les cybermenaces courantes.

Les systèmes d'IA peuvent ensuite utiliser ces tendances pour prédire quand et comment les menaces futures se produiront, et peuvent configurer l'automatisation en tant que mesure préventive avant même qu'une menace ne se soit matérialisée.

Par exemple, Akamai Bot Manager s'appuie sur une structure d'IA pour surveiller le trafic des bots et détecter les menaces en bordure du réseau, à grande échelle et en temps réel (Figure 3).

Bot traffic log from the Akamai Bot Manager solution Fig. 3: Bot traffic log from the Akamai Bot Manager solution

L'IA n'est pas toujours la réponse : comprendre ses limites

Bien que l'IA puisse considérablement aider à renforcer la cybersécurité, il est important de tenir compte de ses limites

Les systèmes d'IA apprennent uniquement à partir des données qui leur sont fournies et ils n'ont pas la capacité humaine de prendre en compte le contexte plus général. Pour cette raison, ils peuvent avoir du mal à prendre des décisions dans des situations nuancées et complexes. Si un système d'IA est entraîné avec des informations incomplètes ou biaisées, cela se reflétera dans sa prise de décision. 

Ce manque de nuance peut parfois amener les systèmes d'IA à signaler le trafic légitime comme des menaces potentielles, ce qui donne lieu à des faux positifs. Les faux positifs peuvent empêcher les utilisateurs légitimes d'effectuer des transactions et ainsi affecter la satisfaction client, voire faire perdre des clients à l'entreprise.

Enfin, comme l'IA a besoin de grandes quantités de données, la confidentialité et la sécurité de celles-ci sont en danger. En l'absence de mesures de sécurité appropriées, les entreprises courent le risque que des attaquants accèdent sans autorisation à de grands volumes de données sensibles lorsqu'une violation se produit.

L'utilisation de l'IA devrait se développer dans tous les secteurs. Dans une récente enquête de McKinsey sur l'état des lieux de l'IA, 71 % des personnes interrogées indiquent que leur entreprise a régulièrement recours à l'IA générative pour au moins une fonction commerciale, contre 65 % l'an dernier, ce qui marquait déjà un bond significatif par rapport aux 33 % de 2023. 

Alors que les systèmes d'IA deviennent de plus en plus sophistiqués, on prévoit qu'ils assumeront un rôle encore plus important dans la cyberdéfense au cours des prochaines années. L'IA est susceptible d'apporter de nouvelles avancées en matière de détection et de réduction des menaces, permettant aux équipes de cybersécurité de faire évoluer leurs efforts en permanence et de réagir plus rapidement aux menaces.

Adopter l'IA pour un monde numérique plus sécurisé

L'IA joue de plus en plus un rôle crucial dans les cyberattaques et la cybersécurité. Pour répondre à un environnement de menaces toujours plus complexe et en pleine expansion, Akamai est à l'avant-garde de la mise en œuvre stratégique et transparente de l'IA pour renforcer la sécurité.

Les outils de cybersécurité basés sur l'IA d'Akamai exécutent diverses tâches essentielles. Les solutions innovantes basées sur l'IA, telles qu'Akamai Hunt, permettent aux entreprises de détecter les menaces et d'y répondre plus rapidement et plus précisément que jamais. La plateforme Akamai Guardicore associe l'expertise d'Akamai et une IA de pointe pour aider les clients à atteindre le Zero Trust, à réduire les risques liés aux ransomwares et à répondre aux exigences de conformité.

Renforcez la sécurité de votre entreprise avec des solutions de cybersécurité qui utilisent l'IA de manière responsable et efficace.



Christine Ferrusi Ross

écrit par

Christine Ross

May 22, 2025

Christine Ferrusi Ross

écrit par

Christine Ross

Christine Ross est Senior Product Marketing Manager chez Akamai, où elle dirige les messages de mise sur le marché pour Bot Manager. Avant Akamai, elle a travaillé avec des start-up de blockchain et de sécurité sur l'adéquation produit/marché et le positionnement. Elle a également passé de nombreuses années en tant qu'analyste du secteur, aidant les organisations à acheter et gérer les technologies et services émergents.