Recherche

L'IA booste (aussi) les cyberattaques

Le potentiel de l'intelligence artificielle est immense. Son usage s'est démocratisé au cours des dernières années au sein des entreprises. Mais cette technologie a aussi été adoptée par les cybercriminels, qui l'utilisent comme vecteur d'attaque. Elle leur permet d'automatiser et de sophistiquer leurs actions malveillantes.

Publié par Audrey Fréel le - mis à jour à
Lecture
3 min
  • Imprimer
Cyber crime with skull symbol futuristic 3D rendering illustration. Concept of darknet, internet safety, cyber attack and piracy. Abstract digital sign with circuit board and processor on background.
© Skórzewiak - stock.adobe.com
Cyber crime with skull symbol futuristic 3D rendering illustration. Concept of darknet, internet safety, cyber attack and piracy. Abstract digital sign with circuit board and processor on background.

Des cyberattaques plus sophistiquées et plus intenses. Si elle révolutionne de nombreux métiers, l'intelligence artificielle facilite aussi le travail des cybercriminels. « L'adoption de l'IA s'accélère chez l'attaquant, et va même plus vite que les capacités des entreprises à adopter l'IA », constate Jamal Basrire, associé responsable des activités cyber intelligence chez PwC France et Maghreb. Un avis partagé par Anthony Derbes, président d'Open Lake Technology, un éditeur de logiciel. « Les organisations de cybercriminels sont aujourd'hui très structurées et manient bien l'usage de cette technologie », observe-t-il. Résultat : le risque cyber augmente considérablement pour les entreprises. « Nous considérons que trois quarts des cyberattaques s'appuieront sur de l'IA d'ici l'année prochaine », indique Jamal Basrire.

Des attaques plus efficaces

Les cybercriminels utilisent notamment l'IA pour créer des attaques de phishing (ou hameçonnage) de plus en plus sophistiquées. En analysant de grandes quantités de données, l'IA peut générer des messages personnalisés, imitant les styles de communication des victimes ciblées. « L'IA permet aussi d'automatiser l'envoi de ces messages, ce qui contribue à augmenter les attaques par phishing pour les entreprises », informe Anthony Derbes. Autre exemple d'utilisation de l'IA à des fins malveillantes : le deep fake, ou hypertrucage. Il s'agit d'une technique de synthèse multimédia reposant sur l'IA, qui vise à superposer des fichiers vidéo ou audio existants, sur d'autres fichiers vidéo ou audio. « Le but est de diffuser de fausses informations », précise Jamal Basrire. Cette technique peut être utilisée pour faciliter les arnaques au président. Cette fraude consiste à usurper l'identité du dirigeant de l'entreprise afin d'obtenir auprès des employés, souvent les directeurs financiers ou comptables, des virements bancaires. L'IA peut aussi servir à améliorer les malwares et les attaques par déni de service. « L'IA permet aux attaquants de gagner en productivité. Grâce à des robots s'appuyant sur l'IA, ils peuvent automatiser des actions malveillantes. Cela submerge encore plus l'entreprise, qui se retrouve avec beaucoup plus d'évènements à gérer », détaille Jamal Basrire. Par ailleurs, les cybercriminels n'utilisent pas uniquement l'IA comme outil d'attaque. Ils s'intéressent aussi aux vulnérabilités présentes dans les solutions d'IA des entreprises.

Se prémunir et sensibiliser

Face à ces risques croissants, il devient crucial pour les entreprises de renforcer leurs protections. « Il est aujourd'hui primordial de sensibiliser et former les collaborateurs à ces risques cyber, en leur présentant différents scénarios et en mettant en place des procédures de vérification », explique Jamal Basrire. L'expert de chez PwC insiste également sur la nécessité de se doter d'outils capables de détecter et de se prémunir de ces cyberattaques.

Livres Blancs

Voir tous les livres blancs
S'abonner
au magazine
Retour haut de page