Cybercriminalité et IA : la menace invisible qui révolutionne les attaques

Adobe Express sous licence

Par Bertrand Milot | Chronique publiée le 24 février 2025

L’intelligence artificielle n’est plus seulement une arme aux mains des experts en cybersécurité. Elle est devenu le nouvel atout des groupes cybercriminels, leur permettant d’infiltrer, manipuler et attaquer leurs cibles avec une précision inédite.

Pour lire cette chronique telle que parue initialement dans la revue animée et interactive LES CONNECTEURS :

L’ascension des cybercriminels 2.0

Des campagnes d’hameçonnage ou « phishing » hyper-réaliste, hypertrucages ou « deepfakes » troublants ransomwares autonomes : l’IA ouvre un champ des possibles terrifiant pour les organisations malveillantes qui cherche à maximiser leurs profits. Depuis quelques années, les attaques cybernétiques ont changé de nature. Les méthodes ont laissé place à des campagnes automatisées et des intrusions furtives dopées par des algorithmes intelligents. Des entreprises de renom, des infrastructures critiques et des individus ciblés se retrouve piégés par des systèmes d’attaque capables d’adapter et d’exécuter des offensives en temps réel.

L’histoire de l’ingénierie sociale a franchi une inquiétante en 2020 lorsqu’un employé d’une entreprise européenne a reçu un appel en visioconférence de son PDG lui demandant un virement urgent. Tout semblait normal: l’image était nette la voix parfaitement reconnaissable. Mais ce n’était pas son supérieur qui s’exprimait à l’écran. Derrière cette supercherie, un hypertrucage ou « deepfake » d’une précision hallucinante avait été généré par intelligence artificielle piloté par des cybercriminels ayant étudié les moindres détails de la communication du dirigeant. Résultat: 243 000 dollars transférés sur des comptes frauduleux avant que l’escroquerie ne soit découvert.

LockBit, BlackCat, DarkSide : les nouveaux maîtres du crime numérique

L’attaque contre Colonial Pipeline en 2021 reste l’un des cas les plus emblématiques de l’exploitation de l’IA par les cybercriminels. Le groupe DarkSide, à l’origine du ransomware, avait conçu un logiciel capable de s’adapter en fonction des défenses de ses cibles. Son code était programmé pour les protections en place, contourner les pare-feux et activer le chiffrement des données les plus sensibles en un temps record. La paralysie des systèmes a entraîné une crise majeure aux États-Unis forçant l’entreprise à verser une rançon de plusieurs millions de dollars.

D’autres groupes, comme LockBit, ont perfectionné ce modèle en intégrant encore davantage d’intelligence artificielle dans leur. En 2023, l’attaque contre Royal Mail au Royaume-Uni a démontré l’évolution du Ransomware-as-a-Service. Cette fois, ce n’était plus seulement un logiciel malveillant mais un écosystème entièrement automatisé: une IA scannait les réseaux à la recherche de vulnérabilités, ajustait l’attaque en fonction des défenses rencontrées et négociait directement avec les victimes via des robots de clavardage ou « chatbots » sophistiqués. L’automatisation ne s’arrête pas à l’exécution des attaques. Certains groupes comme BlackCat, héritier direct de DarkSide, ont mis au point des systèmes d’extorsion basés sur l’IA. Après avoir infiltré les réseaux d’un hôpital français en 2022 les criminels ont utilisé des algorithmes pour identifier les fichiers les plus critiques et augmenter la pression sur les dirigeants. Le ransomware savait exactement quels compromettraient le plus l’établissement s’ils étaient rendus publics, transformant ainsi l’extorsion en une arme implacable.

L’ombre de l’IA derrière chaque attaque

Les attaques basé sur l’IA sont encore plus dangereux parce qu’elles rendent l’illusion parfaite. Le phishing, longtemps détectable grâce à des erreurs d’orthographe ou des tournures maladroites, est devenu indiscernable de communications authentiques. Avec l’aide de modèles avancés de traitement du langage naturelle, les cybercriminels sont capable de écrire des e-mails qui imitent à la perfection le ton et le style d’un interlocuteur. Dans le milieu bancaire, cette évolution a eu des conséquences désastreuse. En 2021, des fraudeurs ont utilisé un deepfake vocal pour convaincre un directeur financier de transférer une somme astronomique à un faux fournisseur. La voix synthétisée reproduisait avec une tel fidélité celle du véritable partenaire commercial que l’escroquerie a été exécutée sans éveiller le moindre soupçon. Au-delà des ransomwares et des fraudes l’intelligence artificielle est aussi utilisée pour des attaques à grande échelle. Les cybercriminels scannent des millions de sites web en quête de failles exploitables, automatisent le vol d’identifiants et optimisent leurs intrusions. Là où un hacker humain pouvait auparavant passer des jours à infiltrer un réseau, l’IA réduit ce travail à quelques heures augmentant la fréquence et la sophistication des attaques.

La riposte s’organise

Face à cette mutation inquiétante du paysage cybercriminel, les experts en cybersécurité doivent eux aussi adopter une approche offensive. Les entreprises investissent massivement dans des solutions d’intelligence artificielle capables de détecter des comportements suspects et de repérer les attaques avant qu’elles ne surviennent. Les deepfakes, par exemple, représentent une menace grandissante mais des outils sont déjà développés pour les identifier en analysant des micro-expressions ou des incohérences dans les spectres audio. De même, les algorithmes de détection comportementale permettent d’anticiper les mouvements des hackers en scrutant leurs mode opératoires. Les gouvernements conscients du danger, ont également commencé à légiférer pour encadrer l’usage de l’intelligence artificielle. La régulation devient un enjeu clé, car si l’IA est une arme redoutable pour les cybercriminels elle l’est tout autant pour ceux qui cherchent à les neutraliser.

Un combat technologique sans fin

L’intelligence artificielle a changé la nature du cybercrime. Elle ne se contente plus d’accélérer les attaques : elle les rend invisibles, crédibles autonomes. Les exemples récents montrent que les cybercriminels exploitent cette technologie avec une redoutable efficacité, menaçant aussi bien les entreprises que les infrastructures vitales. L’histoire de la cybersécurité est un jeu d’échecs perpétuel. À chaque avancée défensive, les attaquants trouvent un moyen de contourner la barrière. La question n’est plus de savoir si l’IA sera au cœur des futures attaques mais plutôt qui, entre les criminels et les experts en cybersécurité, saura le mieux l’exploiter. Le champ de bataille est numérique, mais l’enjeu est bien réel protéger des données, des systèmes, et parfois, des vies.