
Les nouvelles technologies, comme l’Intelligence Artificielle (IA) et le Cloud Computing, offrent de multiples avantages pour les entreprises, notamment dans le secteur financier. Mais elles comportent aussi des risques qu’il est important de ne pas négliger. L’une des principales menaces de ces nouvelles technologies est l’augmentation des cyberattaques (phishing, deepfake…) qui peuvent compromettre les données sensibles des utilisateurs. En 2024, les méthodes de cyberattaque sont devenues de plus en plus sophistiquées et de plus en plus difficiles à détecter, notamment grâce à l’utilisation d’outils basés sur l’IA.
L'utilisation de l'IA par les cybercriminels
Non seulement l’IA a rendu les cyberattaques plus accessibles, y compris aux hackers novices, mais en plus, les pirates informatiques utilisent ces outils à des fins malveillantes, pour créer des campagnes d’arnaques de plus en plus réalistes et de plus en plus difficiles à détecter.
Les cybercriminels exploitent également des systèmes d’IA pour automatiser leurs attaques, adaptant rapidement leurs tactiques en fonction des cibles et des vulnérabilités identifiées.
Une hausse des cyberattaques
Le premier changement apporté par l’IA est la hausse des cyberattaques. Grâce à cet outil, des novices en matière de hacking peuvent mener des attaques complexes (par exemple, des deepfakes) avec une grande facilité. Grâce aux technologies génératives comme les grands modèles de langage (LLM) et aux outils d’automatisation, ils peuvent désormais créer des messages trompeurs qui sont très difficiles à distinguer du réel.
Cette démocratisation des outils d’intelligence artificielle a entraîné une hausse rapide du nombre de cyberattaques au cours des dernières années. D’après Philippe Albrecht, Président fondateur de Qwanza, les cyberattaques utilisant des pratiques d’intelligence artificielle ont augmenté de 300% en 3 ans.
Les institutions financières sont particulièrement visées par ces attaques, avec des incidents de phishing sophistiqués ciblant des employés de haut niveau, notamment dans les banques et assurances.
L'automatisation des attaques
Pour les cybercriminels, l’IA a surtout l’avantage de faciliter l’automatisation des attaques. Le Machine Learning permet de créer des outils capables de lancer des attaques en masse en un temps record.
Les outils d’IA sont capables d’analyser une grande quantité de données en temps réel, par exemple sur les réseaux sociaux, afin d’automatiser les attaques, et surtout, de les personnaliser. Les messages des attaques par phishing sont ainsi de plus en plus réalistes, et les hackers ont la capacité d’en envoyer des milliers chaque jour.
Mais le phishing n’est pas le seul type de cyberattaque concerné : les attaques par brute force par exemple sont aussi de plus en plus performantes grâce aux capacités de calcul hors norme de l’IA.
En parallèle, des attaques par “ransomware-as-a-service” (ransomware en tant que service) émergent, où les cybercriminels utilisent l’IA pour automatiser et affiner les demandes de rançon, en ciblant les failles spécifiques de systèmes d’information d’entreprises financières.
Des attaques plus difficiles à détecter
Les cyberattaques sont donc de plus en plus personnalisées : il devient alors de plus en plus difficile d’identifier un message réel d’un malware. Le deepfake est un type d’attaque de plus en plus populaire chez les cybercriminels, qui consiste à imiter de manière très convaincante la voix et le visage de quelqu’un. Les deepfakes sont utilisés pour des attaques de type ingénierie sociale. Par exemple, le hacker peut créer un message avec la voix synthétique du gérant d’une entreprise pour convaincre un collaborateur de lui faire un virement bancaire.
Les banques et autres acteurs du secteur financier voient également des attaques par deepfake ciblant les clients eux-mêmes, visant à extorquer des informations sensibles via des appels vidéo frauduleux ou des vidéos personnalisées.
La cyberdéfense basée sur l'IA
Face à la hausse de la cybercriminalité basée sur l’IA, les acteurs de la cybersécurité font évoluer leurs méthodes de défense. L’IA n’est pas seulement une menace en matière de sécurité informatique, c’est aussi une opportunité. De plus en plus d’acteurs développent des solutions basées sur l’IA pour mieux se protéger ces cyberattaques.
Limiter les erreurs humaines
Les capacités d’automatisation de l’IA sont précieuses pour les acteurs de la cybersécurité. L’IA peut réaliser des tâches complexes avec une marge d’erreur minime, ce qui n’est pas le cas d’un humain. Alors qu’avant, des équipes devaient analyser la sécurité des réseaux manuellement, en effectuant des tests et des audits, l’IA peut désormais estimer en un temps record si votre système est sécurisé ou non. Elle peut également vous donner des conseils pour faire évoluer votre système de sécurité afin de mieux vous protéger d’une éventuelle cyberattaque. Enfin, l’IA est capable de fonctionner en continu, et de réaliser des configurations et mises à jour de manière répétée sans risque d’erreur.
Détecter et prévenir les cyberattaques
Les outils d’intelligence artificielle sont plus efficaces que les humains pour détecter rapidement une attaque. En effet, certains signes d’un piratage peuvent échapper à un humain fatigué, mais pas à une intelligence artificielle programmée. Ces outils sont configurés pour envoyer des alertes en cas de menace, qui facilitent la détection des cyberattaques. L’intelligence artificielle permet aussi de réduire considérablement le délai de réponse en cas d’attaque, ce qui est très important pour limiter l’impact négatif d’un piratage sur son entreprise et ses utilisateurs – surtout aujourd’hui, avec l’évolution des attaques, de plus en plus rapides et dévastatrices.
La règlementation face à l'IA
Les régulations jouent un rôle crucial dans la réponse aux cyberattaques alimentées par l’IA, en particulier dans le secteur financier. La Directive NIS2 (Network and Information Systems Security) et la réglementation RGPD (Règlement Général sur la Protection des Données) imposent aux entreprises de renforcer la sécurité de leurs systèmes d’information et de protéger les données personnelles des utilisateurs.
Récemment, la réglementation européenne a renforcé les obligations de sécurité pour les institutions financières en matière de cybersécurité, incluant des exigences strictes sur la gestion des risques liés à l’IA et à l’automatisation des processus de sécurité. DORA (Digital Operational Resilience Act), un règlement spécifique pour le secteur financier, met l’accent sur la résilience opérationnelle numérique des entreprises, en exigeant des mesures proactives contre les risques cybernétiques, y compris ceux engendrés par l’utilisation de l’IA.
En parallèle, le Règlement sur l’Intelligence Artificielle (IA Act), actuellement en discussion au niveau de l’UE, vise à établir un cadre juridique sur l’utilisation de l’IA. Ce règlement impose des règles strictes pour les systèmes d’IA à haut risque, notamment ceux utilisés dans le secteur financier. Il définit des exigences en matière de transparence, de traçabilité, de gestion des risques et de conformité pour les entreprises utilisant l’IA, afin de minimiser les risques associés à son utilisation dans les domaines sensibles, comme les transactions financières.
DORA, en tant que lex specialis pour le secteur financier, impose aux institutions financières de mettre en place des stratégies de résilience numérique robustes, y compris la gestion des risques liés à l’IA. Les entreprises doivent donc être capables de détecter, prévenir et atténuer les cyberattaques alimentées par l’IA avant qu’elles ne causent des dommages graves.
En outre, les entreprises de tout secteur doivent désormais adopter des stratégies de cybersécurité anticipatives, afin de protéger les données et d’éviter des violations massives comme celles observées dans le passé.