L’intelligence artificielle (IA) connaît une ascension fulgurante dans tous les domaines. La cybersécurité n’est pas épargnée. Depuis plusieurs années déjà, cette innovation révolutionne la productivité des employés et les défenses informatiques, mais également le jeu des attaques. Parfois allié de taille des spécialistes du secteur, parfois force redoutable des hackers, l’IA est un outil à double tranchant. Pour mieux comprendre cette technologie aux multiples facettes, Siècle Digital a rencontré Robin Kwiatkowski, chercheur en cybersécurité chez Kaspersky, leader mondial des solutions et services de cybersécurité.

Une innovation qui transforme le secteur

Les entreprises, tout secteur confondu, sont aujourd’hui nombreuses à se tourner vers l’intelligence artificielle pour accélérer les processus et traiter plus rapidement une importante quantité d’informations. Ce sont d’ailleurs quelques-unes des raisons pour lesquelles Kaspersky utilise cette technologie, et ce, depuis plusieurs années maintenant. « Il y a énormément de données qui sont remontées et d’activités qui sont malveillantes. Il faut donc un pré-traitement automatisé par de l’IA. Sinon, manuellement, nous ne pourrions absolument pas tout suivre », précise Robin Kwiatkowski.

Bien qu’un travail de vérification humain demeure toujours essentiel, l’IA permet de gagner un temps précieux, notamment dans la cybersécurité. Le Security Operation Center, qui est chargé de superviser les systèmes d’information au sein des entreprises pour éviter les cyberattaques, est l’une des divisions à en profiter. Au quotidien, ils doivent traiter une myriade d’incidents, dans lesquels se dissimulent de véritables attaques. Le pré-traitement réalisé par l’IA leur permet d’accélérer leur travail d’analyse pour déceler, plus vite, les vraies alertes et prendre des décisions plus éclairées.

Outre le gain de temps et d’énergie, cette innovation pourrait aussi, à terme, être utilisée pour améliorer la sécurité globale d’une organisation, en identifiant quel utilisateur accède à quelle ressource informatique. Comme l’explique le chercheur en cybersécurité de Kaspersky, « beaucoup d’attaquants utilisent des chemins dans le réseau qui n’ont pas forcément lieu d’être, par exemple, un salarié du service de comptabilité qui, de son ordinateur, accède une base de données technique, ce qui n’est pas censé être le cas ». En effet, il est très dur de cloisonner les utilisateurs d’un réseau. L’IA pourrait aider dans cette mission en affinant les accès informatiques des individus selon leur rôle dans l’entreprise.

Elle pourrait également avoir un rôle clé dans l’automation de l’analyse de virus, qui s’apparente à un véritable langage. « Une fois qu’il doit être exécuté, la machine le comprend, mais il est un peu difficile à lire pour nous en tant qu’humains », admet Robin Kwiatkowski. Les reverse engineers, qui analysent comment le virus fonctionne, doivent lire du “langage machine” pour maîtriser ses rouages. L’IA, qui est dotée de capacités avancées pour comprendre ce fameux langage, peut aider à accélérer les recherches.

Des risques et des limites liés aux deep fakes et aux fakes news

Bien que l’IA présente des opportunités majeures pour le secteur de la cybersécurité, ce n’est pas sans son lot d’interrogations. Quels sont les risques liés à son utilisation ? Qu’en est-il des limites ?

Si Robin Kwiatkowski ne s’inquiète pas du temps d’apprentissage de l’IA, qui demeure extrêmement rapide et impressionnant même dans un contexte cyber complexe, il s’interroge toutefois de la place de cette technologie dans l’industrie.

Ses capacités peuvent être utilisées à mauvais escient, comme en témoignent les deep fakes. Aujourd’hui, il existe une pléthore de services pour concevoir rapidement ces vidéos fallacieuses, et à bas coût. « Pour les individus, cela risque d’être très compliqué de se dire “Ça, c’est vrai, ça, ça ne l’est pas”», souligne l’expert. Il soulève également un autre risque : l’utilisation de l’IA par les comptes de désinformation, pour le moment contrôlés manuellement par des opérateurs. « À terme, je vois bien venir des comptes qui sont entièrement gérés par des IA. Un compte Twitter saura automatiquement à quels autres comptes s’abonner pour être légitime, à qui répondre, de quelle manière… Je pense que nous ferons face à un nombre énorme de faux comptes et d’avatars qui sont gérés par des IA derrière », explique le chercheur en cybersécurité de Kaspersky.

Se prémunir de tels dangers implique nécessairement un travail de sensibilisation et d’éducation. Pour Robin Kwiatkowski, cela devrait être une composante du parcours scolaire. « Comment vérifier une information ? Comment vérifier une source ? Cela me paraît important », insiste-t-il. De leur côté, il est nécessaire que les acteurs de la cybersécurité prennent connaissance du type de données sur lequel une IA a été entraînée afin d’anticiper ses limites ainsi que ses potentiels biais.

Face aux nombreuses utilisations qui en sont faites, offensives comme défensives, l’intelligence artificielle reste une technologie encore en plein développement. Si le secteur de la cybersécurité saisit progressivement les nombreuses opportunités qu’elle offre, il faut encore trouver un plan d’action méticuleux pour faire face à ses limites. Les défaillances doivent être anticipées et corrigées pour affronter les risques d’attaques, qui restent nombreux.