Si l’on observe attentivement certains phénomènes liés à l’utilisation des technologies numériques, on constate que l’exposition des systèmes IT (Information Technology) et OT (Operational Technology) dans le cyberespace ne cesse de croître et que l’utilisation de l’Intelligence Artificielle interconnectée aux systèmes physiques est de plus en plus répandue. joue un rôle fondamental dans les processus de contrôle parmi les systèmes qui utilisent des capteurs et des actionneurs.
60 % des entreprises qui utilisent l’intelligence artificielle dans ces domaines admettent que les risques qui y sont associés sont certainement importants et parmi les plus critiques.
Cependant, l'Intelligence Artificielle ouvre la voie non seulement au risque de nouveaux types d'attaques mais aussi à de nouvelles possibilités de défense et cela signifie que les paradigmes de évaluation des risques sur ces systèmes critiques doivent aujourd’hui être révisés.
C'est précisément ici qu'entre en jeu un projet financé par l'Union européenne (programme Horizon 2020 de la Commission européenne) et doté d'un budget d'environ quatre millions d'euros : le projet CINÉATIQUE.
Le projet KINAITICS - Attaques cybercinétiques utilisant l'intelligence artificielle - est officiellement né en octobre 2022 grâce à la collaboration de sept partenaires de cinq nations européennes différentes, parmi lesquels trois sont italiens (Pluribus One, Fondazione Toscana G.Monasterio et Engineering) et les quatre autres sont européens : le Commissariat à l'Energie Atomique et aux Energies Alternatives (CEA), le Centre de recherche et de technologie Hellas (CERTH), Vicomtech et la Katholieke Universiteit Leuven.
Le projet international vise à explorer les nouvelles opportunités d'attaque offertes par l'introduction de systèmes de contrôle basés sur l'intelligence artificielle et à étudier de nouvelles approches de défense pour accroître la robustesse et la résilience et les protéger des attaques.
C’est précisément dans ce secteur que l’IA joue un rôle important en favorisant une meilleure compréhension de la nature des risques émergents et l’adoption d’approches de sécurité innovantes.
Cela se fait à travers la création d'un cadre intégré, l'évaluation des risques potentiels et de leur évolution et l'étude des aspects juridiques, éthiques et liés à la conformité des lois et réglementations sur l'IA telles que le RGPD, la directive NIS2 et l'AI Act.
L'un des aspects clés concerne la transparence. Les algorithmes d'IA doivent être compréhensibles pour éviter des décisions opaques ou incompréhensibles, un phénomène connu sous le nom de boîte noire.
Dans des contextes critiques, comme le tri médical automatisé ou le contrôle de processus industriels, des décisions non transparentes peuvent générer de la méfiance ou, pire, mettre des vies humaines en danger.
En outre, la biais l’algorithmique (c’est-à-dire l’influence de biais ou de distorsions implicites dans les données qui conduisent à des décisions systématiquement biaisées) représente un risque réel. Si les données de formation ne sont pas représentatives ou contiennent des biais, les décisions du système peuvent être discriminatoires, injustes ou inappropriées. Par exemple, un système de sécurité basé sur l’IA pourrait favoriser ou pénaliser certaines catégories de personnes en fonction de caractéristiques non pertinentes, telles que l’origine ethnique ou le sexe.
Un nouveau cadre intégré
Le cadre de défense développé dans KINAITICS est étroitement lié au vôtre cyber gamme, un outil créé spécifiquement pour éduquer et former le personnel grâce à des cyber-exercices et pour aider les chercheurs à simuler des attaques réelles. En mettant en œuvre des stratégies de défense avec des outils d'IA, coordonnées par le travail humain, la gamme cyber se concentre à la fois sur les vulnérabilités numériques et physiques et sert de banc d'essai pour les attaques de toutes sortes, aidant à tester les capacités d'évaluation de la sécurité. en temps réel.
Le cadre de défense, divisé en quatre modules, comprend :
- type de surveillance comportementale (comportementale) des individus, des systèmes de contrôle industriel (ICS) et des logiciels ;
- le système d'aide à la décision qui permet de suggérer ou d'appliquer des contre-mesures pour atténuer les effets d'un cyberincident ;
- la forme de ingénierie sociale basé sur Machine Learning (ML) et Traitement du langage naturel (NLP), et enfin l’utilisation de mécanismes de défense hybrides IA-utilisateur.
L’utilisation du ML et de l’IA apporte des avantages substantiels en termes de performances, mais également de nouveaux risques potentiels. Les cybercriminels pourraient cibler les systèmes d'IA par diverses méthodes, telles que empoisonnement des données (c'est-à-dire empoisonnement des données) pendant la Formation, ce qui amènerait l’IA à prendre de mauvaises décisions, en fait la complexité croissante de l’IA entraîne de nouvelles vulnérabilités.
Le plus important d’entre eux est le risque d’attaques sur les données d’entraînement qui peuvent compromettre la capacité de l’IA à prendre des décisions fiables.
Sécuriser ces systèmes n’est pas une tâche simple et nécessite une compréhension approfondie des techniques utilisées par les attaquants. L'utilisation de frameworks existants comme ceux du projet MITRE ATT & CK e ATLAS (Adversarial Threat Landscape for Artificial-Intelligence Systems) vous aide à mieux comprendre, identifier et gérer les risques liés à l’intelligence artificielle, en proposant des solutions continuellement mises à jour.
C'est précisément en se référant à ATLAS qu'il est possible d'imaginer des cas d'utilisation réalistes... Imaginons par exemple une installation industrielle où des capteurs défectueux peuvent provoquer des accidents, l'utilisation du framework KINAITICS peut nous aider à prédire les anomalies, en suggérant des interventions avant que les problèmes ne surviennent, c'est c'est le cas de l'utilisation de Jumeau Numérique (jumeau numérique) d'un système utilisé de plus en plus souvent pour modéliser et prédire son comportement idéal et vérifier qu'il n'y a pas d'écarts qui pourraient mettre en danger la fonctionnalité et la sécurité physique du système. L'utilisation de Jumeaux numériques c'est avantageux mais en même temps étend les possibilités d'attaque : pensez à ce qui pourrait arriver si un cybercriminel parvenait à modifier le comportement ou le modèle du jumeau numérique, conduisant les opérateurs à des erreurs théoriquement fatales.
Une autre menace toujours croissante est celle de Mauvais Bots, utilisé à diverses fins mais surtout pour collecter automatiquement des informations. Ces robots deviennent de plus en plus sophistiqués et, selon les dernières Rapport Imperva ils utilisent désormais intensivement des modèles d’IA qui leur permettent d’imiter le comportement humain pour éviter d’être détectés. Qu'il suffise de dire qu'en 2023 le 49,6 % de tout le trafic Internet semble être produit par Mauvais robots e Bons robots.
Des outils comme KINAITICS pourraient être utiles pour améliorer les capacités de détection Mauvais robots leur permettant de se distinguer des « Good Bots » et des êtres humains grâce aux capacités de ML et d'IA dont il est doté.
A terme, l’intégration croissante entre systèmes physiques et intelligence artificielle ouvre de nouvelles perspectives intéressantes mais aussi de nouvelles vulnérabilités. Des attaques comme empoisonnement des données ou des techniques de inversion de modèle, qui permettent de reconstruire des informations sensibles à partir de modèles d’IA, peuvent menacer la sécurité des processus. De plus, la connexion avec des capteurs et des actionneurs expose les systèmes à des risques cinétiques, où une attaque numérique peut avoir des conséquences physiques, comme l'endommagement de machines ou le sabotage d'infrastructures critiques.
L'approche du projet KINAITICS, basée sur des simulations réelles et des cadres adaptatifs, représente une avancée dans l'atténuation de ces risques émergents.
Des projets comme KINAITICS améliorent non seulement la sécurité des systèmes, mais jettent les bases des futures normes qui guideront l’utilisation responsable et sûre de l’intelligence artificielle à l’ère de la connectivité mondiale.