"A l'annonce des résultats, les yeux de Lee Sedol se remplissent de larmes. AlphaGo, une intelligence artificielle (IA) développée par DeepMind de Google, vient de remporter une victoire 4-1 au jeu de Go. Nous sommes en mars 2016. Deux décennies plus tôt, le grand maître d'échecs Garry Kasparov avait perdu contre la machine Deep Blue, et maintenant un programme informatique avait gagné contre le dix-huitième champion du monde Lee Sedol dans un jeu complexe auquel on pensait que seuls les humains jouaient, utilisant leur intuition et leur réflexion stratégique. L’ordinateur n’a pas gagné en suivant les règles qui lui ont été données par les programmeurs, mais grâce à un apprentissage automatique basé sur des millions de jeux de Go passés et en jouant contre lui-même. Dans ce cas, les programmeurs préparent les ensembles de données et créent les algorithmes, mais ils ne peuvent pas savoir quels mouvements le programme proposera. L'intelligence artificielle apprend d'elle-même. Après une série de gestes inhabituels et surprenants, Lee a dû se résigner. »
Cet extrait du livre "AI Ethics" de Mark Coeckelbergh, philosophe et technologue belge, rappelle de manière explicite et suggestive la rencontre entre l'homme et ses limites. Après un certain nombre de victoires obtenues par Sedol, AlphaGo l'emporte. Ce n'est pas la première fois que cela se produit (l'exemple cité est celui de Deep Blue) et pourtant, après une série de mouvements inhabituels et surprenants, AlphaGo fait ce pour quoi il est conçu : c'est la première fois que cela se produit dans Par ici.
Et c’est ici que l’on saisit la synthèse du phénomène de l’Intelligence Artificielle (IA) : c'est la première fois que ça arrive de cette façon.
Tous les médias ont parlé de la course à l'Intelligence Artificielle, notamment après le "explosion» ChatGPT. Nous en avons parlé à plusieurs reprises également dans le contexte de la défense en ligne, en soulignant la poussée évolutive sans précédent que ces solutions rencontrent dans leur histoire.
Il existe pourtant un phénomène parallèle, inférentiel et lié au premier, qui risque de passer inaperçu. Celui de la standardisation de ces systèmes.
Réglementer l’Intelligence Artificielle n’est en aucun cas un simple défi, et sans entrer dans les détails techniques (ni les nombreuses fermentations législatives en cours dans les pays asiatiques et aux États-Unis sur le sujet), on peut dire que l’Union européenne, après des années de travail précédent, a mis met en place en décembre 2023 une version semi-définitive de ce qui représentera, une fois les discussions techniques et la procédure d'approbation communautaire terminées, le premier Règlement européen sur l'Intelligence Artificielle : l'AI ACT.
Qu'est-ce que c'est?
L'« AI Act » représente l'un des premiers et des plus structurés documents législatifs au niveau mondial visant à réglementer l'utilisation de l'intelligence artificielle et à atténuer les risques potentiels associés. Le texte final de la loi devra encore être élaboré par les professionnels compétents et soumis à une dernière révision. Il est prévu que, si tout se déroule sans obstacles, l'entrée en vigueur aura lieu dans les deux prochaines années.
Le règlement se concentre principalement sur la protection des droits et libertés individuels, établissant l'obligation pour les entreprises développant des solutions d'IA de démontrer que leurs produits et leur processus de développement ne mettent pas les personnes en danger ni ne compromettent leur intégrité. Cet acte réglementaire couvre plusieurs domaines d'application de l'intelligence artificielle, mais parmi les points principaux figurent les restrictions sur les systèmes d'identification biométrique et l'obligation de transparence concernant les systèmes technologiques utilisés pour Chatbot comme ChatGPT.
Un élément fondamental du règlement est le système de classification des risques, déjà adopté dans d'autres réglementations similaires (notamment le RGPD), qui identifie certains systèmes d'IA présentant des caractéristiques particulières comme « à haut risque », en les soumettant à des actions de conformité rigoureuses. Cette disposition constituera un défi majeur pour les entreprises et les institutions impliquées dans la création, la mise en service ou l'utilisation de tels systèmes.
Les exemples de systèmes à haut risque inclus dans le règlement incluent ceux utilisés dans des secteurs cruciaux tels que la santé, les transports, la justice et la sécurité publique. De tels systèmes nécessiteront des normes élevées en termes de sécurité, de transparence et de fiabilité. En particulier, pour les systèmes à haut risque, l'AI Act établit un certain nombre d'exigences strictes, notamment :
- Évaluation des risques et conformité: Les systèmes d’IA doivent être conçus et développés en tenant compte d’une évaluation approfondie des risques. Cela comprend la mise en œuvre de mesures pour gérer et minimiser ces risques.
- Transparence et informations utilisateur: Les systèmes d’IA doivent être transparents. Les utilisateurs doivent être informés lorsqu’ils interagissent avec un système d’IA et disposer de suffisamment d’informations sur la manière dont le système fonctionne et prend des décisions.
- Surveillance humaine: L'AI Act souligne l'importance de la surveillance humaine dans les systèmes d'IA, en particulier pour ceux à haut risque. Cela pourrait avoir des implications significatives pour l’utilisation militaire de l’IA, où la prise de décision automatisée dans des situations critiques peut être limitée ou nécessiter une supervision humaine explicite.
- Qualité des données: L'AI Act exige que les données utilisées par les systèmes d'IA soient gérées pour garantir la plus haute qualité, réduisant le risque de biais et garantissant que les décisions prises sont exactes et fiables.
- Sécurité et robustesse: Les systèmes d’IA doivent être sûrs et robustes contre les tentatives de manipulation ou d’utilisation abusive (un aspect particulièrement critique, c’est le moins qu’on puisse dire, dans le contexte militaire).
Une autre exigence particulièrement intéressante est celle introduite d'un point de vue éthique : la loi sur l'IA exige qu'une véritable « évaluation éthique » (Fundamental Rights Impact Assessment, FRIA) soit menée pour les systèmes à haut risque. Il existe également de nombreuses interactions avec le thème de la sécurité des traitements de données à caractère personnel, auquel le texte du Règlement fait référence à plusieurs reprises en ce qui concerne l'analyse des risques et des impacts sur les personnes physiques impliquées dans le fonctionnement de ces systèmes et sur les risques pour leurs données.
En outre, Il existe certaines pratiques interdites. Par exemple, l’utilisation de l’IA pour l’analyse de données biométriques sensibles, comme la reconnaissance de personnes sur la base de caractéristiques telles que l’orientation sexuelle, l’origine ethnique, la religion ou les idées politiques, sera interdite. Cette disposition vise à prévenir la discrimination et les abus. L'utilisation aveugle d'images prises sur Internet ou de caméras de vidéosurveillance pour entraîner des systèmes de reconnaissance faciale sera également interdite, afin de protéger la vie privée des personnes et d'empêcher une surveillance de masse.
Les services répressifs ne seront autorisés à utiliser les systèmes de reconnaissance biométrique (pour lesquels une bataille importante a été menée au sein de l'UE, après l'affaire Clearview) que dans circonstances exceptionnelles, comme la menace d'une attaque terroriste imminente ou la recherche d'individus soupçonnés de crimes graves ou de victimes de crimes graves.
La loi sur l'IA interdit l'utilisation de l'IA pour reconnaître les émotions des personnes sur les lieux de travail et dans les écoles, afin de préserver la liberté émotionnelle des individus. En outre, il interdit la pratique de notation sociale, ou l'utilisation de l'IA pour attribuer des scores en fonction du comportement ou des caractéristiques des personnes, entraînant des restrictions ou l'octroi de droits civils. Cette mesure vise à empêcher la manipulation explicite ou implicite du comportement des personnes.
Le règlement établit que les systèmes d'IA à fort impact, dotés de capacités de calcul élevées comme le GPT-4 d'OpenAI, doivent garantir la transparence dans le processus de formation et partager la documentation technique des matériaux utilisés avant d'être mis sur le marché. Ces modèles seront tenus de rendre reconnaissables les contenus qu'ils génèrent, afin de prévenir la fraude et la désinformation et de protéger les droits d'auteur des œuvres créées.
En termes de sanctions, les entreprises qui ne respecteraient pas ces règles pourraient se voir infliger des amendes pouvant aller jusqu'à 7 % de leur chiffre d'affaires global.
Ce qui est sans doute très intéressant, c'est ce qui est prévu dans le texte actuel sur les utilisations des systèmes d'Intelligence Artificielle dans le domaine militaire.
Il est en effet expressément prévu dans le texte (Art. 2, al. 3) que, en termes d'impact sur le secteur militaire, la loi AI ne s’applique pas directement aux systèmes d’intelligence artificielle développés ou utilisés à des fins militaires. Cependant, les normes et réglementations fixées par la loi sur l’IA peuvent influencer indirectement la manière dont les États membres de l’UE et les entreprises opérant en Europe développent et déploient des systèmes d’IA pour des applications militaires. Cela pourrait inclure des aspects tels que la transparence, la surveillance humaine et la sécurité du système. En outre, il est possible que la loi sur l’IA serve de modèle pour de futures réglementations (ou normes) spécifiques à l’armée, tant au niveau européen qu’au niveau mondial.
L’intégration croissante de l’intelligence artificielle dans la défense nécessite un cadre réglementaire qui équilibre l’innovation avec la responsabilité éthique et la sécurité. La collaboration entre les pays, les institutions et les industries sera essentielle pour garantir que l’utilisation militaire de l’IA se développe de manière responsable et conformément aux principes internationaux du droit humanitaire.
L’AI Act passera par plusieurs phases d’application dont la plus massive est raisonnablement attendue pour le second semestre 2026. Il est nécessaire de se préparer de manière significative sur la conception des systèmes en cours de développement, afin de concevoir une IA conforme aux exigences proposées par l’Union européenne en ce sens.
Andrea Puligheddu (Avocat et expert en droit et nouvelles technologies)
Note: l'article a nécessairement une orientation informative et n'aborde pas les nombreuses (et complexes) questions posées en relation avec le développement et l'application de la loi sur l'IA. Pour une discussion plus approfondie du sujet, veuillez écrire à moi à : Puligheddu@studiolegaleprivacy.com