« Artificial intelligence act », un accord historique pour faire de l’UE la terre d’accueil de l’IA

17 janv. 2024

Après plus de 37 heures de négociation, le Parlement européen et le Conseil ont trouvé un accord politique pour règlementer l’intelligence artificielle au sein de l’Union européenne, le 8 décembre dernier. Face à la croissance exponentielle du volume de données dans le monde (175 zettaoctets d’ici 2025), principalement portée par les algorithmes d’intelligence artificielle, il est apparu important de réguler ce domaine stratégique.

Il s’agit de la première règlementation aussi complète au monde sur ce sujet. D’après Thierry Breton, commissaire européen au marché intérieur ayant largement contribué à l’aboutissement de cet accord, « L’Europe va devenir le meilleur endroit au monde pour faire de l’intelligence artificielle ». « L’artificial intelligence Act » marque une grande étape dans l’histoire de la transformation numérique de l’Union européenne. Il est le fruit d’un équilibre complexe entre la nécessité de protéger les droits fondamentaux des citoyens et celle de soutenir le développement des start-up européennes prometteuses comme l’entreprise française Mistral désormais valorisée à 2 milliards de dollars.

Le texte prône une règlementation par le risque selon le potentiel danger que représentent les usages des différents systèmes d’intelligence artificielle.

Ainsi, les modèles d’intelligence artificielle dont le risque est considéré comme inacceptable, c’est-à-dire constituant une menace directe pour l’homme seront interdits. Parmi ces derniers, figure notamment le « score social » qui consiste à mobiliser l’IA pour classer les individus selon leur statut socio-économique, leurs caractéristiques personnelles ou encore leur comportement. Ces modèles considérés comme contraires aux valeurs européennes n’ont pas leur place dans un état de droit.

Par ailleurs, les systèmes d’IA visant à l’identification à distance des personnes tels que la reconnaissance faciale seront par principe interdits et feront l’objet de certaines dérogations strictement définies par la loi notamment pour poursuivre des crimes graves. D’autres modèles qui sont reconnus à haut risque car pouvant entraîner des préjudices pour les droits fondamentaux, la sécurité ou la santé des individus seront encadrés. Ainsi, une analyse d’impact avant la mise sur le marché et tout au long du cycle de vie de l’application sera requise. Par ailleurs, le modèle devra répondre à des obligations de transparence notamment en indiquant que le contenu a été généré par l’IA. Ainsi, les systèmes d’intelligence artificielle générative, comme ChatGPT qui visent à imiter l’intelligence humaine en créant du texte ou des images devront se conformer à ces obligations.

Enfin, les modèles d’intelligence artificielle présentant un risque limité devront également respecter des exigences de transparence afin de permettre aux utilisateurs de prendre conscience de ce qu’implique ce type d’applications comme les « deepfake ». En effet, il est parfois complexe de délimiter la frontière entre le réel et le virtuel dans l’usage de ces techniques de synthèse qui consistent à changer le visage ou la voix d’une personne grâce à l’IA.

Afin de s’assurer du respect de ces exigences, un office européen de l’intelligence artificielle sera créé. Celui-ci pourra être saisi directement par les citoyens et sera compétent pour sanctionner financièrement les entreprises en cas de non-respect des obligations, à hauteur de 7% de leur chiffre d’affaires et jusqu’à 35 millions d’euros.

Grâce à ce texte, la nouvelle révolution du numérique par l’intelligence artificielle sera rendue possible en favorisant l’innovation et l’émergence de champions européens tout en régulant les comportements contraires aux valeurs européennes. Le texte approuvé par le Parlement et les États membres devra désormais être formellement adopté pour être intégré à la législation de l’UE.