L'Union européenne a fait progresser son cadre réglementaire pour l'intelligence artificielle (IA), les États membres ayant voté pour approuver le texte final de la loi sur l'IA de l'UE.
Le commissaire au marché intérieur de l'UE, Thierry Breton, a confirmé « l'approbation de l'accord politique conclu en décembre » 2023 par l'ensemble des 27 États membres. Dans un message publié sur la plateforme de médias sociaux X, il a déclaré que la loi sur l'IA était historique et constituait une première mondiale.
La loi sur l'IA est une stratégie fondée sur les risques pour réglementer les applications de l'IA. L'accord couvre l'utilisation gouvernementale de l'IA dans la surveillance biométrique, la manière de réglementer les systèmes d'IA tels que ChatGPT, et les règles de transparence à suivre avant l'entrée sur le marché.
Signed!
— Belgian Presidency of the Council of the EU 2024 (@EU2024BE) February 2, 2024
Coreper I Ambassadors confirmed the final compromise text found on the proposal on harmonised rules on artificial intelligence (#AIAct).
The AI Act is a milestone, marking the 1st rules for AI in the , aiming to make it safe & in respect of fundamental rights. pic.twitter.com/QUe2Sr89A5
Après l'accord politique de décembre, les efforts ont commencé à transformer les positions convenues en un texte de compromis final à soumettre à l'approbation des législateurs, ce qui s'est conclu par le vote du coreper le 2 février, qui est un vote des représentants permanents de tous les États membres.
Les experts se sont montrés très préoccupés par les deepfakes, des vidéos réalistes mais fabriquées par des algorithmes d'IA formés à partir de séquences en ligne, qui apparaissent sur les médias sociaux et qui brouillent la frontière entre la vérité et la fiction dans le discours public.
Margrethe Vestager, vice-présidente exécutive de la Commission européenne chargée d'une Europe adaptée à l'ère numérique, a déclaré que l'accord de vendredi constituait une étape importante vers la loi sur l'IA. Elle a déclaré :
« Nous partons d'une idée simple : Plus l'IA est risquée, plus les responsabilités des développeurs sont importantes. Par exemple, si elle est utilisée pour trier les candidats à un emploi ou pour être admis à un programme d'éducation. C'est pourquoi la loi sur l'IA se concentre sur les cas à haut risque. »
L'accord de vendredi est intervenu alors que la France a retiré son objection à la loi sur l'IA. Le 30 janvier, l'Allemagne a également soutenu la loi après que le ministre fédéral des affaires numériques et des transports, Volker Wissing, a déclaré qu'un compromis avait été trouvé.
À lire également : Le Royaume-Uni risque de perdre la course à l'IA en raison d'une approche privilégiant la sécurité au détriment des opportunités
La loi sur l'IA devrait passer à l'étape législative avec un vote au sein d'une commission de législateurs de l'UE le 13 février, suivi d'un vote du Parlement européen en mars ou avril. Il devrait être appliqué en 2026, certaines dispositions spécifiques prenant effet plus tôt.
La Commission européenne prend des mesures pour mettre en place un Office de l'IA chargé de contrôler la conformité d'un groupe de modèles fondamentaux à fort impact considérés comme présentant un risque systémique. En outre, elle a dévoilé des mesures visant à soutenir les développeurs locaux d'IA, telles que la mise à niveau du réseau de superordinateurs de l'UE pour la formation aux modèles d'IA générative.