L'Artificial Intelligence Act de l'Union européenne est officiellement entré en vigueur le 1er août, suite à sa publication au Journal officiel de l'UE le 12 juillet.

Cette législation historique marque une étape importante vers la régulation du paysage en évolution rapide de l'IA au sein de l'UE. Alors que les parties prenantes de divers secteurs se préparent à ces nouvelles règles, il est crucial de comprendre la mise en œuvre progressive et les aspects clés de l'AI Act.

Mise en œuvre de l'AI Act

Selon le schéma de mise en œuvre de l'AI Act, la législation sera introduite progressivement, similaire à l'approche de l'UE pour l'introduction de sa réglementation sur les marchés des crypto-actifs, ce qui permet aux organisations de s'ajuster et de se conformer.

L'UE est bien connue pour sa bureaucratie complexe. En conséquence, le 1er août, le compte à rebours officiel commencera pour les mises en œuvre pratiques de l'AI Act, avec des étapes clés prévues pour entrer en vigueur tout au long de 2025 et 2026.

La première sera les "Interdictions de certains systèmes d'IA", qui entreront en vigueur en février 2025. Cet ensemble de règles interdira les applications d'IA qui exploitent les vulnérabilités individuelles, se livrent à une collecte non ciblée d'images faciales sur Internet ou des images de vidéosurveillance, et créent des bases de données de reconnaissance faciale sans consentement.

Ensuite, les modèles d'IA à usage général auront un nouvel ensemble d'exigences mis en œuvre en août 2025. Ces systèmes d'IA sont conçus pour traiter diverses tâches plutôt que d'être utilisés à des fins uniques et spécifiques, telles que l'identification d'images.

Les règles pour certains systèmes d'IA à haut risque (HRAI) présentant des risques de transparence spécifiques entreront en vigueur d'ici août 2026.

Par exemple, si le système HRAI fait partie d'un produit soumis aux lois de l'UE en matière de santé et de sécurité, comme les jouets, les règles s'appliqueront d'ici août 2027. Pour les systèmes HRAI utilisés par les autorités publiques, la conformité sera obligatoire d'ici août 2030, indépendamment de tout changement de conception.

Entreprises et conformité

L'application de l'AI Act sera robuste et multiforme. L'UE a l'intention d'établir et de désigner des autorités réglementaires nationales dans chacun des 27 États membres pour superviser la conformité.

Ces autorités auront le pouvoir de mener des audits, d'exiger de la documentation et d'appliquer des actions correctives. Le Conseil européen de l'intelligence artificielle coordonnera et garantira une application cohérente dans l'ensemble de l'UE.

Les entreprises traitant de l'IA devront respecter des obligations de conformité en matière de gestion des risques, de gouvernance des données, de transparence de l'information, de surveillance humaine et de suivi post-commercial.

Les experts du secteur ont recommandé que, pour se conformer à ces obligations, les entreprises commencent à effectuer des audits approfondis de leurs systèmes d'IA, à établir des pratiques de documentation complètes et à investir dans des cadres de gouvernance des données robustes.

Le non-respect de l'AI Act peut entraîner des sanctions sévères, telles que des amendes pouvant aller jusqu'à 35 millions d'euros ou 7% du chiffre d'affaires mondial annuel total de l'entreprise, selon la plus grande de ces deux sommes.

L'AI Act complète le Règlement général sur la protection des données (RGPD) entré en vigueur en mai 2018 en abordant les risques spécifiques à l'IA et en garantissant que les systèmes d'IA respectent les droits fondamentaux.

Alors que le RGPD se concentre sur la protection des données et la vie privée, l'AI Act met l'accent sur le déploiement sûr et éthique de l'IA. Déjà, de grandes entreprises technologiques comme Meta, la maison mère de Facebook et Instagram, ont retardé le lancement de produits intégrant de l'IA dans l'UE en raison de "l'incertitude réglementaire" autour du RGPD et de l'AI Act.