Le Parlement européen a adopté la loi sur l'intelligence artificielle de l'UE, un cadre législatif radical pour la gouvernance et la surveillance des technologies d'intelligence artificielle dans l'Union européenne.
EU AI act: first regulation on artificial intelligence
— Europarl UK (@EPinUK) June 14, 2023
The use of artificial intelligence in the EU will be regulated by the AI Act, the world’s first comprehensive AI law. Find out how it will protect you ⬇️https://t.co/CQqAi7S8lR pic.twitter.com/GzVfIne7tH
Législation de l'UE sur l'IA : première réglementation sur l'intelligence artificielle L'utilisation de l'intelligence artificielle dans l'UE sera réglementée par la législation sur l'IA, la première loi globale sur l'IA au monde. Découvrez comment elle vous protégera ⬇️https://t.co/CQqAi7S8lR pic.twitter.com/GzVfIne7tH - Europarl UK (@EPinUK) 14 juin 2023
La mesure a été adoptée par le Parlement lors d'un vote qui s'est déroulé le 14 juin et qui a recueilli une majorité de 499 voix pour, 28 contre et 93 abstentions. La prochaine étape avant que le projet de loi ne devienne une loi consistera en des négociations individuelles avec les membres du Parlement européen afin d'en régler les détails. Initialement proposé par la Commission européenne le 21 avril, la législation européenne sur l'IA est un ensemble complet de règles pour le développement de l'IA dans l'UE.
Selon un communiqué de presse du Parlement européen :
« Les règles visent à promouvoir l'adoption d'une IA centrée sur l'homme et digne de confiance et à protéger la santé, la sécurité, les droits fondamentaux et la démocratie contre ses effets néfastes. »
Une fois mise en œuvre, la loi interdira certains types de services et de produits d'intelligence artificielle, tout en limitant ou en imposant des restrictions à d'autres. Parmi les technologies totalement interdites figurent la surveillance biométrique, les systèmes de notation sociale, la police prédictive, la « reconnaissance des émotions » et les systèmes de reconnaissance faciale non ciblés. Les modèles d'intelligence artificielle générative, tels que ChatGPT d'OpenAI et Bard de Google, seraient autorisés à fonctionner à condition que leurs résultats soient clairement identifiés comme étant générés par l'intelligence artificielle.
À lire également : L'autorité irlandaise de surveillance des données empêche Google de lancer Bard dans l'UE
Une fois que la loi sera entrée en vigueur, tout système d'IA qui pourrait « causer un préjudice important à la santé, à la sécurité, aux droits fondamentaux ou à l'environnement » ou « influencer les électeurs et le résultat des élections » sera classé comme présentant un risque élevé et soumis à une gouvernance plus poussée.
Sam Altman, PDG d'OpenAI, a été l'un des plus fervents défenseurs de la surveillance du secteur de l'IA par les pouvoirs publics. Il a récemment témoigné devant le Congrès lors d'une audition au cours de laquelle il a explicitement exprimé sa conviction qu'une réglementation était nécessaire. Toutefois, M. Altman a également mis en garde les régulateurs européens contre une réglementation excessive.
Sur le front des cryptomonnaies, la directrice générale de Ripple pour l'Europe et le Royaume-Uni, Sendi Young, a récemment déclaré à Cointelegraph qu'elle pensait que le cadre MiCA contribuerait à faciliter des « conditions de concurrence équitables » pour les entreprises opérant dans le secteur des cryptomonnaies en Europe.