Selon un rapport de Bloomberg, des représentants de l'Union européenne seraient en train de négocier un plan de réglementation supplémentaire pour les plus grands systèmes d'intelligence artificielle (IA).

La Commission européenne, le Parlement européen et les différents États membres de l'UE seraient en train de discuter des effets potentiels des grands modèles de langage (LLM), notamment Llama 2 de Meta et ChatGPT-4 d'OpenAI, et des restrictions supplémentaires qui pourraient leur être imposées dans le cadre de la prochaine loi sur l'IA.

Bloomberg rapporte que des sources proches du dossier ont déclaré que l'objectif était de ne pas surcharger les nouvelles startups avec trop de réglementations tout en gardant les modèles plus importants sous contrôle.

Selon ces sources, l'accord conclu par les négociateurs sur le sujet n'en est encore qu'au stade préliminaire.

La loi sur l'IA et les nouvelles réglementations proposées pour les LLM constitueraient une approche similaire à la loi sur les services numériques (DSA) de l'UE.

Les législateurs de l'UE ont récemment mis en œuvre la loi sur les services numériques, qui impose aux plateformes et aux sites web des normes pour protéger les données des utilisateurs et détecter les activités illégales. Toutefois, les plus grandes plateformes du web sont soumises à des contrôles plus stricts.

Les entreprises de cette catégorie, comme Alphabet et Meta, avaient jusqu'au 28 août pour mettre à jour leurs pratiques en matière de services afin de se conformer aux nouvelles normes de l'UE.

À lire également : L'UNESCO et les Pays-Bas conçoivent un projet de supervision de l'IA pour l'UE

La loi européenne sur l'IA est censée être l'un des premiers ensembles de règles obligatoires pour l'IA mis en place par un gouvernement occidental. La Chine a déjà adopté sa propre réglementation en matière d'IA, qui est entrée en vigueur en août 2023.

En vertu de la réglementation de l'UE sur l'IA, les entreprises qui développent et déploient des systèmes d'IA devraient procéder à des évaluations des risques, étiqueter le contenu généré par l'IA et il leur est totalement interdit d'utiliser la surveillance biométrique, entre autres mesures.

Toutefois, la législation n'a pas encore été promulguée et les États membres ont toujours la possibilité de ne pas être d'accord avec les propositions formulées par le Parlement.

En Chine, depuis l'entrée en vigueur des lois sur l'IA, plus de 70 nouveaux modèles d'IA auraient déjà vu le jour.