Le monde a fait un pas de plus vers l'unification de ses objectifs et de ses valeurs en matière d'intelligence artificielle à la suite d'une réunion des ministres de la justice du Conseil de l'Europe.
Les États-Unis, l'Union européenne et le Royaume-Uni devraient signer la Convention-cadre sur l'IA le 5 septembre. Le traité souligne les droits humains et les valeurs démocratiques comme éléments clés pour réguler les modèles d'IA du secteur public et privé.
Unis par l'IA
La convention-cadre sur l'IA serait le premier traité international sur l'IA juridiquement contraignant pour ses signataires. Il responsabiliserait chaque signataire en cas de préjudice ou de discrimination causés par des systèmes d'IA.
Le traité exige également que les résultats de ces systèmes respectent l'égalité des citoyens et les droits à la vie privée, offrant aux victimes de violations par l'IA un recours légal. Cependant, en cas de violations, des renforcements consécutifs, tels que des amendes, n'ont pas encore été mis en place.
Par ailleurs, le respect du traité est seulement assuré par un suivi.
Le ministre britannique des sciences, de l'innovation et de la technologie, Peter Kyle, a déclaré que la signature du traité constituerait une première étape « importante » au niveau mondial.
« Le fait que nous espérons qu'un groupe aussi diversifié de nations va signer ce traité montre que nous répondons en tant que communauté mondiale aux défis posés par l'IA. »
Le traité a été initialement rédigé il y a deux ans, avec des contributions de plus de 50 pays, incluant le Canada, Israël, le Japon et l'Australie.
À lire également : L'ancien directeur scientifique d'OpenAI lève 1 milliard de dollars pour une startup qui ne compte que 10 employés
Bien qu'il puisse être le premier exemple de traité international sur l'IA, les nations individuelles envisagent activement de mettre en œuvre des régulations locales pour l’IA.
Règles mondiales de l'IA
Au cours de l'été, l'UE est devenue la première juridiction à mettre en œuvre des règles complètes régissant le développement et le déploiement de modèles d'IA, en particulier ceux de haut niveau équipés d'une grande capacité de calcul.
La loi sur l'IA de l'UE est entrée en vigueur le 1er août et a introduit d'importantes régulations pour l'IA par une mise en œuvre progressive et des obligations de conformité clés.
Bien que la loi ait été élaborée avec la sécurité à l'esprit, elle a également été un point de discorde parmi les développeurs dans le domaine de l'IA, qui affirment qu'elle entrave l'innovation dans la région.
Meta — la société mère de Facebook — qui est responsable de la construction de l'un des plus grands modèles de langage, Llama2, a cessé de déployer ses derniers produits dans l'UE en raison de régulations qui empêchent les européens d'accéder aux outils d'IA les plus avancés et récents.
Des entreprises technologiques se sont regroupées en août pour écrire une lettre aux dirigeants de l'UE, demandant plus de temps pour se conformer aux régulations.
L'IA aux États-Unis
Aux États-Unis, le Congrès n'a pas encore mis en place un cadre national pour la régulation de l'IA. Cependant, l'administration Biden a établi des comités et des groupes de travail pour la sécurité de l'IA.
Entre-temps, en Californie, les législateurs ont été occupés à rédiger et à passer des régulations sur l'IA. Au cours des deux dernières semaines, deux projets de loi ont été adoptés par l'Assemblée de l'État et attendent une décision finale du gouverneur de Californie, Gavin Newsom.
Le premier régule et pénalise la création de répliques digitales non autorisées de personnalités décédées.
Le second est un projet de loi très controversé, contesté par de nombreux grands développeurs d’IA, qui impose des tests de sécurité obligatoires pour la majorité des modèles d’IA avancés, ainsi que la nécessité de mettre en place un « interrupteur d'arrêt » pour ces modèles.
La régulation de l'IA en Californie est importante car cet État abrite le siège de certains des principaux développeurs mondiaux, tels qu'OpenAI, Meta et Alphabet.