Les législateurs de l'Union Européenne cherchent à mettre en place un code de conduite pour le développement et la mise en œuvre de l'intelligence artificielle (IA) avant la prochaine loi sur l'IA de l'UE.
Lors d'une réunion conjointe du Conseil du commerce et de la technologie Union Européenne-États-Unis qui s'est tenue en Suède le 31 mai, Margrethe Vestager, responsable de la technologie au sein de l'UE, a déclaré que les représentants des États-Unis et de de l'Union Européenne devraient inciter l'industrie de l'intelligence artificielle à adopter un code de conduite volontaire dans les mois à venir.
Selon Mme Vestager, cela permettrait de créer des garanties, alors que les nouvelles lois sont encore en cours d'élaboration. Elle a souligné que ces dernières entreront en vigueur dans deux ans et demi ou trois ans dans le « meilleur des cas », ce qui est « manifestement beaucoup trop tard ».
« Nous devons agir maintenant. »
Mme Vestager est chargée de coordonner une stratégie européenne en matière de données et d'approche de l'intelligence artificielle. Elle a expliqué que si l'Union Européenne et les Etats-Unis prenaient l'initiative, ils pourraient créer un code de conduite qui rendrait tout le monde « plus à l'aise » avec la trajectoire du développement de l'IA.
« C'est à cette vitesse qu'il faudra discuter dans les prochaines semaines, les prochains mois, et bien sûr impliquer l'industrie (...) pour que la société ait confiance en ce qui se passe. »
Le chef de la technologie a fait savoir que les législateurs devaient se mettre d'accord sur des points précis plutôt que sur des déclarations générales à l'emporte-pièce.
À lire également : Qu'est-ce que le « fair use » ? La Cour suprême des États-Unis se penche sur le dilemme de l'IA en matière de droits d'auteur
Entre-temps, la loi européenne sur l'intelligence artificielle, qui introduira des réglementations complètes pour la technologie, est toujours en cours de finalisation par les membres du Parlement européen.
La version la plus récente de la législation comprenait une interdiction de l'utilisation publique des outils de surveillance biométrique et de police prédictive. En outre, les outils d'IA doivent être classés en fonction de leur niveau de risque perçu, allant de faible à inacceptable.
Le 25 mai, Sam Altman, PDG d'OpenAI - la société responsable du chatbot ChatGPT - s'est adressé aux législateurs de l'Union Européenne au sujet de la surréglementation de l'industrie de l'IA.