Une députée travailliste britannique vient d’attirer l’attention sur la nécessité de réglementer l’intelligence artificielle (IA) de la même manière que la médecine et l’énergie nucléaire. Sa prise de position met en lumière les dangers potentiels associés à cette technologie et souligne l’urgence d’installer des mesures de contrôle pour éviter des conséquences catastrophiques.
L’urgence est à la réglementation
Lucy Powell, députée du parti travailliste britannique, s’est livrée au média The Guardian le 5 juin au sujet des récents progrès observés dans le domaine de l’IA. Elle a suggéré que les sociétés comme Google et OpenAI devraient posséder une licence pour construire les modèles d’IA.
Elle a appuyé son point de vue en ces termes :
« Mon véritable point d'inquiétude est l'absence de toute règle concernant les grands modèles de langage qui peuvent ensuite être appliqués à toute une série d'outils d'IA, qu'il s'agisse de régir la façon dont ils sont construits, la façon dont ils sont gérés ou la façon dont ils sont contrôlés. »
Mme Powell pense qu’il est préférable de réglementer certaines technologies pour participer à leur essor, plutôt que de les interdire. Elle a ajouté que l’IA « évolue si rapidement qu'elle nécessite une approche active et interventionniste de la part du gouvernement, plutôt qu'une approche de laisser-faire ».
L’Intelligence artificielle peut engendrer de nombreuses « conséquences involontaires ». Toutefois, si les développeurs sont contraints de faire preuve de transparence à propos de leurs modèles d’entrainement et leurs ensembles de données, le gouvernement pourrait atténuer la plupart de ces risques.
À lire également : Bitpanda fait le grand saut dans l’IA avec un investissement de 10 millions de dollars
La députée du parti travailliste britannique pense aussi qu’une technologie aussi avancée que l’IA pourrait avoir un impact colossal sur l’économie du Royaume-Uni. Le parti serait donc en train de mettre sur pied ses propres politiques sur l’IA et les technologies connexes.
En outre, Matt Clifford, président de l’Advanced Research and Invention Agency créée en février dernier, a averti que l’IA pourrait menacer les humains d’ici 2 ans au maximum. Ces outils pourraient être utilisés selon lui pour lancer « des cyberattaques à grande échelle ». À ce propos, OpenAI a proposé un million de dollars pour soutenir les technologies de cybersécurité assistées par l’IA afin de contrecarrer de telles utilisations.