L'Assemblée générale des Nations unies a adopté une résolution concernant l'intelligence artificielle (IA). Cette résolution représente l'effort le plus récent parmi les diverses initiatives gouvernementales à travers le monde visant à influencer le développement de l'IA.
La résolution, initiée par les États-Unis et soutenue par 123 pays, dont la Chine, a été adoptée à l'unanimité le 2 mars, ce qui témoigne d'un large soutien de la part des 193 pays membres de l'ONU.
La résolution encourage les pays à sauvegarder les droits de l'homme, à protéger les données personnelles et à surveiller les risques liés à l'IA.
Alors que de nombreuses initiatives en matière d'IA manquent de force exécutoire, des inquiétudes persistent quant au potentiel de la technologie à perturber les systèmes démocratiques, à exacerber les activités frauduleuses ou à entraîner d'importants licenciements, parmi d'autres impacts négatifs potentiels. La résolution stipule ce qui suit :
« La conception, le développement, le déploiement et l'utilisation inappropriés ou malveillants de systèmes d'intelligence artificielle [...] présentent des risques qui pourraient [...] compromettre la protection, la promotion et la jouissance des droits de l'homme et des libertés fondamentales. »
Contrairement aux résolutions du Conseil de sécurité, celles de l'Assemblée générale des Nations unies ne sont pas juridiquement contraignantes et servent plutôt d'indicateurs du sentiment mondial. Cette résolution exhorte diverses entités, y compris les nations, à promouvoir des cadres réglementaires pour des systèmes d'IA sécurisés.
La résolution vise à combler le fossé numérique entre les pays riches et les pays en développement moins riches, en veillant à ce qu'ils soient inclus dans les discussions sur l'IA.
Elle s'efforce également de doter les pays en développement de la technologie et des compétences nécessaires pour tirer parti des avantages de l'IA, tels que la détection des maladies, la prévision des inondations, l'aide à l'agriculture et la formation de la main-d'œuvre.

En novembre, les États-Unis, la Grande-Bretagne et plus d'une douzaine d'autres pays ont conclu un pacte mondial complet décrivant les mesures à prendre pour protéger l'intelligence artificielle contre les acteurs malveillants. L'accord souligne la nécessité pour les entreprises technologiques de développer des systèmes d'intelligence artificielle dotés de fonctions de sécurité inhérentes.
À lire également : La solution simple du PDG de Nvidia aux hallucinations de l'IA pourrait bouleverser la crypto
La résolution met en garde contre « la création, la promotion, la mise en œuvre et l'utilisation inappropriées ou malveillantes de systèmes d'intelligence artificielle, dépourvus de protections adéquates ou violant le droit international. »
Dans le même temps, les grandes entreprises technologiques ont généralement approuvé la nécessité d'une réglementation de l'IA, tout en veillant à ce que les règles soient favorables à leurs intérêts.
Toutefois, le 13 mars, les législateurs de l'Union européenne ont donné leur accord final à la première réglementation globale au monde en matière d'IA. Après quelques étapes procédurales, ces règles devraient être opérationnelles d'ici mai ou juin.
La réglementation européenne interdit plusieurs technologies, notamment la surveillance biométrique, les systèmes de notation sociale, la police prédictive, la « reconnaissance des émotions » et les systèmes de reconnaissance faciale non ciblés.
La Maison Blanche a également cherché à atténuer les risques liés à l'IA pour les consommateurs, les travailleurs et les minorités, tout en renforçant la sécurité nationale, par le biais d'un nouveau décret publié en octobre.