Meta, la société mère de Facebook et Instagram, a exposé sa stratégie pour lutter contre l'utilisation abusive de l'intelligence artificielle (IA) générative afin de garantir l'intégrité du processus électoral sur ses plateformes avant les élections parlementaires européennes de juin 2024.
Dans un article de blog publié le 25 février, le responsable des affaires européennes chez Meta, Marco Pancini, a renforcé le fait que les principes qui sous-tendent les « normes communautaires » et les « normes publicitaires » de la plateforme s'appliqueront également aux contenus générés par l'IA.
« Les contenus générés par l'IA peuvent également être examinés et évalués par nos partenaires indépendants de vérification des faits. », a-t-il écrit, l'une des évaluations devant indiquer si le contenu est « altéré », c'est-à-dire « falsifié, manipulé ou transformé en audio, vidéo ou photo ».
Les politiques de la plateforme exigent déjà que les images photoréalistes créées à l'aide des outils d'IA de Meta soient étiquetées comme telles.
Cette dernière annonce révèle que Meta développe également de nouvelles fonctionnalités pour étiqueter le contenu généré par l'IA créé par d'autres organismes tels que Google, OpenAI, Microsoft, Adobe, Midjourney et Shutterstock et que les utilisateurs publient sur l'une ou l'autre de ses plateformes.
En outre, Meta a déclaré qu'elle prévoyait d'ajouter une fonction permettant aux utilisateurs de révéler qu'ils ont partagé une vidéo ou un fichier audio généré par l'IA afin qu'ils soient signalés et étiquetés, avec des sanctions potentielles en cas de non-respect de cette obligation.
À lire également : Une entreprise texane fait l'objet d'une enquête criminelle pour avoir trompé les électeurs américains avec l'IA
Les annonceurs qui diffusent des publicités à caractère politique, social ou électoral, en particulier, qui ont été modifiées ou créées à l'aide de l'IA, doivent également divulguer son utilisation. L'article de blog indique qu'entre juillet et décembre 2023, Meta a supprimé 430 000 publicités dans l'UE parce qu'elles ne comportaient pas de clause de non-responsabilité.
Ce sujet est devenu de plus en plus pertinent avec les élections qui se dérouleront dans le monde entier en 2024. Avant cette dernière mise à jour, Meta et Google se sont tous deux exprimés sur les règles relatives à la publicité politique générée par l'IA sur leurs plateformes.
Le 19 décembre, Google a déclaré qu'il limiterait les réponses aux requêtes électorales sur son chatbot d'IA Gemini - alors appelé Bard - et sa fonction de recherche générative dans la période précédant l'élection présidentielle de 2024 aux États-Unis.
OpenAI, le développeur du célèbre chatbot ChatGPT, a également tenté de dissiper les craintes concernant l'ingérence de l'IA dans les élections mondiales en créant des normes internes pour contrôler l'activité sur ses plateformes.
Le 17 février, 20 entreprises, dont Microsoft, Google, Anthropic, Meta, OpenAI, Stability AI et X, ont toutes signé un engagement visant à limiter l'ingérence de l'IA dans les élections, reconnaissant ainsi le danger potentiel de la situation si elle n'est pas contrôlée.
Les gouvernements du monde entier ont également pris des mesures pour lutter contre l'utilisation abusive de l'IA à l'approche des élections locales. La Commission européenne a lancé une consultation publique sur les lignes directrices proposées en matière de sécurité électorale afin de réduire les menaces démocratiques posées par l'IA générative et les deepfakes.
Aux États-Unis, les voix générées par l'IA dans les escroqueries téléphoniques automatisées ont été interdites et rendues illégales après avoir été utilisées dans des robocalls frauduleux, alors qu'un deepfake du président Joe Biden commençait à circuler et à induire le public en erreur.