La Commission européenne demandera aux plateformes technologiques telles que TikTok, X et Facebook de détecter les contenus générés par l'intelligence artificielle (IA) afin de préserver les prochaines élections européennes de la désinformation.

La Commission a lancé une consultation publique sur les lignes directrices proposées en matière de sécurité électorale pour les très grandes plateformes en ligne (VLOP) et les très grands moteurs de recherche en ligne (VLOSE). Les recommandations visent à réduire les menaces démocratiques posées par l'IA générative et les deepfakes.

Le projet de lignes directrices propose des exemples de mesures possibles pour faire face aux risques liés aux élections, y compris des actions spécifiques liées au contenu de l'IA générative, la planification de l'atténuation des risques avant ou après un événement électoral et la fourniture d'orientations claires pour les élections du Parlement européen.

L'IA générative peut induire les électeurs en erreur ou manipuler les processus électoraux en créant et en diffusant des contenus synthétiques inauthentiques et trompeurs concernant les acteurs politiques, une fausse représentation des événements, des sondages électoraux, des contextes ou des récits.

Garantir l'intégrité des élections signifie protéger le discours public, dont une grande partie se déroule en ligne. Nous souhaitons recueillir des avis sur notre projet de lignes directrices relatives à la loi sur les services numériques afin de faire face aux nouveaux risques en ligne qui pèsent sur les processus électoraux tout en préservant les fondements de nos démocraties ↓- Commission européenne (@EU_Commission) 8 février 2024

Actuellement ouvert à la consultation publique dans l'Union européenne jusqu'au 7 mars, le projet de lignes directrices sur la sécurité des élections recommande d'alerter les utilisateurs sur les plateformes concernées des inexactitudes potentielles dans le contenu produit par l'IA générative.

Selon le projet, les lignes directrices suggèrent également de guider les utilisateurs vers des sources d'information faisant autorité et indiquent que les géants de la technologie devraient mettre en œuvre des mesures de protection pour empêcher la génération de contenu trompeur susceptible d'avoir un impact significatif sur le comportement de l'utilisateur.

En ce qui concerne le texte généré par l'IA, la recommandation actuelle est que les VLOPs/VLOSEs « indiquent, si possible, dans les résultats générés, les sources concrètes des informations utilisées comme données d'entrée pour permettre aux utilisateurs de vérifier la fiabilité et de contextualiser davantage les informations ».

Les « meilleures pratiques » proposées par le projet de lignes directrices pour atténuer les risques s'inspirent de la proposition législative récemment approuvée par l'UE, la loi sur l'IA, et de son pendant non contraignant, le pacte sur l'IA.

À lire également : Présentation de la loi sur l'intelligence artificielle de l'UE

Les inquiétudes concernant les systèmes d'IA avancés, tels que les grands modèles de langage, sont apparues depuis la vague virale d'IA générative en 2023, qui a fait connaître des outils tels que le ChatGPT d'OpenAI.

La Commission n'a pas précisé quand exactement les entreprises seraient obligées d'étiqueter les contenus manipulés en vertu de la loi sur la modération des contenus de l'UE, la loi sur les services numériques.

Cependant, dans un article de blog de l'entreprise, Meta a annoncé son intention d'introduire de nouvelles directives concernant le contenu généré par l'IA sur Facebook, Instagram et Threads dans les mois à venir. Tout contenu reconnu comme généré par l'IA, que ce soit par des métadonnées ou un filigrane intentionnel, recevra une étiquette visible.