Le géant technologique Meta a reçu l’approbation des autorités européennes de protection des données pour entraîner ses modèles d’intelligence artificielle à partir des contenus partagés publiquement sur ses réseaux sociaux.

Désormais, les publications et commentaires des utilisateurs adultes sur Facebook, Instagram, WhatsApp et Messenger, ainsi que les interactions avec l’assistant IA de l’entreprise, seront utilisés pour améliorer ses modèles d’IA, a annoncé Meta dans un billet de blog publié le 14 avril.

L’entreprise estime qu’il est « important que nos modèles d’IA générative soient entraînés sur une grande diversité de données, afin de saisir toute la richesse et la complexité des communautés européennes. »

Technology, European Union, Social Media, Data, Meta

Meta a reçu le feu vert des autorités de régulation des données de l'UE pour entraîner ses modèles d'IA à l'aide de contenus partagés publiquement sur les médias sociaux. Source: Meta

« Cela va des dialectes et des expressions familières aux connaissances hyperlocales, en passant par les différentes façons dont les pays utilisent l'humour et le sarcasme sur nos produits », a ajouté l'entreprise.

Toutefois, les messages privés échangés entre proches et les données publiques des utilisateurs de moins de 18 ans basés dans l’UE resteront exclus du processus, précise-t-elle.

Les utilisateurs peuvent également refuser l’utilisation de leurs données dans l'entraînement de l’IA en remplissant un formulaire que Meta rendra accessible directement dans ses applications, par e-mail, et qui sera « facile à trouver, à lire et à utiliser ».

Les régulateurs de l’UE avaient gelé les projets d’entraînement des IA

En juillet dernier, Meta avait suspendu son projet d’utiliser des contenus publics pour entraîner son IA, après des plaintes déposées dans 11 pays européens par le groupe de défense de la vie privée None of Your Business. L’Autorité irlandaise de protection des données (IDPC) avait alors demandé l’interruption du déploiement, le temps d’un examen.

Les plaintes accusaient Meta de vouloir modifier sa politique de confidentialité pour exploiter des années de publications personnelles, d’images privées et de données de navigation à des fins d’entraînement de ses IA.

Meta affirme désormais avoir obtenu l’accord de la Commission européenne de protection des données (EDPB), estimant que sa nouvelle approche respecte les obligations légales. L’entreprise continue par ailleurs d’échanger « de manière constructive avec l’IDPC ».

« C’est de cette façon que nous entraînons nos modèles d’IA générative dans d’autres régions depuis leur lancement », explique Meta.

La société affirme s’inspirer d’autres acteurs comme Google ou OpenAI, qui ont déjà utilisé les données des utilisateurs européens pour former leurs modèles.

En septembre dernier, l’autorité irlandaise a ouvert une enquête transfrontalière visant Google Ireland Limited, afin de vérifier si le groupe respectait bien le droit européen lors du développement de ses modèles d’intelligence artificielle.

La plateforme X, anciennement Twitter, a fait l’objet d’un examen similaire et a accepté de cesser l’exploitation des données personnelles des utilisateurs basés dans l’Union européenne et l’Espace économique européen. Ces données servaient auparavant à entraîner son chatbot IA baptisé Grok.

L’Union européenne a instauré en août 2024 l’AI Act, une législation encadrant le développement de l’intelligence artificielle. Ce cadre juridique impose notamment des normes de qualité, de sécurité et de respect de la vie privée.