L'éminent développeur d'intelligence artificielle (IA) OpenAI a été placé au centre d'une nouvelle plainte relative à la protection de la vie privée déposée par un groupe de défense des droits des données en Autriche.
Le 29 avril, Noyb a déposé une plainte alléguant qu'OpenAI n'avait pas corrigé les fausses informations fournies par son chatbot d'IA générative ChatGPT. Le groupe a déclaré que ces actions, ou l'absence d'actions, pourraient constituer une violation des règles de protection de la vie privée dans l'Union européenne.
Selon le groupe, le plaignant de l'affaire, une personnalité publique anonyme, a demandé au chatbot d'OpenAI des informations le concernant et s'est vu systématiquement fournir des informations erronées.
OpenAI aurait refusé la demande du personnage public de corriger ou d'effacer les données, en disant que ce n'était pas possible. Elle a également refusé de révéler des informations sur ses données d'entraînement et leur provenance.
Maartje de Graaf, avocate spécialisée dans la protection des données chez Noyb, a commenté l'affaire dans un communiqué :
« Si un système ne peut pas produire des résultats précis et transparents, il ne peut pas être utilisé pour générer des données sur des individus. La technologie doit suivre les exigences légales, et non l'inverse ».
À lire également : OpenAI, la société de Sam Altman, serait en pourparlers avec son autre entreprise, Worldcoin
Noyb a déposé une plainte auprès de l'autorité autrichienne de protection des données, lui demandant d'enquêter sur le traitement des données d'OpenAI et sur la manière dont elle garantit l'exactitude des données personnelles traitées par ses grands modèles de langage (LLM).
Selon Mme De Graaf, « il est clair que les entreprises sont actuellement incapables de faire en sorte que les chatbots comme ChatGPT soient conformes à la législation européenne lorsqu'ils traitent des données concernant des individus ».
Noyb, également connu sous le nom de European Center for Digital Rights, opère depuis Vienne, en Autriche, dans le but de lancer des « affaires judiciaires stratégiques et des initiatives médiatiques » qui soutiennent les lois du règlement général européen sur la protection des données (RGPD).
Ce n'est pas la première fois que les chatbots sont dénoncés en Europe par des militants ou des chercheurs.
En décembre 2023, une étude menée par deux organisations européennes à but non lucratif a révélé que le chatbot Bing AI de Microsoft, rebaptisé Copilot, fournissait des informations trompeuses ou inexactes concernant les élections locales en Allemagne et en Suisse.
Le chatbot fournissait des réponses inexactes sur les informations relatives aux candidats, les sondages, les scandales et le vote, tout en citant mal ses sources.
Un autre cas, qui ne concerne pas spécifiquement l'UE, a été observé avec le chatbot Gemini AI de Google, qui fournissait des images « fantaisistes » et inexactes dans son générateur d'images. Google a présenté ses excuses pour cet incident et a indiqué qu'il mettrait à jour son modèle.