L'ascension fulgurante de l'intelligence artificielle générative a créé une véritable sensation technologique grâce à des produits axés sur l'utilisateur tels que ChatGPT d'OpenAI, Dall-E et Lensa. Mais l'essor de l'intelligence artificielle conviviale s'est accompagné d'une méconnaissance ou d'une ignorance de la part des utilisateurs des risques que ces projets font peser sur la protection de la vie privée.

Au milieu de tout ce battage médiatique, les gouvernements internationaux et les grandes figures de la technologie commencent à tirer la sonnette d'alarme. Invoquant des problèmes de confidentialité et de sécurité, l'Italie vient de placer une interdiction temporaire sur ChatGPT, ce qui pourrait inspirer un blocage similaire en Allemagne. Dans le secteur privé, des centaines de chercheurs en IA et de leaders de la technologie, dont Elon Musk et Steve Wozniak, ont signé une lettre ouverte demandant un moratoire de six mois sur le développement de l'IA au-delà du champ d'application de GPT-4.

L'action relativement rapide pour tenter de freiner le développement irresponsable de l'IA est louable, mais le paysage plus large des menaces que l'IA fait peser sur la confidentialité et la sécurité des données va au-delà d'un modèle ou d'un développeur. Bien que personne ne veuille entraver les capacités de l'IA à changer de paradigme, il est nécessaire de s'attaquer dès maintenant à ses lacunes afin d'éviter que les conséquences ne deviennent catastrophiques.

La tempête de l'IA sur la confidentialité des données

Il serait facile de dire qu'OpenAI et d'autres projets d'IA alimentés par les Big Tech sont les seuls responsables du problème de la confidentialité des données de l'IA, mais le sujet a été abordé bien avant qu'il n'entre dans le courant dominant. Des scandales concernant la confidentialité des données dans l'IA ont eu lieu avant la répression de ChatGPT, mais ils se sont pour la plupart produits en dehors de l'attention du public.

L'année dernière, Clearview AI, une société de reconnaissance faciale basée sur l'IA qui serait utilisée par des milliers de gouvernements et d'organismes chargés de l'application de la loi sans que le public en soit informé, s'est vu interdire de vendre des technologies de reconnaissance faciale à des entreprises privées aux États-Unis. Clearview a également été condamnée à une amende de 9,4 millions de dollars au Royaume-Uni pour sa base de données illégale de reconnaissance faciale. Qui peut dire que des projets d'IA visuelle axés sur le consommateur, tels que Midjourney ou d'autres, ne peuvent pas être utilisés à des fins similaires ?

Clearview AI, l'entreprise spécialisée dans la reconnaissance faciale, a confirmé que mon visage figurait dans sa base de données. Je leur ai envoyé une photo de mon visage et ils m'ont répondu avec ces images, accompagnées de liens vers les sites où ils les ont obtenues, notamment un site appelé "Insta Stalker". pic.twitter.com/ff5ajAFlg0 - Thomas Daigle (@thomasdaigle) 9 juin 2020

Le problème, c'est que c'est déjà le cas. Une série de récents scandales concernant la pornographie et les fausses nouvelles créées par des produits d'IA grand public n'ont fait qu'accentuer l'urgence de protéger les utilisateurs contre l'utilisation malveillante de l'IA. Il s'agit d'un concept hypothétique de mimétisme numérique qui devient une menace très réelle pour les personnes ordinaires et les personnalités publiques influentes.

Les modèles d'IA générative s'appuient fondamentalement sur des données nouvelles et existantes pour développer et renforcer leurs capacités et leur convivialité. C'est en partie la raison pour laquelle ChatGPT est si impressionnant. Cela étant dit, un modèle qui s'appuie sur de nouvelles données a besoin d'un endroit où puiser ces données, et une partie de ces données comprendra inévitablement les données personnelles des personnes qui l'utilisent. Et cette quantité de données peut facilement être utilisée à mauvais escient si des entités centralisées, des gouvernements ou des pirates informatiques s'en emparent.

Ainsi, avec une réglementation globale limitée et des opinions contradictoires sur le développement de l'IA, que peuvent faire les entreprises et les utilisateurs qui travaillent avec ces produits ?

Ce que les entreprises et les utilisateurs peuvent faire

Le fait que les gouvernements et d'autres développeurs s'intéressent aujourd'hui à l'IA est un signe de progrès par rapport au rythme glacial de la réglementation des applications Web2 et des cryptomonnaies. Il est donc essentiel de maintenir un sentiment d'urgence sans être alarmiste afin de créer des réglementations efficaces avant qu'il ne soit trop tard.

L'interdiction de ChatGPT en Italie n'est pas la première mesure prise par les gouvernements contre l'IA. L'Union européenne et le Brésil sont en train d'adopter des lois visant à sanctionner certains types d'utilisation et de développement de l'IA. De même, le potentiel de l'IA générative à entraîner des violations de données a suscité une action législative précoce de la part du gouvernement canadien.

Le problème des violations de données liées à l'IA est assez grave, au point qu'OpenAI a même dû intervenir. Si vous avez ouvert ChatGPT il y a quelques semaines, vous avez peut-être remarqué que la fonction d'historique des conversations était désactivée. OpenAI a temporairement désactivé cette fonction en raison d'un grave problème de confidentialité, les instructions d'inconnus ayant été exposées et ayant révélé des informations de paiement.

À lire également : Ne soyez pas surpris si l'IA tente de saboter vos portefeuilles de cryptomonnaies

Bien qu'OpenAI ait effectivement éteint cet incendie, il peut être difficile de faire confiance à des programmes lancés par des géants du Web2 qui réduisent leurs équipes d'éthique en matière d'IA pour faire ce qu'il faut de manière préventive.

À l'échelle du secteur, une stratégie de développement de l'IA davantage axée sur l'apprentissage automatique fédéré favoriserait également la protection de la vie privée. L'apprentissage fédéré est une technique d'IA collaborative qui forme des modèles d'IA sans que personne n'ait accès aux données, en utilisant plusieurs sources indépendantes pour former l'algorithme avec leurs propres ensembles de données.

En ce qui concerne les utilisateurs, il n'est pas nécessaire de devenir des luddites de l'IA et de renoncer totalement à l'utilisation de ces programmes, et cela sera probablement impossible dans un avenir proche. Mais il existe des moyens d'être plus intelligent quant à l'IA générative à laquelle vous accordez l'accès dans la vie de tous les jours. Pour les entreprises et les petites entreprises qui intègrent des produits d'IA dans leurs activités, il est encore plus vital d'être vigilant quant aux données que vous fournissez à l'algorithme.

L'adage selon lequel lorsque vous utilisez un produit gratuit, vos données personnelles sont le produit s'applique toujours à l'IA. Garder cela à l'esprit peut vous amener à reconsidérer les projets d'IA auxquels vous consacrez votre temps et l'usage que vous en faites. Si vous avez participé à toutes les tendances des médias sociaux qui impliquent d'envoyer des photos de vous à un site web louche alimenté par l'IA, envisagez de ne pas y participer.

ChatGPT a atteint 100 millions d'utilisateurs seulement deux mois après son lancement, un chiffre stupéfiant qui indique clairement que notre avenir numérique utilisera l'IA. Malgré ces chiffres, l'IA n'est pas encore omniprésente. Les régulateurs et les entreprises devraient utiliser cela à leur avantage pour créer des cadres pour un développement responsable et sécurisé de l'IA de manière proactive au lieu de courir après les projets une fois qu'ils deviennent trop gros pour être contrôlés. Dans l'état actuel des choses, le développement de l'IA générative n'est pas équilibré entre la protection et le progrès, mais il est encore temps de trouver la bonne voie pour s'assurer que les informations et la vie privée des utilisateurs restent au premier plan.

Ryan Paterson est le président d'Unplugged. Avant de prendre les rênes d'Unplugged, il a été fondateur, président et PDG d'IST Research de 2008 à 2020. Il a quitté IST Research en vendant l'entreprise en septembre 2020. Il a servi deux fois à l'Agence de recherche avancée de la défense et a passé 12 ans dans le corps des Marines des États-Unis.
Erik Prince est un entrepreneur, un philanthrope et un vétéran des Navy SEAL qui a des intérêts commerciaux en Europe, en Afrique, au Moyen-Orient et en Amérique du Nord. Il a été fondateur et président du Frontier Resource Group et fondateur de Blackwater USA, un fournisseur de solutions de sécurité, de formation et de logistique au niveau mondial pour le gouvernement américain et d'autres entités, avant de vendre l'entreprise en 2010.

Cet article a été rédigé à des fins d'information générale et n'est pas destiné à être et ne doit pas être considéré comme un conseil juridique ou d'investissement. Les points de vue, pensées et opinions exprimés ici n'engagent que l'auteur et ne reflètent ni ne représentent nécessairement ceux de Cointelegraph.