Scanner son iris pour devenir un « humain vérifié » en échange de monnaie numérique, cela ressemble à un épisode de Black Mirror. Mais il ne s'agit pas de l'histoire d'une série de science-fiction dystopique - c'est ce qui se passe actuellement avec l'un des derniers projets Web3.
Le lancement de Worldcoin sur Optimism a amené de nombreuses personnes à se demander si ce projet n'était pas en train de détourner la promesse de décentralisation de Web3 pour construire exactement le contraire. Pourtant, plus de 2 millions de personnes vivant dans des zones mal desservies ont déjà accepté de partager leurs données biométriques avec Worldcoin en échange de 25 WLD, qui valent moins de 100 dollars à l'heure où nous écrivons ces lignes.
Ce n'est pas seulement étrange, cela présente aussi de sérieux risques pour la vie privée et crée un pot de miel pour les mauvais acteurs. Qui plus est, on peut soutenir que cela pourrait même interférer avec la souveraineté de pays étrangers.
Pourquoi avons-nous besoin de Worldcoin en premier lieu ?
Worldcoin a été fondé pour résoudre les externalités attendues de sa société sœur, OpenAI - le créateur de ChatGPT et d'autres produits d'IA populaires. Une main résout les problèmes que l'autre crée.
2024: Bitcoiners trying to save the children from Sam Altman’s WorldCoin orb eye scans pic.twitter.com/ZeAWuNdSJs
— ₿it₿ry (@bchinella) July 26, 2023
2024 : Les bitcoiners tentent de sauver les enfants des scanners oculaires WorldCoin de Sam Altman pic.twitter.com/ZeAWuNdSJs. - ₿it₿ry (@bchinella) 26 juillet 2023
Selon les termes de ses fondateurs : « En cas de succès, nous pensons que Worldcoin pourrait accroître considérablement les opportunités économiques, mettre à l'échelle une solution fiable pour distinguer les humains de l'IA en ligne tout en préservant la vie privée, permettre des processus démocratiques mondiaux et, à terme, montrer une voie potentielle vers le RBI [revenu de base inconditionnel] financé par l'IA. »
Le problème avec Worldcoin
Malgré l'ambition et la promesse de protéger la vie privée, une toute nouvelle série de problèmes découle du fait que cette tâche est confiée à une seule entreprise, actuellement centralisée. L'ironie de la situation n'a pas échappé à ChatGPT. Voici quelques-unes de ses réponses à la question « Quels sont les risques liés au fait qu'une seule entreprise possède les données biométriques d'individus vivant dans des pays sous-développés ? » :
- Violations de la vie privée
- Violations de la sécurité
- Surveillance et souveraineté
Le cofondateur d'Ethereum, Vitalik Buterin, s'est également fait l'écho de certaines de ces préoccupations.
Violations de la vie privée
Les données biométriques telles que l'iris sont très sensibles et uniques à chaque individu. Elles peuvent révéler des informations telles que le sexe, l'origine ethnique et, éventuellement, des conditions médicales. Si une seule entreprise contrôle ces données, le risque de violation de la vie privée est élevé, car elles peuvent être utilisées pour suivre et surveiller des personnes sans leur consentement.
Qui peut dire que l'entreprise n'exploitera pas les données biométriques à des fins commerciales, telles que la publicité ciblée ou la vente de données à d'autres entités ? N'est-ce pas diamétralement opposé à ce que nous essayons de réaliser depuis quelques années ?
Les failles de sécurité
La centralisation des données biométriques accroît également le risque qu'elles soient la cible de pirates informatiques et de cybercriminels. C'est ce que l'on appelle dans le secteur de la sécurité un « pot de miel » lorsqu'il est utilisé à des fins contrôlées. Une grande quantité de données attrayantes est stockée par une seule entité afin d'étudier une brèche potentielle, sachant qu'elle finira par être piratée.
À lire également : Les CBDC conduiront à un contrôle gouvernemental absolu
Une violation de données de cette ampleur pourrait avoir de graves conséquences, notamment l'usurpation d'identité, la fraude et l'accès non autorisé aux informations personnelles de millions de personnes.
Surveillance et souveraineté
Ces données pourraient également tomber entre les mains des gouvernements, qui pourraient les citer à comparaître et obtenir les informations personnelles des citoyens sans mandat. Les protections sont moindres lorsque vous vendez vos données à un tiers. Un gouvernement corrompu peut utiliser ces données pour manipuler les comportements, limiter la dissidence et supprimer l'opposition, transformant ainsi des régions sous-développées en États de surveillance.
En outre, si l'entreprise opère au-delà des frontières, elle pourrait exercer un pouvoir et une influence indus sur les gouvernements et les sociétés. Soutenir financièrement un grand nombre de citoyens étrangers dans le cadre d'un modèle de revenu de base universel pourrait en fin de compte réduire l'autonomie et la souveraineté des processus démocratiques d'un pays.
Lorsqu'ils se rendent aux Orbes de Worldcoin pour scanner leur iris, les inscrits reçoivent un autocollant promotionnel portant la mention "Verified Human" (humain vérifié). Il y a un léger sentiment de malaise dans le fait d'être appelé simplement « humain » et non « personne ».
Dans le contexte de la vente de votre identité pour quelques dollars à un projet de cryptomonnaie ayant des liens avec le développement de l'IA, cela ressemble presque à un lapsus freudien. C'est comme si l'idée de personne était oubliée et que nous n'étions plus que des humains dans une immense base de données biométriques.
Parfois, la réalité est plus étrange que la fiction
Cet article est destiné à des fins d'information générale et n'est pas destiné à être et ne doit pas être considéré comme un conseil juridique ou d'investissement. Les points de vue, pensées et opinions exprimés ici sont ceux de l'auteur uniquement et ne reflètent ni ne représentent nécessairement ceux de Cointelegraph.