Dans un monde de plus en plus dominé par l'IA, la blockchain pourrait jouer un rôle essentiel en empêchant que les fautes commises par des applications comme Facebook ne se généralisent et ne se normalisent.

Les plateformes d'intelligence artificielle telles que ChatGPT et Bard de Google sont entrées dans le courant dominant et ont déjà été accusées d'enflammer le clivage politique par leurs préjugés. Comme l'annoncent des films populaires tels que Terminator, Matrix et, plus récemment, Mission : Impossible - Dead Reckoning Part One, il est déjà évident que l'IA est un animal sauvage que nous aurons probablement du mal à apprivoiser.

Qu'il s'agisse de campagnes de désinformation et de drones tueurs pour la démocratie ou de la destruction totale de la vie privée, l'IA peut potentiellement transformer l'économie mondiale et probablement la civilisation elle-même. En mai 2023, des leaders mondiaux de la technologie ont rédigé une lettre ouverte qui a fait la une des journaux, avertissant que les dangers de la technologie de l'IA pourraient être comparables à ceux des armes nucléaires.

À lire également : Petites amies, enfants assassinés, androïdes assassins : l'IA est-elle maudite ?

L'une des principales craintes suscitées par l'IA est le manque de transparence entourant sa formation et sa programmation, en particulier pour les modèles d'apprentissage profond qui peuvent être difficiles à exploiter. Étant donné que des données sensibles sont utilisées pour former les modèles d'IA, ceux-ci peuvent être manipulés si les données sont compromises.

Dans les années à venir, la blockchain sera largement utilisée avec l'IA pour améliorer la transparence, la responsabilité et l'audibilité de son processus de prise de décision.

Chat GPT se moquera de Jésus mais pas de Mahomet pic.twitter.com/LzMXBcdCmw  - E (@ElijahSchaffer) 2 septembre 2023

Par exemple, lors de l'entraînement d'un modèle d'IA à l'aide de données stockées sur une blockchain, la provenance et l'intégrité des données peuvent être garanties, ce qui empêche les modifications non autorisées. Les parties prenantes peuvent suivre et vérifier le processus de prise de décision en enregistrant les paramètres d'entraînement du modèle, les mises à jour et les résultats de la validation sur la blockchain.

Avec ce cas d'utilisation, la blockchain jouera un rôle de premier plan dans la prévention de l'utilisation abusive non intentionnelle de l'IA. Mais qu'en est-il de l'utilisation intentionnelle ? Il s'agit là d'un scénario beaucoup plus dangereux, auquel nous serons malheureusement probablement confrontés dans les années à venir.

Même sans IA, les Big Tech centralisées ont historiquement aidé et encouragé des comportements qui profitent de la manipulation à la fois des individus et des valeurs démocratiques au plus offrant, comme l'a rendu célèbre le scandale Cambridge Analytica de Facebook. En 2014, l'application "Thisisyourdigitallife" a proposé de payer les utilisateurs pour des tests de personnalité, qui nécessitaient l'autorisation d'accéder à leurs profils Facebook et à ceux de leurs amis. En substance, Facebook a permis à Cambridge Analytica d'espionner les utilisateurs sans autorisation.

Le résultat ? Deux campagnes historiques de relations publiques psychologiques ciblées en masse qui ont eu une influence relativement forte à la fois sur les résultats de l'élection présidentielle américaine et du référendum sur l'appartenance à l'Union européenne au Royaume-Uni en 2016. Meta (anciennement Facebook) a-t-elle appris de ses erreurs ? Cela ne semble pas être le cas.

En juillet, Meta a dévoilé sa dernière application, Threads. Présentée comme une rivale du Twitter d'Elon Musk, elle récolte les données habituelles collectées par Facebook et Instagram. Mais, à l'instar de TikTok, lorsque les utilisateurs de Threads s'inscrivent, ils donnent involontairement à Meta l'accès à leur position GPS, à leur appareil photo, à leurs photos, à leurs informations IP, à leur type d'appareil et aux signaux qu'il émet. Le Web2 a l'habitude de justifier de telles pratiques en affirmant que « les utilisateurs ont accepté les termes et conditions ». En réalité, il faudrait en moyenne 76 jours de travail pour lire toutes les politiques de confidentialité de chaque application utilisée par un internaute standard. Le problème ? Meta a désormais accès à presque tout ce qui se trouve sur les téléphones de plus de 150 millions d'utilisateurs.

L'IA entre en scène. Si le scandale Cambridge Analytica a suscité des inquiétudes par la suite, peut-on imaginer les conséquences d'un mariage entre cette surveillance invasive et l'intelligence divine de l'IA ?

Le remède sans surprise ici est la blockchain, mais la solution n'est pas aussi simple.

L'un des principaux dangers de l'IA réside dans les données qu'elle peut collecter et ensuite utiliser comme arme. En ce qui concerne les médias sociaux, la technologie blockchain peut potentiellement améliorer la confidentialité et le contrôle des données, ce qui pourrait contribuer à atténuer les pratiques de collecte de données de Big Tech. Toutefois, il est peu probable qu'elle « empêche » les Big Tech de s'emparer de données sensibles.

Pour se prémunir véritablement contre les dangers intentionnels de l'IA et éviter les scénarios de type Cambridge Analytica, il faut des plateformes de médias sociaux décentralisées, de préférence basées sur la blockchain. De par leur conception, elles réduisent la concentration des données des utilisateurs dans une entité centrale, minimisant ainsi le potentiel de surveillance de masse et de campagnes de désinformation par l'IA.

En d'autres termes, grâce à la technologie blockchain, nous disposons déjà des outils nécessaires pour préserver notre indépendance vis-à-vis de l'IA, tant au niveau individuel que national.

Peu de temps après avoir signé la lettre ouverte aux gouvernements sur les dangers de l'IA en mai, le PDG d'OpenAI, Sam Altman, a publié un article de blog proposant plusieurs stratégies pour une gestion responsable des puissants systèmes d'IA. Ces stratégies impliquent une collaboration entre les principaux développeurs d'IA, une étude technique plus poussée des grands modèles de langage et la création d'une organisation mondiale pour la sécurité de l'IA.

Si ces mesures constituent un bon début, elles ne s'attaquent pas aux systèmes qui nous rendent vulnérables à l'IA, à savoir les entités centralisées du Web2 telles que Meta. Pour se prémunir véritablement contre l'IA, il est urgent de développer davantage le déploiement des technologies basées sur la blockchain, notamment dans le domaine de la cybersécurité, et de mettre en place un écosystème véritablement compétitif d'applications de médias sociaux décentralisées.

Callum Kennard est gestionnaire de contenu chez Storm Partners, un fournisseur de solutions Web3 basé en Suisse. Il est diplômé de l'université de Brighton en Angleterre.

Cet article a été rédigé à des fins d'information générale et ne doit pas être considéré comme un conseil juridique ou d'investissement. Les points de vue, pensées et opinions exprimés ici n'engagent que l'auteur et ne reflètent ni ne représentent nécessairement ceux de Cointelegraph.