Le cofondateur d'Ethereum, Vitalik Buterin, avertit les développeurs qu'ils doivent « être prudents » lorsqu'ils fusionnent l'intelligence artificielle (IA) et la technologie blockchain.
Dans un article de blog daté du 30 janvier, M. Buterin a catégorisé ses préoccupations les plus pressantes concernant l'IA, expliquant aux développeurs qu'il « vaut la peine d'être prudent », en particulier lors du déploiement de nouvelles applications dans des contextes à forte valeur ajoutée et à haut risque.
« Il est important d'être prudent : si quelqu'un construit par exemple un marché de prédiction ou un stablecoin qui utilise un oracle d'IA, et qu'il s'avère que l'oracle est vulnérable, c'est une énorme quantité d'argent qui pourrait disparaître en un instant. »
Buterin a expliqué que l'un des domaines où l'IA avait la plus grande « viabilité » était de permettre à l'IA de participer à des mécanismes tels que les marchés de prédiction à une micro-échelle qui serait irréalisable pour les humains.
L'IA pourrait également être utilisée dans les interfaces des portefeuilles de cryptomonnaies pour les utilisateurs, les aidant à comprendre et à interagir en toute sécurité avec les cryptomonnaies en expliquant les transactions et les signatures ou en détectant les escroqueries, a écrit M. Buterin.
« Mon opinion personnelle est que les interfaces d'IA pure sont probablement trop risquées pour le moment, car elles augmentent le risque d'autres types d'erreurs, mais l'IA complétant une interface plus conventionnelle devient très viable. », a-t-il déclaré.
The promise and challenges of crypto + AI applications:https://t.co/ds9mLnshLU
— vitalik.eth (@VitalikButerin) January 30, 2024
Les promesses et les défis des applications crypto + IA:https://t.co/ds9mLnshLU
- vitalik.eth (@VitalikButerin) 30 janvier 2024
Selon M. Buterin, l'entreprise la plus risquée consisterait à exploiter l'IA pour appliquer les règles ou la gouvernance des systèmes crypto, car les modèles d'IA open-source pourraient être vulnérables à des attaques adverses.
L'IA open-source est plus vulnérable aux attaques adverses car les acteurs malveillants peuvent inspecter son code et optimiser les attaques contre lui. L'IA en accès restreint offre une « sécurité par l'obscurité », mais ces modèles n'offrent aucune transparence sur leur fonctionnement ni aucune garantie quant à leur impartialité, a-t-il ajouté.
La startup crypto Worldcoin, adossée à OpenAI, est un exemple d'IA à code source fermé, Buterin expliquant qu'elle s'appuie sur le fait de « ne pas permettre à quiconque d'appeler simplement le modèle d'IA » et qu'elle utilise à la place du « matériel de confiance ».
À lire également : La blockchain peut-elle fournir les garde-fous qui permettront à l'IA de garder le cap ?
Buterin a expliqué que le plus grand défi serait la création d'une IA décentralisée utilisant la crypto et la blockchain que d'autres applications pourraient exploiter.
« Les applications qui tentent d'utiliser les blockchains et les techniques crypto pour créer un " seul modèle " sont les plus difficiles à mettre en œuvre : une IA de confiance décentralisée unique sur laquelle une application pourrait s'appuyer pour un objectif donné. »
Ces applications sont prometteuses « à la fois pour la fonctionnalité et pour l'amélioration de la sécurité de l'IA d'une manière qui évite les risques de centralisation associés aux approches plus courantes de ce problème », a-t-il déclaré. Il a conclu qu'il existe également de nombreuses façons dont les hypothèses sous-jacentes pourraient échouer.