Le cofondateur d'Ethereum, Vitalik Buterin, affirme que l'intelligence artificielle pourrait être cruciale pour résoudre l'un des « plus grands risques techniques » d'Ethereum, à savoir les bugs enfouis dans les profondeurs de son code.

Dans un message publié le 18 février sur X, M. Buterin a fait part de son enthousiasme pour l'audit assisté par l'IA afin d'identifier et de corriger le code défectueux dans le réseau Ethereum, qu'il décrit comme le « plus grand risque technique » pour le réseau.

L'une des applications de l'IA qui m'enthousiasme est la vérification formelle assistée par l'IA du code et la recherche de bugs.
    À l'heure actuelle, le plus grand risque technique d'Ethereum est probablement lié aux bugs dans le code, et tout ce qui pourrait changer le jeu de manière significative à cet égard serait extraordinaire.
    - vitalik.eth (@VitalikButerin) 19 février 2024

Les commentaires de Buterin interviennent alors qu'Ethereum se rapproche de la mise en œuvre de sa très attendue mise à jour Dencun, dont le lancement est actuellement prévu pour le 13 mars. Dencun a été mis en œuvre sur le testnet Goerli le 17 janvier, mais un bug dans Prsym a empêché le réseau de se finaliser sur le testnet pendant quatre heures. Les mises à jour du réseau Ethereum sont cruciales pour la feuille de route à long terme de la blockchain.

Cependant, tout le monde n'est pas d'accord pour dire que l'IA est un outil fiable pour détecter les bugs dans le code d'Ethereum.

En juillet 2023, OpenZeppelin a mené une série d'expériences qui ont utilisé le GPT-4 d'OpenAI pour identifier les problèmes de sécurité dans les smart contracts Solidity - le langage natif du code Ethereum.

Au cours de ces expériences, le GPT-4 a réussi à identifier des vulnérabilités dans 20 des 28 défis.

ChatGPT analyse un smart contract. Source : OpenZeppelin

Lorsque le GPT-4 n'a pas réussi à identifier des failles, il a souvent été invité à corriger rapidement ses erreurs. Cependant, à d'autres moments, OpenZeppelin a constaté que l'IA avait en fait inventé une vulnérabilité qui n'avait jamais existé.

De même, Kang Li, responsable de la sécurité chez CertiK, a déclaré à Cointelegraph que l'utilisation d'outils alimentés par l'IA, tels que ChatGPT, lors du codage, crée souvent plus de problèmes de sécurité qu'elle n'en résout.

Dans l'ensemble, Li recommande que les assistants d'IA ne soient utilisés que comme assistant pour les codeurs expérimentés, car ils peuvent être utiles pour expliquer rapidement aux développeurs la signification d'une ligne de code.

« Je pense que ChatGPT est un outil très utile pour les personnes qui font de l'analyse de code et de l'ingénierie inverse. C'est sans aucun doute un bon assistant qui améliorera considérablement notre efficacité. »

À lire également : Faire du rêve cypherpunk de Vitalik Buterin pour Ethereum une réalité

Bien que Buterin soit largement optimiste quant à l'avenir de l'IA, il a précédemment averti les développeurs de faire preuve de prudence lors de la mise en œuvre de l'IA avec la technologie blockchain, en particulier lorsqu'elle est déployée aux côtés d'applications « à haut risque » telles que les oracles.

« Il est important d'être prudent : si quelqu'un développe par exemple un marché de prédiction ou un stablecoin qui utilise un oracle d'IA, et qu'il s'avère que l'oracle est vulnérable, c'est une énorme quantité d'argent qui pourrait disparaître en un instant. »