Le cofondateur d'Ethereum, Vitalik Buterin, affirme que l'intelligence artificielle pourrait être cruciale pour résoudre l'un des « plus grands risques techniques » d'Ethereum, à savoir les bugs enfouis dans les profondeurs de son code.
Dans un message publié le 18 février sur X, M. Buterin a fait part de son enthousiasme pour l'audit assisté par l'IA afin d'identifier et de corriger le code défectueux dans le réseau Ethereum, qu'il décrit comme le « plus grand risque technique » pour le réseau.
One application of AI that I am excited about is AI-assisted formal verification of code and bug finding.
— vitalik.eth (@VitalikButerin) February 19, 2024
Right now ethereum's biggest technical risk probably is bugs in code, and anything that could significantly change the game on that would be amazing.
- vitalik.eth (@VitalikButerin) 19 février 2024
Les commentaires de Buterin interviennent alors qu'Ethereum se rapproche de la mise en œuvre de sa très attendue mise à jour Dencun, dont le lancement est actuellement prévu pour le 13 mars. Dencun a été mis en œuvre sur le testnet Goerli le 17 janvier, mais un bug dans Prsym a empêché le réseau de se finaliser sur le testnet pendant quatre heures. Les mises à jour du réseau Ethereum sont cruciales pour la feuille de route à long terme de la blockchain.
Cependant, tout le monde n'est pas d'accord pour dire que l'IA est un outil fiable pour détecter les bugs dans le code d'Ethereum.
En juillet 2023, OpenZeppelin a mené une série d'expériences qui ont utilisé le GPT-4 d'OpenAI pour identifier les problèmes de sécurité dans les smart contracts Solidity - le langage natif du code Ethereum.
Au cours de ces expériences, le GPT-4 a réussi à identifier des vulnérabilités dans 20 des 28 défis.

Lorsque le GPT-4 n'a pas réussi à identifier des failles, il a souvent été invité à corriger rapidement ses erreurs. Cependant, à d'autres moments, OpenZeppelin a constaté que l'IA avait en fait inventé une vulnérabilité qui n'avait jamais existé.
De même, Kang Li, responsable de la sécurité chez CertiK, a déclaré à Cointelegraph que l'utilisation d'outils alimentés par l'IA, tels que ChatGPT, lors du codage, crée souvent plus de problèmes de sécurité qu'elle n'en résout.
Dans l'ensemble, Li recommande que les assistants d'IA ne soient utilisés que comme assistant pour les codeurs expérimentés, car ils peuvent être utiles pour expliquer rapidement aux développeurs la signification d'une ligne de code.
« Je pense que ChatGPT est un outil très utile pour les personnes qui font de l'analyse de code et de l'ingénierie inverse. C'est sans aucun doute un bon assistant qui améliorera considérablement notre efficacité. »
À lire également : Faire du rêve cypherpunk de Vitalik Buterin pour Ethereum une réalité
Bien que Buterin soit largement optimiste quant à l'avenir de l'IA, il a précédemment averti les développeurs de faire preuve de prudence lors de la mise en œuvre de l'IA avec la technologie blockchain, en particulier lorsqu'elle est déployée aux côtés d'applications « à haut risque » telles que les oracles.
« Il est important d'être prudent : si quelqu'un développe par exemple un marché de prédiction ou un stablecoin qui utilise un oracle d'IA, et qu'il s'avère que l'oracle est vulnérable, c'est une énorme quantité d'argent qui pourrait disparaître en un instant. »