Selon Osuri, la croissance des modèles d’intelligence artificielle (IA) risque d’exiger une puissance équivalente à celle de réacteurs nucléaires.
Dans une interview accordée à Andrew Fenton de Cointelegraph lors de la conférence Token2049 à Singapour, il a affirmé que le secteur sous-estime la rapidité de la hausse des besoins en calcul et leurs conséquences écologiques. Il a rappelé que les data centers consomment déjà des centaines de mégawatts produits à partir de combustibles fossiles.
Osuri a averti que cette tendance pourrait provoquer une véritable crise énergétique, en augmentant les factures d’électricité des ménages et en générant chaque année des millions de tonnes d’émissions supplémentaires.
« Nous arrivons à un stade où l’IA tue des gens », a-t-il déclaré, en évoquant les impacts sanitaires liés à l’usage massif de combustibles fossiles autour des hubs de données.
La décentralisation comme solution aux besoins énergétiques de l’IA
Mardi, Bloomberg a rapporté que les data centers dédiés à l’IA faisaient grimper les coûts de l’électricité aux États-Unis.
Le média souligne que ces infrastructures contribuent à la hausse des factures des foyers : dans certaines zones proches des centres, le prix de gros de l’électricité a bondi de 267 % en cinq ans.
Osuri a expliqué à Cointelegraph que l’alternative réside dans la décentralisation. Au lieu de concentrer les puces et l’énergie dans d’immenses data centers, il propose un entraînement distribué sur des réseaux de GPU variés, allant des cartes haut de gamme utilisées en entreprise aux cartes graphiques de PC domestiques. Cette approche, selon lui, permettrait de gagner en efficacité et en durabilité.
« Une fois que les incitations seront bien définies, cela explosera comme le mining », a-t-il affirmé, en ajoutant que les ordinateurs personnels pourraient un jour être rémunérés en tokens pour partager leur puissance de calcul.
Cette vision rappelle les débuts du minage de bitcoin (BTC), où chacun pouvait contribuer avec sa puissance de calcul et recevoir une récompense. La différence, cette fois, serait que les ordinateurs entraîneraient des modèles d’IA au lieu de résoudre des puzzles cryptographiques.
Osuri estime que ce système permettrait aux citoyens d’avoir une part dans l’avenir de l’IA, tout en réduisant les coûts pour les développeurs.
Des défis techniques et économiques
Malgré son potentiel, le concept n’est pas exempt de difficultés. Osuri reconnaît que l’entraînement de modèles à grande échelle sur un patchwork de GPU différents nécessite des avancées logicielles et une coordination complexe. C’est un problème que l’industrie commence à peine à résoudre.
« Il y a environ six mois, plusieurs entreprises ont commencé à montrer certains aspects de l’entraînement distribué », a-t-il expliqué.
« Mais personne n’a encore combiné ces briques pour entraîner un modèle complet. Cela pourrait changer d’ici la fin de l’année », a-t-il ajouté.
Un autre obstacle concerne les systèmes d’incitation. « Le vrai problème, c’est l’incitation », insiste-t-il. « Pourquoi quelqu’un prêterait-il son ordinateur pour entraîner un modèle ? Qu’a-t-il en retour ? C’est une question plus complexe que la technologie des algorithmes elle-même. »
Malgré ces défis, Osuri reste convaincu que l’entraînement décentralisé de l’IA est incontournable. Répartir les charges de travail sur des réseaux mondiaux permettrait, selon lui, de réduire la pression sur les réseaux électriques, de limiter les émissions carbone et de bâtir une économie de l’IA plus durable.