Les projets fondés sur l'intelligence artificielle (IA) deviennent rapidement une partie intégrante du paradigme technologique moderne, aidant les processus de prise de décision dans divers secteurs, de la finance aux soins de santé. Cependant, malgré les progrès significatifs, les systèmes d'IA ne sont pas exempts de défauts. L'un des problèmes les plus critiques auxquels l'IA est confrontée aujourd'hui est celui des biais de données, c'est-à-dire la présence d'erreurs systémiques dans un ensemble d'informations donné, ce qui entraîne des résultats faussés lors de l'entraînement des modèles d'apprentissage automatique.

Les systèmes d'IA reposant fortement sur les données, la qualité des données d'entrée est de la plus haute importance, car tout type d'information biaisée peut entraîner des préjugés au sein du système. Cela peut perpétuer la discrimination et l'inégalité dans la société. Il est donc essentiel de garantir l'intégrité et l'objectivité des données.

Par exemple, un article récent explore la manière dont les images générées par l'IA, en particulier celles créées à partir d'ensembles de données dominés par des sources influencées par les États-Unis, peuvent déformer et homogénéiser le contexte culturel des expressions faciales. L'article cite plusieurs exemples de soldats ou de guerriers de différentes périodes historiques, qui arborent tous le même sourire à l'américaine.

Image d'Amérindiens générée par l'IA. Source : Medium

En outre, ce parti pris omniprésent non seulement ne rend pas compte de la diversité et des nuances de l'expression humaine, mais risque également d'effacer des histoires et des significations culturelles essentielles, ce qui pourrait nuire à la santé mentale, au bien-être et à la richesse des expériences humaines à l'échelle mondiale. Pour atténuer cette partialité, il est essentiel d'intégrer des ensembles de données diversifiés et représentatifs dans les processus d'apprentissage de l'IA.

Plusieurs facteurs contribuent à la partialité des données dans les systèmes d'IA. Tout d'abord, le processus de collecte lui-même peut être défectueux, les échantillons n'étant pas représentatifs de la population cible. Cela peut conduire à la sous-représentation ou à la surreprésentation de certains groupes. Deuxièmement, des préjugés historiques peuvent s'infiltrer dans les données d'apprentissage, ce qui peut perpétuer les préjugés sociétaux existants. Par exemple, les systèmes d'IA formés à partir de données historiques biaisées peuvent continuer à renforcer les stéréotypes de genre ou de race.

Enfin, des préjugés humains peuvent être introduits par inadvertance au cours du processus d'étiquetage des données, car les étiqueteurs peuvent avoir des préjugés inconscients. Le choix des caractéristiques ou des variables utilisées dans les modèles d'IA peut aboutir à des résultats biaisés, car certaines caractéristiques peuvent être davantage corrélées avec certains groupes, ce qui entraîne un traitement inéquitable. Pour atténuer ces problèmes, les chercheurs et les praticiens doivent être conscients des sources potentielles d'objectivité biaisée et s'efforcer activement de les éliminer.

La blockchain peut-elle rendre possible une IA impartiale ?

Si la technologie blockchain peut contribuer à certains aspects du maintien de la neutralité des systèmes d'IA, elle n'est en aucun cas une panacée pour éliminer complètement les préjugés. Les systèmes d'IA, tels que les modèles d'apprentissage automatique, peuvent développer certaines tendances discriminatoires en fonction des données sur lesquelles ils sont formés. En outre, si les données d'apprentissage contiennent diverses prédispositions, le système est susceptible de les apprendre et de les reproduire dans ses résultats.

Cela dit, la technologie blockchain peut contribuer à remédier aux biais de l'IA par des moyens qui lui sont propres. Par exemple, elle peut aider à garantir la provenance et la transparence des données. Les systèmes décentralisés peuvent suivre l'origine des données utilisées pour former les systèmes d'IA, garantissant ainsi la transparence du processus de collecte et d'agrégation des informations. Cela peut aider les parties prenantes à identifier les sources potentielles de biais et à y remédier.

De même, les blockchains peuvent faciliter le partage sécurisé et efficace des données entre plusieurs parties, ce qui permet de développer des ensembles de données plus diversifiés et plus représentatifs.

De plus, en décentralisant le processus de formation, la blockchain peut permettre à de multiples parties d'apporter leurs propres informations et leur expertise, ce qui peut contribuer à atténuer l'influence d'un seul point de vue biaisé.

Le maintien d'une neutralité objective nécessite une attention particulière aux différentes étapes du développement de l'IA, y compris la collecte de données, la formation des modèles et l'évaluation. En outre, le contrôle et la mise à jour continus des systèmes d'IA sont essentiels pour traiter les préjugés potentiels qui peuvent apparaître au fil du temps.

Pour mieux comprendre si la technologie blockchain peut rendre les systèmes d'IA complètement neutres, Cointelegraph a contacté Ben Goertzel, fondateur et PDG de SingularityNET - un projet combinant l'intelligence artificielle et la blockchain.

Selon lui, le concept d'« objectivité complète » n'est pas vraiment utile dans le contexte de systèmes d'intelligence finis analysant des ensembles de données finis.

« Ce que la blockchain et les systèmes Web3 peuvent offrir, ce n'est pas une objectivité totale ou une absence de parti pris, mais plutôt une transparence qui permet aux utilisateurs de voir clairement quel est le parti pris d'un système d'IA. Ils offrent également une configuration ouverte, de sorte qu'une communauté d'utilisateurs peut adapter un modèle d'IA au type de parti pris qu'elle préfère et voir de manière transparente le type de parti pris qu'il reflète. », a-t-il déclaré.

Il a ajouté que dans le domaine de la recherche sur l'IA, le mot biais n'est pas un gros mot. Au contraire, il s'agit simplement d'une indication de l'orientation d'un système d'IA à la recherche de certains modèles dans les données. Cela dit, M. Goertzel a admis que les biais opaques imposés par des organisations centralisées à des utilisateurs qui n'en sont pas conscients - mais qui sont pourtant guidés et influencés par eux - sont quelque chose dont les gens doivent se méfier. Il a déclaré :

« La plupart des algorithmes d'IA populaires, tels que ChatGPT, ne sont pas très transparents et ne divulguent pas leurs propres préjugés. Ainsi, une partie de ce qui est nécessaire pour traiter correctement la question des biais de l'IA est constituée de réseaux participatifs décentralisés et de modèles ouverts, pas seulement des sources ouvertes, mais des matrices de poids ouvertes qui sont des modèles entraînés et adaptés avec un contenu ouvert. »

De même, Dan Peterson, directeur des opérations de Tenet - un réseau blockchain axé sur l'IA - a déclaré à Cointelegraph qu'il est difficile de quantifier la neutralité et que certaines mesures d'IA ne peuvent pas être impartiales parce qu'il n'y a pas de ligne quantifiable pour déterminer quand un ensemble de données perd sa neutralité. Selon lui, cela se résume finalement à la perspective de l'ingénieur qui trace la ligne, et cette ligne peut varier d'une personne à l'autre.

« Le concept d'impartialité a toujours été un défi difficile à relever. Bien que la vérité absolue dans tout ensemble de données alimentant les systèmes d'IA générative puisse être difficile à cerner, ce que nous pouvons faire, c'est exploiter les outils mis plus facilement à notre disposition grâce à l'utilisation de la blockchain et de la technologie Web3. », a-t-il déclaré.

M. Peterson a déclaré que les techniques construites autour des systèmes distribués, de la vérification et même de la preuve sociale peuvent nous aider à concevoir des systèmes d'IA qui se rapprochent le plus possible de la vérité absolue. « Toutefois, il ne s'agit pas encore d'une solution clé en main ; ces technologies en développement nous aident à faire avancer l'aiguille à une vitesse vertigineuse alors que nous continuons à construire les systèmes de demain. », a-t-il déclaré.

Vers un avenir dominé par l'IA

L'évolutivité reste une préoccupation majeure pour la technologie blockchain. L'augmentation du nombre d'utilisateurs et de transactions pourrait limiter la capacité des solutions blockchain à gérer les quantités massives de données générées et traitées par les systèmes d'IA. En outre, l'adoption et l'intégration de solutions basées sur la blockchain dans les systèmes d'IA existants posent également des défis importants.

À lire également : Joachim Schwerin se livre sur le cadre MiCA et l'avenir des stablecoins

Tout d'abord, il y a un manque de compréhension et d'expertise dans les technologies de l'IA et de la blockchain, ce qui peut entraver le développement et le déploiement de solutions qui combinent efficacement les deux paradigmes. Deuxièmement, il peut être difficile, du moins au début, de convaincre les parties prenantes des avantages des plateformes blockchain, en particulier lorsqu'il s'agit de garantir une transmission impartiale des données d'IA.

Malgré ces difficultés, la technologie blockchain recèle un immense potentiel lorsqu'il s'agit d'aplanir le paysage de l'IA, qui évolue rapidement. En tirant parti des caractéristiques clés de la blockchain - telles que la décentralisation, la transparence et l'immutabilité - il est possible de réduire les biais dans la collecte, la gestion et l'étiquetage des données, ce qui aboutira finalement à des systèmes d'IA plus équitables. Il sera donc intéressant de voir comment l'avenir continuera à se dessiner à partir de maintenant.