Virginia Tech, une université américaine, a publié un rapport décrivant les biais potentiels de l'outil d'Intelligence Artificielle (IA) ChatGPT, suggérant des variations dans ses résultats sur les questions de justice environnementale dans différents comtés. 

Dans un rapport récent, des chercheurs de Virginia Tech ont affirmé que ChatGPT avait des limites dans la fourniture d'informations spécifiques à une zone concernant les questions de justice environnementale. 

Toutefois, l'étude a mis en évidence une tendance indiquant que l'information était plus facilement accessible dans les États les plus grands et les plus densément peuplés.

« Dans les États à forte population urbaine, comme le Delaware ou la Californie, moins de 1 % de la population vit dans des comtés qui ne peuvent pas recevoir d'informations spécifiques. »

En revanche, les régions moins peuplées ne bénéficient pas d'un accès équivalent.

« Dans les États ruraux tels que l'Idaho et le New Hampshire, plus de 90 % de la population vivait dans des comtés qui ne pouvaient pas recevoir d'informations spécifiques locales. », indique le rapport.

Le rapport cite également un conférencier nommé Kim, du département de géographie de Virginia Tech, qui insiste sur la nécessité de poursuivre les recherches, car des biais sont découverts.

« Bien que des études supplémentaires soient nécessaires, nos résultats révèlent que des biais géographiques existent actuellement dans le modèle ChatGPT. », a déclaré M. Kim.

Le rapport de recherche comprend également une carte illustrant l'étendue de la population américaine qui n'a pas accès à des informations spécifiques sur les questions de justice environnementale.

Carte des États-Unis montrant les zones où les résidents peuvent consulter (en bleu) ou ne peuvent pas consulter (en rouge) des informations locales spécifiques sur les questions de justice environnementale. Source : Virginia Tech
 

À lire également : ChatGPT réussit pour la première fois l'examen de neurologie

Cette nouvelle fait suite à des informations récentes selon lesquelles des chercheurs découvrent des biais politiques potentiels manifestés par ChatGPT ces derniers temps.

Le 25 août, Cointelegraph a rapporté que des chercheurs du Royaume-Uni et du Brésil ont publié une étude déclarant que les grands modèles de langage (GML) tels que ChatGPT produisent des textes contenant des erreurs et des biais susceptibles d'induire les lecteurs en erreur et de promouvoir les biais politiques présentés par les médias traditionnels.