ChatGPT, un grand modèle linguistique capable de converser avec les utilisateurs, est l'un des plus innovants modèles d'OpenAI. Bien que cette technologie présente de nombreux avantages, certains craignent qu'elle ne doive être réglementée de manière à garantir la protection de la vie privée, la neutralité et la décentralisation des connaissances. Une organisation autonome décentralisée (DAO) peut être la solution à ces problèmes.
Tout d'abord, la protection de la vie privée est une préoccupation majeure lorsqu'il s'agit de l'utilisation de ChatGPT. Afin d'améliorer ses réponses, le modèle recueille des données auprès des utilisateurs, mais ces données peuvent contenir des informations sensibles que les individus ne souhaitent pas divulguer à une autorité centrale. Par exemple, si un utilisateur révèle à ChatGPT ses antécédents financiers ou médicaux, ces informations peuvent être conservées et utilisées d'une manière à laquelle il ne s'attendait pas ou qu'il n'avait pas autorisée. Si ces informations sont obtenues par des personnes non autorisées, il peut en résulter des violations de la vie privée, voire une usurpation d'identité.
À lire également : L'IA a un rôle à jouer dans la détection des faux NFT
En outre, ChatGPT pourrait être utilisé pour des activités illicites telles que des escroqueries par phishing ou des attaques d'ingénierie sociale. En imitant une discussion humaine, ChatGPT pourrait tromper les utilisateurs et les amener à divulguer des informations privées ou à entreprendre des actions qu'ils ne feraient pas normalement. Il est essentiel qu'OpenAI mette en place des politiques et des procédures claires pour la gestion et le stockage des données des utilisateurs, afin de dissiper ces inquiétudes en matière de protection de la vie privée. Une DAO peut s'assurer que les données recueillies par ChatGPT sont stockées de manière décentralisée, où les utilisateurs ont plus de contrôle sur leurs données et où elles ne peuvent être consultées que par des entités autorisées.
Deuxièmement, la question du parti pris politique dans les modèles d'intelligence artificielle est une préoccupation croissante, et ChatGPT ne fait pas exception à la règle. Certains craignent qu'en se développant davantage, ces modèles ne renforcent involontairement les préjugés sociétaux existants ou n'en introduisent de nouveaux. Le chatbot d'IA peut également être utilisé pour diffuser de la propagande ou de fausses informations. Il peut en résulter des résultats inéquitables ou injustes qui ont un effet négatif sur les individus et les communautés. Des réponses biaisées peuvent résulter du modèle, reflétant les préjugés des développeurs ou des données de formation.
Une DAO peut garantir que ChatGPT est formé sur des données objectives et que les réponses qu'il produit sont examinées par un large éventail de personnes, telles que des représentants de diverses entreprises, institutions académiques et organisations sociales, qui peuvent repérer et rectifier tout biais. Cela permettrait de minimiser les risques de partialité en garantissant que les décisions relatives à l'utilisation de ChatGPT sont prises en tenant compte d'une diversité de points de vue.
La DAO peut également mettre en place un système de contrôle et d'équilibre pour s'assurer que ChatGPT ne renforce pas les préjugés déjà existants dans la société ou n'en introduit pas de nouveaux. La DAO peut, par exemple, mettre en place une procédure d'audit des réponses de ChatGPT pour s'assurer qu'elles sont impartiales et équitables. Cela pourrait impliquer que des professionnels impartiaux examinent les commentaires de ChatGPT et signalent les éventuels préjugés.
Fair is fair. https://t.co/7nDEf6MOp1 pic.twitter.com/5KAmEXivAY
— Ted Cruz (@tedcruz) February 4, 2023
L'équité est l'équité. https://t.co/7nDEf6MOp1 pic.twitter.com/5KAmEXivAY- Ted Cruz (@tedcruz) 4 février 2023
Enfin, un autre problème avec ChatGPT est la centralisation des connaissances. Le modèle a accès à une mine d'informations, ce qui est avantageux à bien des égards. Il peut en résulter un monopole du savoir, puisque celui-ci est concentré entre les mains d'un petit nombre de personnes ou d'organisations. De même, il existe un risque que le partage des connaissances entre l'homme et la machine devienne la norme, laissant les individus entièrement dépendants des machines pour le savoir collectif.
Par exemple, un programmeur confronté à un problème de codage aurait pu auparavant recourir à Stack Overflow pour obtenir de l'aide en postant sa question, et en recevant des réponses d'autres programmeurs humains susceptibles d'avoir rencontré des problèmes similaires et d'avoir trouvé des solutions. Cependant, avec la prolifération des modèles de langage IA tels que ChatGPT, il devient de plus en plus courant pour les programmeurs de poser une question et de recevoir une réponse sans avoir à communiquer avec d'autres personnes. Les utilisateurs pourraient ainsi interagir moins et partager moins de connaissances en ligne - par exemple, sur des sites web tels que Stack Overflow - et les modèles de langage de l'IA pourraient consolider leurs connaissances. Cette situation pourrait nuire considérablement à l'action humaine et au contrôle de la production et de la distribution des connaissances, ce qui les rendrait moins accessibles à l'avenir.
I'm in the top 2% of users on StackOverflow. My content there has been viewed by over 1.7M people. And it's unlikely I'll ever write anything there again.
— Peter Nixey (@peternixey) March 26, 2023
Which may be a much bigger problem than it seems. Because it may be the canary in the mine of our collective knowledge.
A… pic.twitter.com/YNZvFtwyfu
Je fais partie des 2 % d'utilisateurs les plus importants sur StackOverflow. Mon contenu a été consulté par plus de 1,7 million de personnes. Et il est peu probable que j'y écrive à nouveau quoi que ce soit. Ce qui pourrait être un problème bien plus important qu'il n'y paraît. Car c'est peut-être le canari dans la mine de notre savoir collectif. Un... pic.twitter.com/YNZvFtwyfu- Peter Nixey (@peternixey) 26 mars 2023
Il n'y a pas de réponse facile au problème complexe de la centralisation des connaissances. Il souligne toutefois la nécessité d'une stratégie plus décentralisée pour la production et le transfert de connaissances. Une DAO, qui offre un cadre pour un partage plus démocratique et plus ouvert de l'information, peut être en mesure de contribuer à cette situation. En utilisant la technologie blockchain et les smart contracts, une DAO pourrait permettre aux personnes et aux organisations de travailler ensemble et de contribuer à un corpus de connaissances partagé tout en ayant un meilleur contrôle sur la manière dont ces connaissances sont accessibles.
En fin de compte, une DAO peut offrir un cadre pour superviser et gérer les opérations de ChatGPT, en garantissant un stockage décentralisé des données des utilisateurs, des réponses qui sont examinées pour la partialité, et un échange d'informations plus démocratique et plus ouvert. L'utilisation d'une DAO peut être une solution viable à ces préoccupations, permettant une plus grande responsabilité, transparence et contrôle sur l'utilisation de ChatGPT et d'autres modèles de langage d'IA. Alors que la technologie de l'IA continue de progresser, il est crucial que nous donnions la priorité aux considérations éthiques et que nous prenions des mesures proactives pour traiter les questions potentielles avant qu'elles ne deviennent un problème.
Cet article est destiné à des fins d'information générale et n'est pas destiné à être et ne doit pas être considéré comme un conseil juridique ou d'investissement. Les points de vue, pensées et opinions exprimés ici n'engagent que l'auteur et ne reflètent ni ne représentent nécessairement ceux de Cointelegraph.