Une récente étude intitulée « Les modèles de langage plus grands et plus instructifs deviennent moins fiables », publiée dans la revue Nature Scientific Journal, a révélé que les chatbots dotés d'intelligence artificielle commettent de plus en plus d'erreurs au fil du temps, à mesure que de nouveaux modèles sont lancés.
Lexin Zhou, l'un des auteurs de l'étude, a théorisé que, puisque les modèles d’IA sont optimisés pour toujours fournir des réponses crédibles, les réponses qui paraissent correctes sont priorisées et livrées à l’utilisateur final, quelle que soit leur exactitude.
Ces hallucinations de l’IA se renforcent d’elles-mêmes et tendent à s’amplifier au fil du temps — un phénomène aggravé par l’utilisation d’anciens grands modèles de langage pour entraîner de nouveaux modèles, ce qui conduit à un « effondrement du modèle ».
Le rédacteur en chef et auteur Mathieu Roy a mis en garde les utilisateurs contre une dépendance excessive à ces outils et les a exhortés à toujours vérifier les résultats générés par l’IA pour repérer d’éventuelles incohérences :
« Bien que l’IA puisse être utile pour un certain nombre de tâches, il est important pour les utilisateurs de vérifier les informations qu’ils obtiennent des modèles d’IA. La vérification des faits devrait être une étape incontournable du processus lorsqu’on utilise des outils d’IA. Cela devient encore plus compliqué lorsque des chatbots de service client sont impliqués. »
Pour aggraver les choses, « Il n'y a souvent aucun moyen de vérifier les informations, à part en demandant au chatbot lui-même », a affirmé Roy.
À lire également : OpenAI lève 6,6 milliards de dollars supplémentaires pour atteindre une valorisation de 157 milliards de dollars
Le problème persistant des hallucinations de l'IA
En février 2024, la plateforme d'intelligence artificielle de Google a été moquée après que l'IA a commencé à produire des images historiquement incorrectes. Parmi les exemples, on trouve des représentations de personnes de couleur en tant qu'officiers nazis et des images inexactes de figures historiques bien connues.
Malheureusement, ce type d'incidents est bien trop fréquent avec l'itération actuelle de l'intelligence artificielle et des grands modèles de langage. Des dirigeants du secteur, y compris le PDG de Nvidia, Jensen Huang, ont proposé de limiter les hallucinations de l'IA en obligeant les modèles à effectuer des recherches et à fournir des sources pour chaque réponse donnée à un utilisateur.
Cependant, ces mesures sont déjà intégrées dans les modèles d’IA et de grands modèles de langage les plus populaires, mais le problème des hallucinations persiste.
Plus récemment, en septembre, Matt Shumer, PDG de HyperWrite AI, a annoncé que le nouveau modèle 70B de l’entreprise utilisait une méthode appelée « Reflection-Tuning » — qui permettrait au bot IA d’apprendre en analysant ses propres erreurs et en ajustant ses réponses au fil du temps.