Michael Cohen, ancien avocat de Donald Trump, a avoué avoir transmis par erreur à son avocat des citations juridiques incorrectes créées par le chatbot d'Intelligence Artificielle (IA) Google Bard.
Dans une récente déclaration au tribunal, Michael Cohen, qui doit témoigner contre Donald Trump lors de son prochain procès pénal, a admis avoir envoyé à son avocat, David Schwartz, des citations juridiques générées par Google Bard à l'appui de son dossier.
« Les citations invalides en question, et beaucoup d'autres que M. Cohen a trouvées mais qui n'ont pas été utilisées dans la requête, ont été produites par Google Bard, que M. Cohen a pris pour un moteur de recherche surpuissant, et non pour un service d'IA générative tel que Chat-GPT. »

Toutefois, il a été indiqué que M. Cohen n'était pas un juriste actif et qu'il ne faisait que transmettre les informations à son avocat, ce qui suggère que les informations auraient dû être examinées avant d'être incluses dans les documents officiels du tribunal.
« M. Cohen n'est pas un avocat en exercice et n'a aucune idée des risques liés à l'utilisation de services d'IA pour des recherches juridiques. Il n'a pas non plus l'obligation éthique de vérifier l'exactitude de ses recherches. », précise le communiqué, qui réaffirme qu'un examen plus approfondi est nécessaire :
« En résumé : M. Cohen a fourni à M. Schwartz des citations (et des résumés de cas) qu'il avait trouvées en ligne et qu'il croyait réelles. M. Schwartz les a ajoutés à la motion mais n'a pas vérifié ces citations ou ces résumés. »
À lire également : Les recherches sur l'IA dans Google dépassent celles sur le bitcoin cette année
Ce n'est pas la première fois qu'un avocat est dénoncé pour s'être appuyé sur l'IA, avant de se rendre compte qu'elle générait des données inexactes.
En début d'année, Cointelegraph a rapporté que Steven Schwartz, un avocat du cabinet new-yorkais Levidow, Levidow & Oberman, avait été critiqué pour avoir utilisé l'IA dans la création de ce qui s'est avéré être de fausses citations judiciaires.
Bien que M. Schwartz ait affirmé que c'était la première fois qu'il utilisait ChatGPT pour des recherches juridiques, le juge l'a vivement critiqué pour ses inexactitudes :
« Six des cas soumis semblent être de fausses décisions judiciaires avec de fausses citations et de fausses citations internes. », a déclaré le juge.