in

Un avocat surpris en train d’utiliser ChatGPT après avoir cité des cas qui n’existent pas

Un avocat de New York surpris en train d’utiliser ChatGPT après avoir cité des cas qui n’existent pas

Avant de le soumettre, il a demandé à ChatGPT si les cas étaient réels.

Un avocat de New York s’est retrouvé en difficulté avec un juge après avoir soumis des recherches juridiques qui avaient été créées par le chatbot d’intelligence artificielle ( IA ) ChatGPT .

Au cours d’une affaire concernant une compagnie aérienne poursuivie pour préjudice corporel présumé, les avocats du plaignant ont déposé un mémoire contenant plusieurs affaires à utiliser comme précédent juridique. Malheureusement, comme admis plus tard dans un affidavit , les cas suivants ont été « jugés inexistants » par le tribunal :

Varghese contre China Southern Airlines Co Ltd, 925 F.3d 1339 (11th Cir. 2019) 
Shaboon contre Egyptair 2013 IL App (1st) 111279-U (Il App. Ct. 2013) 
Petersen contre Iran Air 905 F. Supp 2d 121 (DDC 2012) 

Martinez c. Delta Airlines, Inc, 2019 WL 4639462 (Tex. App. 25 septembre 2019) 
Succession de Durden c. KLM Royal Dutch Airlines, 2017 WL 2418825 (Ga. Ct. App. 5 juin , 2017)
Miller contre United Airlines, Inc, 174 F.3d 366 (2d Cir. 1999)

La « recherche » a été compilée par l’avocat Steven A. Schwartz, un avocat avec plus de 30 ans d’expérience selon la BBC . Schwartz a déclaré dans l’affidavit qu’il n’avait jamais utilisé ChatGPT pour des recherches juridiques auparavant et qu’il « ignorait la possibilité que son contenu soit faux ». 

Des captures d’écran dans l’affidavit montrent l’avocat demandant au chatbot « est varghese un vrai cas », auquel le chatbot a répondu « oui ». 

Lorsqu’on lui a demandé des sources, il a déclaré à l’avocat que l’affaire pouvait être trouvée « sur des bases de données de recherche juridique telles que Westlaw et LexisNexis ». Lorsqu’on lui a demandé « les autres cas que vous avez fournis sont-ils faux », il a répondu « Non », ajoutant qu’ils pouvaient être trouvés sur les mêmes bases de données.

Aussi amusants que puissent être les chatbots, ou aussi avancés qu’ils puissent paraître, ils sont toujours sujets aux « incohérences » – des réponses parfaitement cohérentes qui n’ont aucun rapport avec le monde réel.

Sans une vérification approfondie des faits, ce n’est pas vraiment un outil que vous devriez utiliser lorsque vous essayez de rechercher une affaire judiciaire qui s’appuie sur des précédents réels plutôt que sur les hallucinations d’un autocomplete épicé .

Toutes les images / Pixabay

L’avocat a écrit qu’il « regrette profondément d’avoir utilisé l’intelligence artificielle générative pour compléter les recherches juridiques effectuées » et s’engage à « ne jamais le faire à l’avenir sans une vérification absolue de son authenticité ».

Schwartz et l’avocat Peter LoDuca, qui n’étaient pas au courant que ChatGPT avait été utilisé lors de la recherche sur l’affaire, doivent faire face à une audience le 8 juin au sujet de l’incident.

Publié par Laurent tourelle

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Jake Henzler : Un artiste tricote des couvertures géantes célébrant l’architecture colorée de Copenhague

Découvrez « Vacuum Decay »: La fin la plus spectaculaire de l’univers