Un avocat de la ville de New York s’est retrouvé en difficulté avec un juge après avoir soumis une recherche juridique qui avait en fait été créée par le système expert (AI) chatbot ChatGPT.
Tout au long d’un cas de une compagnie aérienne étant poursuivie pour préjudice présumé, les représentants légaux du demandeur ont déposé un court métrage composé d’un certain nombre d’affaires à utiliser comme précédent juridique. Malheureusement, comme admis plus tard dans un affidavit, les cas suivants ont été » jugés inexistants » par le tribunal :
Publicité
Varghese v. China Southern Airlines Co Ltd, 925 F. 3d 1339 (11th Cir. 2019)
Shaboon v. Egyptair 2013 IL App (1st) 111279-U (Il App. Ct. 2013)
Petersen c. Iran Air 905 F. Supp 2d 121 (D.D.C. 2012)
Martinez c. Delta Airlines, Inc, 2019 WL 4639462 (Tex. App. 25 sept., 2019)
Estate of Durden v. KLM Royal Dutch Airlines, 2017 WL 2418825 (Ga. Ct. App. 5 juin 2017)
Miller v. United Airlines, Inc, 174 F. 3d 366 (2d Cir. 1999)
La « recherche » a été assemblée par le représentant légal Steven A. Schwartz, un avocat avec plus de trente ans d’expérience selon la BBC. Schwartz a déclaré dans l’affidavit qu’il n’avait pas utilisé ChatGPT pour une étude de recherche juridique auparavant et qu’il n’était « pas informé de la possibilité que son contenu soit incorrect ».
Des captures d’écran dans l’affidavit montrent l’avocat demandant au chatbot « est-ce que c’est un vrai cas », ce à quoi le chatbot a répondu « oui ». Interrogé sur des sources, il a informé l’avocat que l’affaire pouvait être trouvée « sur des bases de données d’études de recherche juridique telles que Westlaw et LexisNexis ». Lorsqu’on lui a demandé « les autres cas que vous avez fournis sont-ils faux », il a répondu « Non », y compris qu’ils pourraient être trouvés sur les mêmes bases de données.
Aussi agréables que puissent être les chatbots, ou aussi avancés qu’ils puissent paraître, ils sont toujours sensibles aux » hallucinations » – des réponses parfaitement cohérentes qui n’ont aucun rapport avec la vie réelle.
IFLScience n’est pas responsable du contenu partagé à partir de sites externes.
Sans une vérification approfondie des faits, ce n’est pas vraiment un outil que vous devez utiliser lorsque vous tentez de rechercher une affaire judiciaire qui dépend d’un précédent réel au lieu des hallucinations d’une saisie semi-automatique épicée.
L’avocat a écrit qu’il « regrette considérablement d’avoir effectivement utilisé le système expert génératif pour compléter les recherches juridiques menées ici » et s’engage à « ne jamais le faire à l’avenir sans vérification pure et simple de son authenticité ».
Tous deux Schwartz et le représentant légal Peter LoDuca, qui n’étaient pas conscients que ChatGPT avait effectivement été utilisé lors de l’examen de l’affaire, doivent faire face à une audience le 8 juin sur l’incident.
Toute l’actualité en temps réel, est sur L’Entrepreneur