samedi, 20 avril 2024

Un avocat de New York surpris en train d’utiliser ChatGPT après avoir cité des cas qui n’existent pas

Un avocat de la ville de New York s’est retrouvé en difficulté avec un juge après avoir soumis une recherche juridique qui avait en fait été créée par le système expert (AI) chatbot ChatGPT.

Tout au long d’un cas de une compagnie aérienne étant poursuivie pour préjudice présumé, les représentants légaux du demandeur ont déposé un court métrage composé d’un certain nombre d’affaires à utiliser comme précédent juridique. Malheureusement, comme admis plus tard dans un affidavit, les cas suivants ont été  » jugés inexistants  » par le tribunal :

Publicité

Varghese v. China Southern Airlines Co Ltd, 925 F. 3d 1339 (11th Cir. 2019)
Shaboon v. Egyptair 2013 IL App (1st) 111279-U (Il App. Ct. 2013)
Petersen c. Iran Air 905 F. Supp 2d 121 (D.D.C. 2012)

Martinez c. Delta Airlines, Inc, 2019 WL 4639462 (Tex. App. 25 sept., 2019)
Estate of Durden v. KLM Royal Dutch Airlines, 2017 WL 2418825 (Ga. Ct. App. 5 juin 2017)
Miller v. United Airlines, Inc, 174 F. 3d 366 (2d Cir. 1999)

La « recherche » a été assemblée par le représentant légal Steven A. Schwartz, un avocat avec plus de trente ans d’expérience selon la BBC. Schwartz a déclaré dans l’affidavit qu’il n’avait pas utilisé ChatGPT pour une étude de recherche juridique auparavant et qu’il n’était « pas informé de la possibilité que son contenu soit incorrect ».

Histoires associées
Est-ce que nous devrions tous méditer ? Découvrez In Concern 11 Of CURIOUS– Out Now
Au revoir, WinRAR : Windows ajoute enfin cette fonction très recherchée
La recherche Google ne crée pas de chambre d’écho, mais Vous êtes probablement

Des captures d’écran dans l’affidavit montrent l’avocat demandant au chatbot « est-ce que c’est un vrai cas », ce à quoi le chatbot a répondu « oui ». Interrogé sur des sources, il a informé l’avocat que l’affaire pouvait être trouvée « sur des bases de données d’études de recherche juridique telles que Westlaw et LexisNexis ». Lorsqu’on lui a demandé « les autres cas que vous avez fournis sont-ils faux », il a répondu « Non », y compris qu’ils pourraient être trouvés sur les mêmes bases de données.

Aussi agréables que puissent être les chatbots, ou aussi avancés qu’ils puissent paraître, ils sont toujours sensibles aux  » hallucinations  » – des réponses parfaitement cohérentes qui n’ont aucun rapport avec la vie réelle.

IFLScience n’est pas responsable du contenu partagé à partir de sites externes.

Sans une vérification approfondie des faits, ce n’est pas vraiment un outil que vous devez utiliser lorsque vous tentez de rechercher une affaire judiciaire qui dépend d’un précédent réel au lieu des hallucinations d’une saisie semi-automatique épicée.

L’avocat a écrit qu’il « regrette considérablement d’avoir effectivement utilisé le système expert génératif pour compléter les recherches juridiques menées ici » et s’engage à « ne jamais le faire à l’avenir sans vérification pure et simple de son authenticité ».

Tous deux Schwartz et le représentant légal Peter LoDuca, qui n’étaient pas conscients que ChatGPT avait effectivement été utilisé lors de l’examen de l’affaire, doivent faire face à une audience le 8 juin sur l’incident.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici