Avocată, sancționată pentru că a citat jurisprudență inventată de ChatGPT

Sursa: Freepik
Sursa: Freepik

O avocată din Columbia Britanică a fost sancționată cu plata cheltuielilor judiciare pentru timpul pierdut cu verificarea unor cazuri pe care spera să le citeze în instanță, cazuri care s-au dovedit a fi inventate de ChatGPT.

Avocata din Vancouver a reprezentat un milionar implicat într-un divorț dificil. Potrivit unei decizii pronunțate de un judecător al Curții Supreme a Columbiei Britanice, Chong Ke a inclus în cererea depusă două "halucinații" generate de inteligența artificială, relatează Yahoo! News.

Cazurile nu au fost niciodată folosite în argumentele aduse de Ke, fiind retrase imediat ce s-a descoperit că au fost inventate de ChatGPT.

Judecătorul David Masuhara a afirmat că nu crede că avocata a intenționat să înșele instanța, însă a subliniat că situația este îngrijorătoare.

"După cum demonstrează din păcate acest caz, inteligența artificială generativă nu poate înlocui expertiza profesională pe care sistemul judiciar o cere de la avocați", a scris Masuhara într-un "comentariu final" atașat deciziei sale. "Competența în selectarea și utilizarea oricăror instrumente tehnologice, inclusiv a celor bazate pe inteligență artificială, este esențială", a conchis acesta.

Descoperire ulterioară

Ke îl reprezenta pe Wei Chen, un om de afaceri a cărui avere netă, conform experților în proceduri de divorț din China, se situează între 70 și 90 de milioane de dolari. Fosta soție a lui Chen, Nina Zhang, locuiește cu cei trei copii ai cuplului într-o casă de 8,4 milioane de dolari din West Vancouver.

Instanța a decis ca Wei Chen să îi plătească lunar lui Zhang 16.062 de dolari pentru cheltuielile cu creșterea copiilor, după ce i-a calculat venitul anual la 1 milion de dolari. Cazurile inventate au apărut într-o cerere ce ar facilita permisiunea copiilor de a călători în China. Avocata a retras cazurile din cerere odată ce s-a dovedit că sunt fabricate.

Cu puțin timp înainte de acea decizie, Ke a depus o cerere în numele lui Chen pentru o hotărâre care să permită copiilor să călătorească în China. Avizul de depunere a cererii cita două cazuri: unul în care o mamă și-a dus "copilul de 7 ani în India pentru șase săptămâni" și altul care aproba "cererea unei mame de a călători cu copilul ei de 9 ani în China timp de patru săptămâni pentru a-și vizita părinții și prietenii".

"Aceste cazuri se află în centrul controversei din fața mea, deoarece s-a descoperit că nu există", a scris judecătorul.

Problema a ieșit la iveală atunci când avocații lui Zhang au cerut avocatei copii ale cazurilor pentru a pregăti un răspuns și nu le-au putut găsi folosind identificatorii de citare.

Ke a înmânat o scrisoare în care își prezenta scuzele împreună cu o recunoaștere a faptului că respectivele cazuri erau false unui asociat care urma să apară în instanță în locul ei, însă problema nu a fost discutată în acea zi, iar asociatul nu a oferit o copie avocaților lui Zhang.

Masuhara a declarat că avocata a depus ulterior o declarație pe proprie răspundere subliniind "lipsa cunoștințelor" sale despre riscurile utilizării ChatGPT și "descoperirea faptului că respectivele cazuri erau fictive, lucru pe care îl descrie drept umilitor".

"Nu am intenționat să generez sau să fac referire la cazuri fictive în această problemă. Este clar greșit și nu este ceva pe care l-aș face cu bună știință", a scris Ke în declarația sa. "Nu am avut niciodată intenția de a mă baza pe autorități fictive sau de a induce în eroare instanța", a mai declarat femeia.

Google News icon  Fiți la curent cu ultimele noutăți. Urmăriți DCNews și pe Google News

Cele mai noi știri
Cele mai citite știri

Copyright 2024 SC PRESS MEDIA ELECTRONIC SRL. Toate drepturile rezervate. DCNews Proiect 81431.

Comandă acum o campanie publicitară pe acest site: [email protected]


cloudnxt3
YesMy - smt4.5.3
pixel