Doi avocați americani care au folosit aplicația ChatGPT pentru a pregăti un proces riscă să fie dați afară din barou după ce s-a descoperit că unele decizii judecătorești citate de programul de inteligență artificială și prezentate în instanță pentru susținerea cazului erau inventate, scrie NBC News.
ChatGPT a fost folosit pentru a pregăti un proces în care un cetățean pe nume Roberto Mata a dat în judecată compania aeriană Avianca Airlines pe motiv că, în 2019, a fost lovit de un cărucior cu alimente într-un avion cu destinația New York.
Compania aeriană a susținut că nu există motive pentru ca procesul să fie inițiat, însă, pentru a-și susține cazul, avocatul Peter LoDuca a prezentat judecătorului mai multe decizii judecătorești din dosare aparent similare.
Avocații companiei aeriene au susținut că nu găsesc multe dintre precedentele prezentate de LoDuca, așa că judecătorul a cerut să îi fie prezentate dosarele complete.
Avocatul Peter LoDuca a prezentat în instanță opt astfel de dosare, însă, după verificarea lor, a reieșit că era vorba de "decizii judiciare inventate cu citate inventate".
Atunci a ieșit la iveală că Peter LoDuca a apelat la un coleg pe nume Steven Schwartz care a folosit aplicația ChatGPT pentru a căuta precedente.
Este încă neclar dacă aceștia au știut că dosarele citate de aplicație erau inventate sau a fost vorba de ceea ce se cheamă "o halucinație" a programului - atunci când aplicațiile de inteligență artficială inventează pur și simplu informații - iar aceștia au adăugat cazurile la dosar cu bună credință.
"Curtea se află într-o poziție fără precedent", a declarat judecătorul de caz, care a adăugat că cei doi avocați vor fi audiați pe 8 iunie pentru a oferi explicații.
Aceștia riscă să fie dați afară din barou.
Citește și: Inteligența artificială ar putea provoca dispariția omenirii. Avertismentul experților în tehnologie
Utilizarea ChatGPT sau a altor programe de inteligență artificială în instanțe este un subiect intens dezbătut.
În februarie, un judecător din Columbia a recunoscut că s-a folosit de ChatGPT pentru a da un verdict într-un caz în care familia unui copil cu autism cerea scutirea de la plata unor tratamente.
Acesta a precizat, atunci, că a folosit aplicația ca pe o "secretară", pentru a găsi texte juridice care să-l ajute la analizarea cazului.
Însă specialiștii în drept au atras atenția că atunci când au pus aceleași întrebări folosite de judecător aplicației au primit răspunsuri diferite și au atras atenția că, în ciuda eficienței programelor de inteligență artificială, folosirea lor poate pune în pericol drepturile omului.
Editor : D.R.