Avocați din SUA, amendați pentru că au prezentat instanței cazuri false, sugerate de ChatGPT. Au folosit inclusiv jurisprudență „inventată” de inteligența artificială

Doi avocați americani și firma pentru care lucrau au primit o amendă de 5.000 de dolari pentru că au depus într-un dosar al instanței citații false, generate de ChatGPT (inteligența artificială), dar și pentru că au scris într-un rezumat juridic mai multe cazuri inventate de același robot, relatează The Guardian.

23 Iunie 2023, 21:23 (actualizat 23 Iunie 2023, 21:34) Știrile TVR |

ChatGPT / FOTO: shutterstock.com

Steven Schwartz, unul dintre avocați, a recunoscut că ChatGPT a inventat 6 cazuri la care s-a referit într-un rezumat juridic, într-un dosar împotriva companiei aeriene columbiene Avianca.

Judecătorul P Kevin Castel a transmis că nu există nimic „în mod inerent nepotrivit” în utilizarea inteligenței artificiale pentru asistarea în activitatea juridică, dar avocații trebuie să se asigure că dosarele lor sunt exacte. El a punctat: „Progresele tehnologice sunt obișnuite și nu există nimic în mod inerent nepotrivit în utilizarea unui instrument fiabil de inteligență artificială pentru asistență. Dar regulile existente impun avocaților un rol de control pentru a asigura acuratețea dosarelor lor”.

Judecătorul a spus că avocații și firma lor „și-au abandonat responsabilitățile atunci când au transmis opinii judiciare inexistente, cu citate false, create de instrumentul de inteligență artificială ChatGPT, apoi au continuat să susțină opiniile false după ce ordinele judiciare le-au pus în discuție existența”.

Firma vizată, Levidow, Levidow & Oberman, a declarat că avocații săi nu sunt de acord cu instanța care îi acuză că ar fi acționat cu rea-credință: „Am făcut o greșeală de bună-credință. Nu credeam că o piesă de tehnologie ar fi putut inventa totul”.

ChatGPT le-a sugerat avocaților mai multe cazuri care implicau accidente aviatice pe care Schwartz nu le-a putut găsi prin metodele obișnuite folosite la firma sa de avocatură. Câteva din cazurile prezentate erau false sau judecătorii menționați nu existau, ori erau identificați greșit sau implicau companii aeriene care nu existau.

Nu este primul exemplu răsunător în care Chatboții precum ChatGPT, dezvoltat de firma americană OpenAI, transmit inexactități.

De pildă, ChatGPT a acuzat în mod fals un profesor de drept american de hărțuire sexuală și a citat un raport inexistent al Washington Post în acest proces. În februarie, un videoclip promoțional pentru rivalul Google pentru ChatGPT, Bard, a oferit un răspuns inexact la o întrebare despre telescopul spațial James Webb, ridicând îngrijorarea că marea companie a fost prea grăbită în a lansa o ripostă la descoperirea OpenAI.

Chatboții sunt instruiți cu o mulțime de date preluate de pe internet, deși sursele nu sunt disponibile în multe cazuri. Funcționând ca un instrument de text predictiv, ei construiesc un model, pentru a prezice cel mai probabil cuvânt sau propoziție care ar trebui să vină după solicitarea unui utilizator. Asta înseamnă că sunt posibile erori, dar răspunsul, ce parcă este scris de un om, îi poate convinge pe mulți că este adevărat.

Arina Delcea

Source

Distribuie știrea