Inteligenta artificială, un pericol în sala de judecată: Avocat obligat să-și ceară scuze după ce a prezentat citate false generate de calculator

Un avocat australian a fost nevoit să se retragă și să-și exprime regretul public după ce a depus la tribunal un memoriu conținând citate juridice inventate de un algoritm. Incidentul a avut loc în cadrul unui proces pentru crimă, derulat în fața Curții Supreme din statul Victoria.

Deținătorul titlului prestigios de King’s Counsel, Rishi Nathwani, și-a asumat întreaga responsabilitate pentru prezentarea unor informații eronate. El a declarat că își exprimă profunda jena și regretul pentru ceea ce s-a întâmplat, în numele întregii echipe de apărare.

Materialele depuse includeau citate fictive atribuite unui discurs oficial și referințe către decizii judecătorești care, de fapt, nu au existat niciodată. Erorile au fost sesizate de reprezentanții instanței, care, încercând să verifice sursele, au descoperit imposibilitatea identificării acestora.

Avocații au recunoscut ulterior că unele dintre citări erau pur și simplu inventate și că nu și-au verificat suficient temeinicia. Au explicat că au presupus, în mod eronat, că toate referințele generate automat erau corecte, după ce au verificat doar o parte din ele.

Situația a condus la amânarea cu o zi a soluționării cauzei, întârzind astfel încheierea procesului. În cele din urmă, tribunalul a decis că acuzatul, un minor a cărui identitate a fost protejată, nu poate fi considerat vinovat din cauza unor probleme de sănătate mintală.

Judecătorul a evidențiat că încrederea instanței în exactitatea materialelor prezentate de avocați este esențială pentru buna funcționare a sistemului juridic. S-a menționat, de asemenea, că instanța a emis anul trecut recomandări specifice privind utilizarea instrumentelor de inteligență artificială în practica juridică, subliniind că orice astfel de instrument trebuie verificat independent înainte de a fi prezentat.

Acest caz nu este izolat. Anul trecut, în Statele Unite, doi avocați și o firmă au fost sancționați financiar după ce au folosit un chatbot pentru a genera cercetări juridice false într-un dosar de despăgubiri. De asemenea, în Marea Britanie, instanțele au emis avertismente clare cu privire la riscurile de a furniza materiale false generate de algoritmi, subliniind că astfel de acțiuni pot atrage pedepse severe, inclusiv privare de libertate.

Problema de fond rămâne aceea a încrederi