Továbbra is várat magára a generatív mesterséges intelligencia peres eljárások során történő használata


Miközben a mesterséges intelligencia rohamos ütemben fejlődik, a jog – amely nem éppen az új technológiák korai alkalmazójaként ismert – továbbra is lassan és óvatosan reagál, és inkább vár az új fejleményekre, nem pedig megpróbálja előre látni azokat.

Tavaly nyáron egy alapvetően rutinszerű ügy élénken rávilágított a generatív mesterséges intelligencia problémáira. Két New York-i ügyvéd egy indítvánnyal kapcsolatban a ChatGPT-hez fordult segítségért, nem tudván, hogy az hajlamos alkalmanként „hallucinálni”. A chatbot nemlétező eseteket talált ki, hogy alátámassza az ügyvédek álláspontját, amelyre ők aztán indítványukban hivatkoztak.

A feltűnő szakmai hiba miatt az ügyvédeket szankcionáló végzésben Kevin Castel, New York déli körzetének bírója nyomatékosan megjegyezte, hogy a mesterséges intelligencia által generált munkatermék „olyan stilisztikai és érvelési hibákat mutat, amelyek nem jelenhetnek meg az Egyesült Államok fellebbviteli bíróságai által kiadott határozatokban”, sőt egyenesen „halandzsának” nevezte a beadott indítványt. Mindezek ellenére érdemes felhívni a figyelmet arra, hogy a ChatGPT érvrendszere elég meggyőző volt ahhoz, hogy két tapasztalt ügyvédet megtévesszen egy szakterületükön kívüli probléma kapcsán.

A Mata-ügy[1] során kiütköző problémák után várható volt, hogy a bíróságok elkezdik átdolgozni a vonatkozó szabályokat, hogy csökkentsék a mesterséges intelligencia hallucinációjából fakadó kockázatokat a peres eljárások során. Habár a jogi kutatás és informális tájékoztatás nem az egyetlen terület a peres eljárásokban, ahol a mesterséges intelligencia előnyös lehet, de megfelelő ellenőrzés nélkül komoly veszélyt jelenthet. Az e-kutatást végző platformok már most is kiválóan alkalmazhatóak dokumentumok gyűjtésére, rendezésére. A technológia fejlődésével egyre gyakrabban fogják alkalmazni a generatív mesterséges intelligenciát dokumentumok összefoglalására, elemzésére, sőt akár önálló állásfoglalások megalkotására is.

Azonban nem szabad megfeledkezni a mesterséges intelligencia nem éppen pozitív jellemzőjéről, a „feketedoboz” hatásról. A felhasználó nem tudja teljes egészében felmérni és átlátni, hogy az általa használt nyelvi modell hogyan végzi el a számára kiadott feladatot, így nem lehet biztos a munkatermék helyességében sem, ami megalapozza az ellenőrzés szükségét. A mesterséges intelligencia által végzett adatelemzés azonban sebezhetőbb lehet a rejtett hibákkal szemben, mint az AI által támogatott jogi érvelés. Míg a tájékoztatás és érvelés területén az AI által generált kimenet összevethető az esetjoggal, az adatok vagy képek AI általi értelmezésének ellenőrzésére nincsenek ilyen egyértelmű, általánosan elérhető referenciapontok.

A bíróságok eddig mégis lassan reagáltak a felmerülő problémákra. Csak néhány bíróság és bíró vezetett be szabályokat az AI használatára vonatkozóan, és ezek többsége a generatív mesterséges intelligencia kutatásban és beadványok készítésben való felhasználására összpontosít. Ezen megkötések megkövetelik az ügyvédektől, hogy jelezzék, ha mesterséges intelligenciát használtak bírósági beadványok elkészítésekor. Kevés szabály vonatkozik az AI használatának általánosabb területeire, és szinte egyik sem tiltja a nyelvi modellek használatát.

A bírósági esetjog azonban még messze van a konszenzustól. Az az ötlet, hogy az ügyvédeknek nyilvánosságra kell hozniuk a generatív mesterséges intelligencia használatát, éles vitát váltott ki a jogi közösségben. Sokan kételkednek az új szabályok szükségességében, tekintettel az ügyvédek már meglévő etikai kötelezettségeire, míg mások szerint a jelenlegi szabályozás felszínes és nem ad valódi gyakorlati keretrendszert.

Az első korlátozó jellegű döntés március végén született Washington államban, ahol egy bíróság kizárt hét mesterséges intelligencia által minőségében javított iPhone-felvételt a bizonyítékok közül. A Frye kontra Egyesült Államok ügyben[2] a bíróság arra jutott, hogy még nincs tudományos konszenzus a mesterséges intelligencia által használt javítási technikák megbízhatóságáról. A bíróság rámutatott arra is, hogy az ilyen képek előállításához használt gépi tanulási algoritmusok „nem reprodukálhatók” az igazságügyi szakértők által – ami nyilvánvaló utalás a „feketedoboz” hatás problémájára.

Nem sokkal később a Bizonyítási Szabályokkal Foglalkozó Tanácsadó Bizottság megvitatta azon kevés konkrét szabálymódosítás egyikét, amely a generatív mesterséges intelligencia bírósági használatára vonatkozna. A javaslat szerint az AI technológia által korrigált bizonyítékok estében az indítványozónak tanúsítania kellene az alkalmazott modell szoftverének és működésének leírásával, hogy az érvényes és megbízható eredmények produkálására képes.

Miközben a mesterséges intelligencia rohamos ütemben fejlődik, a jog – amely nem éppen az új technológiák korai alkalmazójaként ismert – továbbra is lassan és óvatosan reagál, és inkább vár az új fejleményekre, nem pedig megpróbálja előre látni azokat.

A jog nem a logikán, hanem a tapasztaláson alapszik.” – Oliver Wendell Holmes bíró


Fordította: Takács Fanni Bernadett

Eredeti cikk: Courts Remain Hesitant to Regulate the Use of Generative AI in Litigation


Források:

[1] Mata kontra Avianca (2023)

[2] Frye v. US


Kapcsolódó cikkek

2024. november 5.

A jövő jogásza podcast: exluzív beszélgetés dr. Herczegh Zsolttal, a BÜK Jogtanácsosi Tagozat elnökével

A Jövő Jogásza Podcast Különkiadásában a jogász társadalom életében meghatározó szerepet betöltő jogászoktól, vezetőktől kapunk betekintést abba, hogyan viszonyulnak a jogi munka digitalizációjához. Dr. Megyeri Andrea és Dr. Ungváry Botond ezúttal Dr. Herczegh Zsolttal, a Budapesti Ügyvédi Kamara Jogtanácsosi Tagozat elnökével elnökével beszélget.