A mesterséges intelligencia etikus használata peres eljárásokban


Bár a mesterséges intelligencia perökonómiai szempontból kiváló lehetőségeket nyújt, a technológia nem megfelelő használata súlyos kockázatokkal jár.

Ahogy az a diszruptív technológiák esetén gyakran előfordul, a generatív mesterséges intelligencia (MI) használata sokkal több tudást és elővigyázatosságot igényel, mint amennyivel az átlagfelhasználó rendelkezik. Lássunk egy szemléltető példát, mely az MI óvatlan használatából fakadó problémát mutat be:

Egy coloradói ügyvéd generatív mesterséges intelligenciát használt bírósági ítélet hatályon kívül helyezése iránti indítványának elkészítésére, ami aggályos – és potenciálisan karrierveszélyes – eredményhez vezetett. Az ügyvéd nem ellenőrizte a ChatGPT által hivatkozott ügyeket, és kiderült, hogy sok eset vagy nem létezett, vagy nem volt releváns az ügy szempontjából. Végül a bíró elutasította az indítványt és megrovásban részesítette az ügyvédet, melyet azzal indokolt, hogy ezen tevékenysége nem egyeztethető össze a hivatás alapvető etikai szabályaival.

Ez az eset sajnos nem kirívó, mivel a megfelelő ügyvédi felülvizsgálat nélkül benyújtott, mesterséges intelligencia által generált jogi indítványok előfordulása egyre gyakoribb. A bírói gyakorlat a jelenség visszaszorításának érdekében proaktív intézkedéseket igyekszik beépíteni az eljárásrendekbe. Brantley Starr, Texas északi körzetének szövetségi bírója például előírta, hogy minden előtte megjelenő ügyvédnek be kell nyújtania egy igazolást arról, hogy a beadványok érdemi tartalmát illetően nem vették igénybe a generatív mesterséges intelligenciát. Az MI pontosságát tehát minden esetben az ember általi felülvizsgálatnak kell megerősítenie.

Hasonlóképpen, Stephen Vaden, az Egyesült Államok Nemzetközi Kereskedelmi Bíróságának bírója elrendelte, hogy a rá bízott ügyekben minden olyan beadványhoz, amely generatív mesterségesintelligencia-program segítségével készült szöveget tartalmaz, csatolni kell egy közzétételi nyilatkozatot, mely azonosítja a használt programot és az így elkészített szövegrészeket, és egy tanúsítványt arról, hogy az ilyen program használata nem eredményezett titoksértést.

Az MI széleskörű használatára adott jogalkalmazói válasz késedelme nem csak a hatóságok problémája. Az szakmai testületek és szervezetek is lassan kezelték a mesterséges intelligencia által előidézett, potenciálisan kiemelt jelentőségű változásokat. Az Amerikai Ügyvédi Kamara (ABA – American Bar Association – a ford.) csak 2023 augusztusában hozta létre a kamara szakjogi kérdésekkel és mesterséges intelligenciával foglalkozó munkacsoportját a 604. számú határozattal.  Bár az Kamara által kiadott állásfoglalásból hiányoznak a világos szabályok, bizonyos alapelveket megfogalmaz, melyek a mesterséges intelligencia vonatkozásában, kimondják, hogy „[a] az érdekelt természetes- és jogi személyeknek felelősséget kell vállalniuk az AI-termékek, -szolgáltatások használatából eredő következményekért.”

Első látásra ez az elv axiomatikusnak tűnik, és nem valószínű, hogy nézeteltéréseket generálna a szakemberek között, de ez is csak egy kiindulópont, amelyből hiányzik a finomítás. A különböző jogi hivatások eltérő etikai és szakmai nehézségekkel szembesülnek az MI használata során. Egy büntetőjogi védőügyvéd vagy ügyész olyan mesterséges intelligencia-problémákkal fog foglalkozni a tisztességes eljárás terén, amelyekbe a szerződéses ügyvédnek nem kell belegondolnia. Hasonlóképpen, a pénzügyi szolgáltatásokkal foglalkozó ügyvédek olyan kérdésekkel fognak foglalkozni, amelyekkel a nemzetközi kereskedelmi jogászok nem.

Az ABA 604. számú határozata által felidézett etikai szabályrendszerének hiányossága, hogy az tényállások nem „helyzetfüggőek”, így az alapelvek, ajánlások alkalmazása a mindennapi dilemmákra és folyamatokra erősen kontextusfüggő. Bizonyos jogi gyakorlatok nagyobb körültekintést igényelnek a mesterséges intelligencia azon aspektusaival kapcsolatban, amelyek esetleg kevésbé fontosak más gyakorlatok szempontjából, ezért érdemes végiggondolni, hogy az MI-vel kapcsolatos etikai megfontolások hogyan keresztezik egymást bizonyos jogintézményekkel.

Kereskedelmi peres eljárások, mesterséges intelligencia és szakmai etika

Míg az újabb generatív mesterségesintelligencia-eszközök némelyike ​​meghaladja a régi eszközök és technológiák képességeit, fontos felismerni, hogy a kereskedelmi perek már évek óta használják az MI-t. Az olyan platformokon végzett kutatások, mint a Westlaw (online kutatási felület és védett adatbázis – a ford.) vagy a Compose (segédprogram a tartalom felülvizsgálatához – a ford.), mely rendszerek szükségszerűen magukban foglalják a nyelvi feldolgozást, a szövegfelismerést, a relevancia alapú rangsorolást és az eszközök teljesítményének folyamatos javítását.

Az újabb generatív MI-eszközök már képesek helyettesíteni bizonyos, korábban emberek által végzett munkafunkciókat. A probléma az, hogy a technológia – miközben szinte felmérhetetlen mennyiségű információt képes feldolgozni – könnyen alapjaiban elronthatja egy már jól működő rendszer helyzetét.

Hasonlóságot lehet tenni az MI és a mosógép között. Hogyan? A mosógépek számtalan munkaórát és időt takarítottak meg az emberiségnek, felszabadítva így az időnket és energiánkat a komplexebb feladatok elvégzésére vagy a szabadidő egy részének élvezetére; azonban egy gyapjú pulóvert vagy vászonnadrágot is tönkretehetnek, ha nem elég körültekintően és rendeltetés szerint indítunk el egy mosást.

A peres felek hasonló helyzettel néznek szembe a mesterséges intelligencia esetében. Elérhető a lehetőség, hogy jelentősen növelje a technika a hatékonyságot, de kockázatok is vannak, ha a technológiát nem megfelelően használják. Ezek a kockázatok azokra a dolgokra összpontosulnak, amelyek megkülönböztetik a kereskedelmi pereket a többi pertípustól: az üzleti jog bonyolultsága állami és szövetségi szinten, az ügyfél mögöttes üzleti céljainak felmérése (amelyek önmagukban is összetettek lehetnek), valamint az ügy helyszínének ismerete. Tekintettel ezekre a tényezőkre, az alábbiakban felsorolunk néhány gyakoribb buktatót, amelyek a peres felek mesterséges intelligencia használatával kapcsolatosak.

Jogi szakértelem hiánya

A legtöbb népszerű generatív mesterséges intelligencia eszköz, mint például a ChatGPT, nem rendelkezik speciális tudással a jogi fogalmak, az ítélkezési gyakorlat vagy a törvényi értelmezések terén. Előfordulhat, hogy hiányzik a szükséges jogi szakértelem a pontos és megbízható információk nyújtásához.

Következetlenség és elfogultság

A generatív MI-eszközök a képzési adataikból tanult minták alapján generálnak válaszokat; a képzési adatokat azonban a végfelhasználó számára szinte lehetetlen ellenőrizni vagy kellően értékelni. A kapott anyag különféle forrásokból származó információkat tartalmaz, amelyek következetlenséget, pontatlanságot és torzítást okozhatnak. A jogi kutatás pontos és elfogulatlan információkat igényel, amelyeket nem mindig a mesterséges intelligencia szolgáltat.

Korlátozott hozzáférés a jogi adatbázisokhoz

A jogra mint iparágra összpontosító mesterséges intelligencia-eszközök garmadája van kialakulóban, amelyek a jövőben már kiterjedt jogi adatbázisokhoz férnek hozzá, törvényeket, rendeleteket, ítélkezési gyakorlatot és jogi kommentárokat ismernek. Főszabályként napjainkban a legtöbb mesterségesintelligencia-eszköz nem rendelkezik ezzel a tudásanyaggal. Elavult vagy hiányos forrásokra támaszkodhat, ami hiányos vagy helytelen eredményekhez vezethet.

A kontextustudat hiánya

Az MI-eszközök jellemzően mondatonként dolgozzák fel az információkat, és ezáltal hiányzik a kontextus megértésének képessége. A jogi kutatás gyakran több forrás elemzését, összetett jogi érvek megértését és a tágabb jogi keretek figyelembevételét igényli. Az MI továbbra is küzd, hogy árnyalt és átfogó elemzést nyújtson ilyen esetekben.

Etikai és titoktartási aggályok

A jogi kutatás gyakran érzékeny és bizalmas információkat érint. Az MI-modellek peres ügyekben történő alkalmazása aggályokat vet fel az adatvédelemmel és a biztonsággal kapcsolatban, mivel az MI-modell a titkot megőrizheti és felhasználhatja. Ezen túlmenően, az MI-nak nem ugyanaz az etikai felelőssége, mint a jogi szakembereknek, például az ügyfelekkel való kapcsolattartásnak és a szakmai normák betartásának.

A jogi érvelés és ítélőképesség hiánya

A jogi kutatás nem csupán információszolgáltatást jelent; jogi érvelés és analitika alkalmazását igényli. Előfordulhat, hogy a mesterséges intelligencia nem képes megfelelően értékelni a jogi érveket, felmérni a precedenseket vagy figyelembe venni egy ügy konkrét tényállításait. A mesterséges intelligencia eszközök hasznos kiindulópontot jelenthetnek a jogi kutatáshoz azáltal, hogy általános információkat nyújtanak, vagy a felhasználókat a releváns jogi forrásokhoz irányítják, nem szabad azonban kizárólag a pontos jogi tanácsadás érdekében ezekre hagyatkozni.

Az MI technológia gyorsan fejlődik

A mesterséges intelligenciával kapcsolatos buktatók megértését magának a technológiának a körvonalai határozzák meg, és ezek folyamatosan változnak. A fent azonosított hibák némelyike ​​a technológia fejlődése miatt nagyrészt elavulttá válhat rövid időn belül és valószínűleg a szabályokon alapuló jogértelmezési megközelítés már elavult.

Annak ellenére, hogy bár hasznos a jövő megtervezése, a dolgok jelenlegi állapotával kell foglalkoznunk, és az ABA-nak az elszámoltathatóságra vonatkozó hatáskörének kiemelése, tekintettel a jelenlegi MI-technológia erőteljes, de hibás természetére. Védőkorlátok szükségesek: mindig ellenőrizze újra a törvényeket és kapcsolódó anyagokat egy hagyományos jogi adatbázison keresztül, és soha ne adjon ki bizalmas vagy üzleti tulajdonú információkat az MI-nek. Számtalan összetett probléma merül fel a peres felek előtt, amikor az MI használatát vitatják meg, de ez a két tényező nagyban hozzájárulhat az elszámoltathatóság gyakorlati megvalósításához.


Fordította: Takács Fanni Bernadett

Eredeti cikk: Ethical Considerations for Litigators Navigating the Artificial Intelligence Landscape


Kapcsolódó cikkek

2024. szeptember 4.

Megkezdi működését az Online Platform Vitarendező Tanács

Bővült a jogorvoslati lehetőségek köre az online platformok egyes, felhasználókat negatívan érintő intézkedéseivel szemben az Európai Unió digitális szolgáltatásokról szóló rendeletének átültetését követően. A Nemzeti Média- és Hírközlési Hatóság (NMHH) elnöke hozzátette, ezentúl már nemcsak hatóságokhoz vagy bírósághoz, hanem az Online Platform Vitarendező Tanácshoz (OPVT) is fordulhat, aki vitatja egy platform valamely döntését. Koltay András emlékeztetett rá, az NMHH, mint kijelölt Digitális Szolgáltatási Koordinátor elvégezte a testület tanúsítását, így az megkezdheti működését.

2024. szeptember 3.

A jövő jogásza podcast: szerződésautomatizálás

Megyeri Andrea beszélget Jalsovszky Pállal és Fehér Tamással, a Jalsovszky Ügyvédi Iroda partnereivel, a szerződésautomatizálás módszeréről és arról az eljárásról, amelyet évek óta fejlesztenek az ügyvédi irodában.