A mesterséges intelligencia etikus használata peres eljárásokban
Bár a mesterséges intelligencia perökonómiai szempontból kiváló lehetőségeket nyújt, a technológia nem megfelelő használata súlyos kockázatokkal jár.
Ahogy az a diszruptív technológiák esetén gyakran előfordul, a generatív mesterséges intelligencia (MI) használata sokkal több tudást és elővigyázatosságot igényel, mint amennyivel az átlagfelhasználó rendelkezik. Lássunk egy szemléltető példát, mely az MI óvatlan használatából fakadó problémát mutat be:
Egy coloradói ügyvéd generatív mesterséges intelligenciát használt bírósági ítélet hatályon kívül helyezése iránti indítványának elkészítésére, ami aggályos – és potenciálisan karrierveszélyes – eredményhez vezetett. Az ügyvéd nem ellenőrizte a ChatGPT által hivatkozott ügyeket, és kiderült, hogy sok eset vagy nem létezett, vagy nem volt releváns az ügy szempontjából. Végül a bíró elutasította az indítványt és megrovásban részesítette az ügyvédet, melyet azzal indokolt, hogy ezen tevékenysége nem egyeztethető össze a hivatás alapvető etikai szabályaival.
Ez az eset sajnos nem kirívó, mivel a megfelelő ügyvédi felülvizsgálat nélkül benyújtott, mesterséges intelligencia által generált jogi indítványok előfordulása egyre gyakoribb. A bírói gyakorlat a jelenség visszaszorításának érdekében proaktív intézkedéseket igyekszik beépíteni az eljárásrendekbe. Brantley Starr, Texas északi körzetének szövetségi bírója például előírta, hogy minden előtte megjelenő ügyvédnek be kell nyújtania egy igazolást arról, hogy a beadványok érdemi tartalmát illetően nem vették igénybe a generatív mesterséges intelligenciát. Az MI pontosságát tehát minden esetben az ember általi felülvizsgálatnak kell megerősítenie.
Hasonlóképpen, Stephen Vaden, az Egyesült Államok Nemzetközi Kereskedelmi Bíróságának bírója elrendelte, hogy a rá bízott ügyekben minden olyan beadványhoz, amely generatív mesterségesintelligencia-program segítségével készült szöveget tartalmaz, csatolni kell egy közzétételi nyilatkozatot, mely azonosítja a használt programot és az így elkészített szövegrészeket, és egy tanúsítványt arról, hogy az ilyen program használata nem eredményezett titoksértést.
Az MI széleskörű használatára adott jogalkalmazói válasz késedelme nem csak a hatóságok problémája. Az szakmai testületek és szervezetek is lassan kezelték a mesterséges intelligencia által előidézett, potenciálisan kiemelt jelentőségű változásokat. Az Amerikai Ügyvédi Kamara (ABA – American Bar Association – a ford.) csak 2023 augusztusában hozta létre a kamara szakjogi kérdésekkel és mesterséges intelligenciával foglalkozó munkacsoportját a 604. számú határozattal. Bár az Kamara által kiadott állásfoglalásból hiányoznak a világos szabályok, bizonyos alapelveket megfogalmaz, melyek a mesterséges intelligencia vonatkozásában, kimondják, hogy „[a] az érdekelt természetes- és jogi személyeknek felelősséget kell vállalniuk az AI-termékek, -szolgáltatások használatából eredő következményekért.”
Első látásra ez az elv axiomatikusnak tűnik, és nem valószínű, hogy nézeteltéréseket generálna a szakemberek között, de ez is csak egy kiindulópont, amelyből hiányzik a finomítás. A különböző jogi hivatások eltérő etikai és szakmai nehézségekkel szembesülnek az MI használata során. Egy büntetőjogi védőügyvéd vagy ügyész olyan mesterséges intelligencia-problémákkal fog foglalkozni a tisztességes eljárás terén, amelyekbe a szerződéses ügyvédnek nem kell belegondolnia. Hasonlóképpen, a pénzügyi szolgáltatásokkal foglalkozó ügyvédek olyan kérdésekkel fognak foglalkozni, amelyekkel a nemzetközi kereskedelmi jogászok nem.
Az ABA 604. számú határozata által felidézett etikai szabályrendszerének hiányossága, hogy az tényállások nem „helyzetfüggőek”, így az alapelvek, ajánlások alkalmazása a mindennapi dilemmákra és folyamatokra erősen kontextusfüggő. Bizonyos jogi gyakorlatok nagyobb körültekintést igényelnek a mesterséges intelligencia azon aspektusaival kapcsolatban, amelyek esetleg kevésbé fontosak más gyakorlatok szempontjából, ezért érdemes végiggondolni, hogy az MI-vel kapcsolatos etikai megfontolások hogyan keresztezik egymást bizonyos jogintézményekkel.
Kereskedelmi peres eljárások, mesterséges intelligencia és szakmai etika
Míg az újabb generatív mesterségesintelligencia-eszközök némelyike meghaladja a régi eszközök és technológiák képességeit, fontos felismerni, hogy a kereskedelmi perek már évek óta használják az MI-t. Az olyan platformokon végzett kutatások, mint a Westlaw (online kutatási felület és védett adatbázis – a ford.) vagy a Compose (segédprogram a tartalom felülvizsgálatához – a ford.), mely rendszerek szükségszerűen magukban foglalják a nyelvi feldolgozást, a szövegfelismerést, a relevancia alapú rangsorolást és az eszközök teljesítményének folyamatos javítását.
Az újabb generatív MI-eszközök már képesek helyettesíteni bizonyos, korábban emberek által végzett munkafunkciókat. A probléma az, hogy a technológia – miközben szinte felmérhetetlen mennyiségű információt képes feldolgozni – könnyen alapjaiban elronthatja egy már jól működő rendszer helyzetét.
Hasonlóságot lehet tenni az MI és a mosógép között. Hogyan? A mosógépek számtalan munkaórát és időt takarítottak meg az emberiségnek, felszabadítva így az időnket és energiánkat a komplexebb feladatok elvégzésére vagy a szabadidő egy részének élvezetére; azonban egy gyapjú pulóvert vagy vászonnadrágot is tönkretehetnek, ha nem elég körültekintően és rendeltetés szerint indítunk el egy mosást.
A peres felek hasonló helyzettel néznek szembe a mesterséges intelligencia esetében. Elérhető a lehetőség, hogy jelentősen növelje a technika a hatékonyságot, de kockázatok is vannak, ha a technológiát nem megfelelően használják. Ezek a kockázatok azokra a dolgokra összpontosulnak, amelyek megkülönböztetik a kereskedelmi pereket a többi pertípustól: az üzleti jog bonyolultsága állami és szövetségi szinten, az ügyfél mögöttes üzleti céljainak felmérése (amelyek önmagukban is összetettek lehetnek), valamint az ügy helyszínének ismerete. Tekintettel ezekre a tényezőkre, az alábbiakban felsorolunk néhány gyakoribb buktatót, amelyek a peres felek mesterséges intelligencia használatával kapcsolatosak.
Jogi szakértelem hiánya
A legtöbb népszerű generatív mesterséges intelligencia eszköz, mint például a ChatGPT, nem rendelkezik speciális tudással a jogi fogalmak, az ítélkezési gyakorlat vagy a törvényi értelmezések terén. Előfordulhat, hogy hiányzik a szükséges jogi szakértelem a pontos és megbízható információk nyújtásához.
Következetlenség és elfogultság
A generatív MI-eszközök a képzési adataikból tanult minták alapján generálnak válaszokat; a képzési adatokat azonban a végfelhasználó számára szinte lehetetlen ellenőrizni vagy kellően értékelni. A kapott anyag különféle forrásokból származó információkat tartalmaz, amelyek következetlenséget, pontatlanságot és torzítást okozhatnak. A jogi kutatás pontos és elfogulatlan információkat igényel, amelyeket nem mindig a mesterséges intelligencia szolgáltat.
Korlátozott hozzáférés a jogi adatbázisokhoz
A jogra mint iparágra összpontosító mesterséges intelligencia-eszközök garmadája van kialakulóban, amelyek a jövőben már kiterjedt jogi adatbázisokhoz férnek hozzá, törvényeket, rendeleteket, ítélkezési gyakorlatot és jogi kommentárokat ismernek. Főszabályként napjainkban a legtöbb mesterségesintelligencia-eszköz nem rendelkezik ezzel a tudásanyaggal. Elavult vagy hiányos forrásokra támaszkodhat, ami hiányos vagy helytelen eredményekhez vezethet.
A kontextustudat hiánya
Az MI-eszközök jellemzően mondatonként dolgozzák fel az információkat, és ezáltal hiányzik a kontextus megértésének képessége. A jogi kutatás gyakran több forrás elemzését, összetett jogi érvek megértését és a tágabb jogi keretek figyelembevételét igényli. Az MI továbbra is küzd, hogy árnyalt és átfogó elemzést nyújtson ilyen esetekben.
Etikai és titoktartási aggályok
A jogi kutatás gyakran érzékeny és bizalmas információkat érint. Az MI-modellek peres ügyekben történő alkalmazása aggályokat vet fel az adatvédelemmel és a biztonsággal kapcsolatban, mivel az MI-modell a titkot megőrizheti és felhasználhatja. Ezen túlmenően, az MI-nak nem ugyanaz az etikai felelőssége, mint a jogi szakembereknek, például az ügyfelekkel való kapcsolattartásnak és a szakmai normák betartásának.
A jogi érvelés és ítélőképesség hiánya
A jogi kutatás nem csupán információszolgáltatást jelent; jogi érvelés és analitika alkalmazását igényli. Előfordulhat, hogy a mesterséges intelligencia nem képes megfelelően értékelni a jogi érveket, felmérni a precedenseket vagy figyelembe venni egy ügy konkrét tényállításait. A mesterséges intelligencia eszközök hasznos kiindulópontot jelenthetnek a jogi kutatáshoz azáltal, hogy általános információkat nyújtanak, vagy a felhasználókat a releváns jogi forrásokhoz irányítják, nem szabad azonban kizárólag a pontos jogi tanácsadás érdekében ezekre hagyatkozni.
Az MI technológia gyorsan fejlődik
A mesterséges intelligenciával kapcsolatos buktatók megértését magának a technológiának a körvonalai határozzák meg, és ezek folyamatosan változnak. A fent azonosított hibák némelyike a technológia fejlődése miatt nagyrészt elavulttá válhat rövid időn belül és valószínűleg a szabályokon alapuló jogértelmezési megközelítés már elavult.
Annak ellenére, hogy bár hasznos a jövő megtervezése, a dolgok jelenlegi állapotával kell foglalkoznunk, és az ABA-nak az elszámoltathatóságra vonatkozó hatáskörének kiemelése, tekintettel a jelenlegi MI-technológia erőteljes, de hibás természetére. Védőkorlátok szükségesek: mindig ellenőrizze újra a törvényeket és kapcsolódó anyagokat egy hagyományos jogi adatbázison keresztül, és soha ne adjon ki bizalmas vagy üzleti tulajdonú információkat az MI-nek. Számtalan összetett probléma merül fel a peres felek előtt, amikor az MI használatát vitatják meg, de ez a két tényező nagyban hozzájárulhat az elszámoltathatóság gyakorlati megvalósításához.
Fordította: Takács Fanni Bernadett
Eredeti cikk: Ethical Considerations for Litigators Navigating the Artificial Intelligence Landscape