MI eszközök használata az ügyvédi munkában – 4. rész: hivatásbeli kötelezettségeket érintő kockázatok


Ez a cikk több mint egy éve került publikálásra. A cikkben szereplő információk a megjelenéskor pontosak voltak, de mára elavultak lehetnek.

Cikksorozatunk negyedik részében kiemelünk néhány olyan kockázatot, amelyek akkor merülnek fel, ha az ügyvédek MI-eszközöket használnak. Kitérünk arra is, hogy ezek használata miként veszélyeztetheti a hivatásbeli kötelezettségeknek való megfelelést. A cikk az Európai Ügyvédi Kamarák Tanácsa (CCBE) és az Európai Ügyvédek Alapítványa (ELF) által bemutatott, az Európai Bizottság által finanszírozott AI4Lawyers projekt keretében megalkotott útmutató alapján készült.

mesterséges intelligencia

Az Európai Ügyvédi Kamarák Tanácsa (CCBE) és az Európai Ügyvédek Alapítványa (ELF) közösen mutatták be az Európai Bizottság által finanszírozott AI4Lawyers projekt keretében megalkotott útmutatót (a továbbiakban: Útmutató) a mesterséges intelligencián alapuló eszközök használatához. Az Útmutató elkészítésében dr. Homoki Péter ügyvéd is részt vett.


Az útmutatóból részleteket közlő cikksorozat első részét itt, második részét pedig itt olvashatják. A harmadik rész itt érhető el.


Amikor az ügyvédek megpróbálnak megfelelni az információfeldolgozási képességeik növelésével kapcsolatos elvárásoknak, azt olyan módon kell tenniük, hogy egyúttal biztosítsák az európai ügyvédi hivatás alapelveinek betartását is. Ezeket az alapelveket nemcsak a kamarai etikai szabályok rögzítik, azok az európai bíróságok és az Emberi Jogok Európai Bíróságának joggyakorlatából is következnek. Ezen alapelvek közé tartozik különösen az ügyvédi függetlenség, az összeférhetetlenség elkerülésének kötelezettsége és az ügyvédi titok megtartásának kötelezettsége.

E kockázatok némelyike szorosabban kapcsolódik a használt eszközök jellegéhez, használatuk módjához (például a harmadik felek eszközeinek használatával kapcsolatos kockázatok, a tanítóadat miatt a modell torzulása (bias) és a gépi tanulási módszerek átláthatóságának hiánya). Néhány kockázat azonban inkább az ügyvédek szakmai szabályaival függ össze, például a titoktartással vagy az elvárt hozzáértéssel.

1. Műszaki jellegű kockázatok

Az első megemlítendő műszaki jellegű kockázat nem az AI-eszközök természetéből fakad, hanem abból, hogy tipikusan milyen módon biztosítják az AI-eszközökhöz való hozzáférést. Ugyanis a legtöbb ilyen eszközt ma a nyilvánosság számára kínált felhőszolgáltatások útján, azaz a nyilvános felhőszolgáltatások használatával teszik elérhetővé. Ugyanez a kockázat irányadó azokra az ügyvédekre is, akik online platformokat használnak, mivel ezek a platformok szintén nyilvános felhőszolgáltatásokra támaszkodnak.

Az Európai Ügyvédi Kamarák Tanácsa (CCBE) igen részletesen elemezte már a felhőalapú számítástechnika kockázatait. Az AI-eszközök tekintetében a CCBE olyan kérdésekre hívta fel a figyelmet, mint a határon átnyúló joghatások (az extraterritorialitás) problémája: a felhasználók nem tudják ellenőrizni, hogy a felhőszolgáltatóra vonatkozó helyi előírások miként befolyásolják az ügyvédekre az ügyvéd saját tagállamában biztosított védelmet. Hasonló probléma az is, hogy az ügyvédek hogyan férhetnek hozzá saját adataikhoz, ha a szolgáltatóval fennálló szerződéses kapcsolatuk megszűnik.

A nagyobb probléma az, amit úgy írnak le, hogy „az adatokat sokkal nehezebb kitörölni a felhőből, mint oda feltölteni”. A különálló dokumentumok, számlák, egyenlegek és ügyfélszámla-információk könnyen exportálhatók ugyan egy felhőalapú szolgáltatásból, de arra nincs szabványosított módszer, hogy az összes, a rendszerben rögzített ügyleti információt teljes egészében exportálják és mindezt egy másik felhőszolgáltatóhoz adatvesztés nélkül átvigyék. Minél teljesebb mértékben integrálódik az AI-eszköz az ügyvédi iroda működésébe, annál súlyosabb lesz ez a probléma.

Az adatokat sokkal nehezebb kitörölni a felhőből, mint oda feltölteni… minél sikeresebbé válik egy felhőszolgáltató az ügyvédeknek szánt informatikai eszközök tekintetében, annál egységesebbé válnak az általa kínált termékek.

2. Az AI-eszköz által adott eredmény megértésének hiányából fakadó kockázat és az AI-eszközök működésével összefüggő egyéb kockázatok

A 2021-es AI Index alapján az AI-eszközök szervezeti bevezetésével kapcsolatos harmadik legnagyobb kockázat, hogy az ilyen eszközök által kiadott eredményeket nem tudják érthetően elmagyarázn (ezt nevezhetjük a megmagyarázhatóság problémájának; az első legnagyobb kockázat a kiberbiztonság, a második a szabályozással összefüggő kockázat). Az Európai Bizottság azt is kiemelte, hogy „az átláthatóság javítása érdekében és a torzítás vagy hiba kockázatának minimalizálása érdekében az AI-rendszereket olyan módon kell kialakítani, amely lehetővé teszi, hogy az emberek megértsék a viselkedésük alapját”.

Ha egy AI-eszközt alacsony kockázatú környezetben használnak (például az eredményeket egy szakember is felülvizsgálja, mielőtt az kimegy az ügyfeleknek), a megmagyarázhatóság általában nem jelent komoly problémát. Ilyen esetben is az ügyvédtől elvárható, hogy ne csak az eredmények megfelelőségét ellenőrizze.

Azt is ellenőriznie kell, hogy az ügy releváns tényei megfelelően alátámasztják-e a kapott eredményekre vonatkozó magyarázatot. De az ilyen, lépésről lépésre történő emberi felülvizsgálat követelménye erősen korlátozza az AI-eszközök használhatóságát.

Minél hosszabb a keresési eredmények listája, minél több szöveget kell kategorizálni és címkézni, annál kevésbé számíthatunk arra, hogy az emberi felülvizsgálat képes lesz az AI-eszközből eredő kockázatokat csökkenteni, és ez az eredmények megmagyarázhatóságára is hatással lesz. Az emberi ellenőrzés ugyanis jobban ki van téve a fáradtságnak, a stressznek, az érzelmeknek, és általában jelentősen lassabb eljárás a gépihez képest.

Ha megköveteljük, hogy minden eredményt ember vizsgáljon felül, akkor ez korlátozni fogja az egymással összekapcsolható AI-eszközök számát.

A megmagyarázhatóság és az átláthatóság mellett számos más, kifejezetten csak az AI-eszközökkel kapcsolatban felmerülő problémát is találhatunk. Az egyik ilyen jól ismert probléma a mesterséges intelligencia úgynevezett „törékenysége” (brittleness): a rendszer bizonyos határokon belül jól működik, de az adott határokon kívül már rosszul. Vagyis amíg a felhasználás körülményei hasonlóak a képzési körülményekhez, az eszköz úgy tűnik, hogy jól teljesít, de az eredeti tanítás során nem tapasztalt helyzetekben a teljesítmény váratlanul és nagyon komolyan leromlik.

Egy másik jellemző probléma csak részben műszaki jellegű – a felhasznált adatforrások, az adatokat kiértékelő algoritmusok és a modellek egyaránt okozhatnak torzítást, hátrányos megkülönböztetést vagy más módon igazságtalan eredményt. A torzítást okozhatja az is, hogy bizonyos csoportok esetén milyen, múltbeli adatok állnak rendelkezésre, de okozhatja meghatározott adatgyűjtési mechanizmus, vagy bizonyos területek adatainak hiánya is (ez utóbbit nevezik nem megfigyelhető eredmények vagy a túlélők okozta torzításnak). Mindkét ok eredménye az, amit úgy hívnak, hogy a tanítási adatok okozta torzítás.


Olvassa el hogyan segíti a mesterséges intelligencia a Jogtáron a bírósági határozatok kivonatainak elkészítését. Cikksorozatunkat itt találja


3. Adatvédelmi kockázatok

A legtöbb – de nem valamennyi – adatvédelmi kockázat a felhőszolgáltatásokban alkalmazott AI-eszközökhöz kapcsolódik.

Az ügyvédeknek ragaszkodniuk kell ahhoz, hogy a felhasználási feltételek egyértelműen zárják ki az adatok bármilyen profilalkotási célú felhasználását (még akkor is, ha a profilalkotás célpontja csak maga az ügyvéd), valamint az ügyvédi adatok újrahasznosítását (még akkor is, ha az újrahasznosítást megelőzően az adatokat már állítólag anonimizálták).

A legszembetűnőbb probléma az, hogy a jelenlegi online jogi platformok, beleértve az AI-eszközöket elérhetővé tevő platformokat is, ritkán adnak akárcsak tájékoztatást is arról, hogy a szolgáltató jogot formál-e arra, hogy a rendelkezésére.

A probléma az, hogy a strukturálatlan jogi adatok számos változatát (például a bírósági határozatokat vagy a szerződések teljes szövegét) nagyon nehéz anonimizálni, és nehéz eltávolítani belőlük a személyes adatokat. A nevek és helyszínek egyszerű eltávolítása nem elegendő: egy határozatban számos olyan egyedi esemény vagy egyéb, a kontextushoz kapcsolódó információ is előfordul, amely lehetővé teszi az ügyfél újbóli azonosítását, vagy akár a lehetséges releváns személyek számának leszűkítését, ami önmagában is a titoktartás megsértését eredményezné.

Figyelembe kell venni azt a problémát, hogy a népszerű beágyazott nyelvi modellek (amelyek a szövegeket numerikus reprezentációvá alakítják, mint a szövegeket jelképező vektorok, pl. a BERT) kimenetét fel lehet használni arra, hogy megbecsülje, mi volt a tanításhoz használt eredeti szöveg, és ezzel az eredeti szövegforrással kapcsolatosan érzékeny információkat is visszafejthetnek.


HIRDETÉS

A Wolters Kluwer Hungary kiemelt digitális termékei:   

  • Szakmai Jogtárak
  • Praetor – Az ügyvédi irodák számára kifejlesztett praxis-menedzsment szoftver
  • Complist – Egy szoftver, mely hatékony segítséget nyújt a jogszabályi megfelelés biztosításában

4. Az ügyvédi hozzáértéssel kapcsolatos kockázatok: az új technológiák kipróbálásának veszélyei

Összességében a kimaradástól való félelem (FOMO) érzése és a megbízható információk hiánya az ügyvédeket olyan rossz döntések meghozatalára késztetheti, amelyek ellentétben állnak a hozzáértés kötelezettségével. Előfordulhat, hogy az ügyvéd megbízhatatlan technológiába fektet be, és az ügyvédi praxisa fontos folyamatait olyan eszközökre építi, amelyek még nem lettek megfelelően tesztelve az adott (nemzeti) piacon, vagy még nincsenek összhangban az adott ország ügyvédi etikai szabályaival.

5. A technikai és emberi folyamatok integrálása, az ígéretek és a tényleges képességek egyensúlya

Az ügyvédi irodák e személyes jellegének a fő oka pedig az a követelmény, hogy az ügyvédnek kell megértenie, mire van az ügyfélének valójában szüksége a jogi tanácsadás részeként – gyakran szemben azzal, amit az ügyfél jogi igényként képes saját maga megfogalmazni. Még ha egy ügyvéd nagyszámú, nagyon hasonló kérést kap fogyasztóktól vagy mikrovállalkozásoktól, az ügyfelek tényleges igényeinek felmérése akkor is egy képzett, professzionális ügyvéd személyes figyelmét fogja igényelni.

Az AI-eszközök is tovább növelhetik e kockázatot. Az ilyen eszközök jelentős segítséget nyújthatnak abban, hogy az ügyvédi irodák költséghatékonyabbá váljanak, például azzal, hogy ésszerűsítik az ügyfélfogadást, a jogi kutatást, és lehetővé tehetik a dokumentumok minél gyorsabb létrehozását, minél kevesebb ismétlés mellett.

Ezért egy tetszőlegesen fejlett, teljesen automatizált működési struktúra mellett sem lesz képes egy hipotetikus, jövőbeli kis ügyvédi iroda arra, hogy egy adott napi óraszámot meghaladó mennyiségű jogi szolgáltatást tudjon nyújtani, függetlenül attól, hogy a társadalom részéről mekkora igény is mutatkozik az ilyen szolgáltatásokra.

Az ügyvédi hivatás alapelvei miatt az ügyvédektől elvárják, hogy ne vállaljanak több ügyfeles megbízást, mint amennyit megfelelő színvonalon ki tudnak szolgálni. Természetesen ha az ügyvédek AI-eszközöket is kezdenek el használni az új ügyfelek bevonzása érdekében, etikai szempontból a kapacitáshiányukra hivatkozva még szabadon visszautasíthatják az újabb és újabb megkereséseket. Ugyanakkor nehéz egyértelmű határt húzni aközött, hogy egy ügyvéd egy potenciális ügyfelet elutasít, vagy aközött, hogy egy már meglévő ügyfél kiszolgálása során követ el valami mulasztást. Az ügyvédi hivatás sajátosságai miatt vannak olyan országok és olyan helyzetek, amikor nem lehet csak úgy figyelmen kívül hagyni az ügyfelek igényeit, és csak rájuk bízni, hogy találjanak új ügyvédet, ha akarnak. Egy ügyvédi iroda túlzott ügyvállalása mások számára is gazdasági problémákhoz, vagy az érintett irodák fizetésképtelenségéhez is vezethet. És ha valaki nem tartja be azt a kötelezettséget, hogy csak a szakmai képességeinek keretein belül vállaljon ügyeket, ez olyan kapacitásproblémához és túlzott ügyvállaláshoz is vezethet, amelynek a levét adott esetben több más ügyvédi iroda vagy az érintett ügyvédi kamara issza meg.

6. Az ügyvédi titok megtartásával kapcsolatos kockázatok

Minden olyan esetben, amikor az ügyvéd harmadik fél szolgáltatókat von be (akár felhőalapú szolgáltatókat, akár nem), fennáll annak a veszélye, hogy az ügyész, a bíró vagy más személyek elrendelhetik, hogy az adott szolgáltató hozzáférést biztosítson az ügyvédi titoktartás által védett információkhoz, ugyanakkor megtiltva a szolgáltatónak, hogy tájékoztassa az ügyvédet az ilyen hozzáférés megtörténtéről.

Lehet, hogy az ügyfél és ügyvéd közötti titok megőrzését egyértelmű törvényi vagy más szabályok védik, és hiába a tisztességes eljárás emberi jogi követelménye, gyakran még mindig hiányoznak az e követelmények érvényesítését szolgáló gyakorlati eljárási eszközök. Például ha a szolgáltatók nem tudják, hogy a nála feldolgozott egyes adatok ügyvédi titok tárgyát képezik, ezért nem is tudhatnak arról, hogy a bűnüldöző szervek igényeivel szemben valamilyen plusz védelmi rendszert kellene alkalmazniuk. Mindez azzal jár, hogy az ügyvéd telephelyén fizikailag található adatok a gyakorlatban magasabb szintű védelmet tud biztosítani egyes jogosulatlan hozzáférésekkel szemben, mint amire egy magas biztonságú felhőszolgáltató vagy adatközpont képes. Természetesen az utóbbi évtizedekben már az olyan alapvető szolgáltatások esetén is, mint az e-mail szerverek, egyre nehezebbé vált a saját szolgáltatási infrastruktúra fenntartása.

Az adatokhoz való kormányzati hozzáférés terén ami az MI-eszköz szolgáltatójának országában jogszerű hozzáférésnek minősülhet a hatóságok részéről, az nem feltétlenül lesz jogszerű az ügyvéd működési országában is. Ezek az országbeli eltérések veszélyesek az ügyfelek érdekeire nézve.

7. Az ügyvéd függetlenségével kapcsolatos kockázatok

Elvárják az ügyvédektől, hogy szabadon, függetlenül lássak el az ügyfelek tanácsadásával és képviseletével kapcsolatos tevékenységüket. Ez az elvárás magában foglalja az államtól és más szervezetektől való függetlenséget is, de azt sem engedhetik meg maguknak az ügyvédek, hogy tevékenységük ellátására meg nem engedhető üzleti okokból gyakoroljanak nyomást.

Az ügyvédeknek tisztában kell lenniük azzal a kockázattal is, hogy hosszabb távon a legsikeresebb AI-eszközök negatívan fogják befolyásolni a függetlenségüket. Ha az ügyvédek egyetlen eszközt használhatnak az üzleti folyamataik szempontjából fontos célokra, ugyanazokkal a problémákkal kell majd szembesülniük, mint amelyeket az online jogi platformok használatáról szóló CCBE-útmutató is ismertet. Vagyis azzal, hogy az AI-eszköz szolgáltatója nem csak közreműködik, hanem be is avatkozik az ügyvédek és az ügyfelek közötti kapcsolatba. Ide tartozik az is, ha az AI-eszköz szolgáltatója egy platformmá válik, még akkor is, ha nem próbálja kifejezetten ekként értékesíteni szolgáltatásait. Ez jóval súlyosabb problémát jelenthet ott, ahol az ügyvédi szolgáltatói piacok oligopolisztikusak vagy monopolisztikusak, mert itt egyes, az ügyvédi működés szempontjából bemeneti jószágnak számító források (inputok) megakadályozzák az új belépőket abban, hogy helyettesítő szolgáltatásokat tudjanak nyújtani, szűk keresztmetszetet okozva.

(Útmutató ügyvédek és ügyvédi irodák számára a mesterséges intelligencián alapuló eszközök EU-n belüli használatához)

A cikk a Wolters Kluwer Hungary Kft. termékeire/szolgáltatásaira vonatkozó reklámot tartalmaz. A jogaszvilag.hu kiadója a Wolters Kluwer Hungary Kft.




Kapcsolódó cikkek