Jogrendszerek a Digitális Társadalomban – VI.
Ez a cikk több mint egy éve került publikálásra. A cikkben szereplő információk a megjelenéskor pontosak voltak, de mára elavultak lehetnek.
A digitális eljárások alapvetően megváltoztatták az igazságszolgáltatás valamennyi szektorának munkastílusát, kultúráját, szokásait. A hagyományos legitimáció helyett más elismerés lép fel, ahol megváltozik az igazságszolgáltatásba vetett bizalmi elv forrása és hatása. Az eljárások legitimációja helyébe, ahol a személyes részvétel a döntés elfogadásának alapja, a technikába vetett bizalom és az algoritmikus eljárások feletti ellenőrzés hite lép.
Digitális bíróság
A digitális társadalomban digitális bíróságok működnek. A kijelentés egyszerű, de nem igaz. A bíróságok digitalizációja ugyanis sokkal több problémát takar, mint az előszobákban forrongó lázadás. A téma összetett, országonként másról és másról beszélnek, a teendők fontossági sorrendje és a szervezeti átalakulás csomópontjai az adott jogrendszertől és jogi kultúrától függenek. A folyamat nem jelent mindig sikertörténetet (pl. Németországban), máshol pedig minden digitális eszközhasználatot digitális bíróságnak tekintenek (Magyarországon).
A digitális bíróságok megjelenésének zsinórmértéke a bírói döntések mesterséges intelligenciára történő áthárításának fokából, illetve a döntések és szolgáltatások hálózatba kötéséből olvasható ki. E mérce alkalmazása sem teremt homogenitást, van ahol a büntető igazságszolgáltatás a prevenció terén, máshol az előzetes kényszerintézkedéseknél vagy a büntetés-végrehajtásban alkalmazza az algoritmusokra és mesterséges intelligenciára alapozott döntéshozatal technikáit. A polgári igazságszolgáltatás automatizált eljárásokkal (fizetési meghagyásos eljárás, cégbejegyzés) kísérletezik, vagy az úgynevezett e-közigazgatás rendjébe szervezi ki a hagyományosan bíró előtt zajló eljárásokat. Nem ritkán a már megszületett döntést automatizált programok kezelik, például a szabálysértési eljárásban a büntetést ki nem fizetők elzárását. A gyakorlati alkalmazások sokszínűségének megfelelően a szakirodalom számos írásban számol be az algoritmusok előnyéről és hátrányáról, a mesterséges intelligencia működésének társadalmi hatásáról. A sokszínűség ellenére sem könnyű összerakni az irányadó (avagy uralkodó) nézeteket, mivel a témakör komplexitása és a terület globalizálódása leszűkíti az összefoglalások lehetőségét.
Pedig az igazságszolgáltatások modernizációja, függetlenül az előszobából hallatszódó csatazajtól – ahol az online vitarendezési eljárások törnek utat maguknak[1] –, örök témája a vizsgálódásoknak. „Bírósági modernizáció”[2], „Bírói Döntéstámogató Rendszerek”[3], „Algoritmusokon Alapuló Kockázatelemzés[4]”, a leggyakoribb kifejezések. Már a múlt évszázad kilencvenes éveiben látható volt, a számítógépek elterjedése, a hálózati társadalmak kialakulása nem hagyja érintetlenül a bírósági szervezetet és az abban tevékenykedő bírókat sem. Különösen akkor, amikor a jogszabályalkotás technikai feltételrendszere robbanásszerűen javult, az igazságszolgáltatás társadalmi környezetében – a vállalatok, a bankok, az ügyfelek világában – pedig mindennapossá vált a számítógépekre alapított adatfeldolgozás és digitális munkakultúra.
A megoldások, szakirodalmak, elemzések, projektek és stratégiák világában talán a „könyvjelzős” módszerrel, a téma tartalom szerinti indexálásával a legkönnyebb rendet rakni. A már említett szelekciós szempontok mellé így oda kell így állítanunk az igazságügy szervezetének és társadalmi környezetének kapcsolatait (kommunikáció bíróságok és ügyfelek között, e-akta), a működés funkcionális hatásait (ideértve az emberi jogi, és eljárásjogi kritikákat). Nem zárt e lista, mindenesetre a legfontosabb témákat tartalmazza.
Az angolszász jogi hagyományok országaiban a büntető ítélkezés szinte összes területe érintett. A bűnmegelőzés, a prevenciókról, az óvadékról szóló döntések, a büntetés konkrét mértékének meghatározása, a feltételes szabadságra bocsátás engedélyezhetősége. Az elkövető személyiségén túllépő elemzések célja a magas kockázatot jelentő „hot spot”-ok vagy lakossági csoportok megtalálása (ilyen pl. a PredPol program: USA, majd UK. Kent).[5] Általánossá vált a Big Data-elemzések igénybevétele, a digitális korszak részét alkotó mesterséges intelligenciával működő projektek felhasználása. A módszer elindult „visszafelé”, azaz a konkrét profilozáson keresztül az egyéni rizikók feltárásának irányába.[6] Már a büntető igazságszolgáltatás első lépcsőjénél (a rendőrségi munkában) felmerülnek az egész folyamatot és területet behatároló kérdések, a diszkrimináció[7], a magánszféra (privacy) védelme, az emberi jogok betartásának/szűkítésének lehetősége, az eljárás átláthatósága (transparency). Nem véletlen, a megfogalmazódó kritikák többsége az emberi jogok oldaláról érkezett[8]
A büntetőeljárás bírói szakaszában leginkább a döntést segítő és tényfeltáró algoritmusok használata terjedt el. A legtöbb szakirodalmi hivatkozás a jury-rendszerre épülő bírósági szakaszra vonatkozik, ám a jury-rendszer sem negligálja az algoritmusok döntésekre gyakorolt hatását. Az elemzések elismerik, hogy az algoritmusok hatékony, tisztességes (fair), és alapos döntést eredményezhetnek.[9] A probléma az algoritmusokon alapuló döntéseknek a büntető igazságszolgáltatás egészére gyakorolt hatásában rejlik, mivel sérülhet a bíróságok legitimitása, megkérdőjeleződnek a büntető igazságszolgáltatás alapelvei, szűkülhet, sőt megsemmisülhet a védekezéshez való jog.[10] A legitimáció feltétele ugyanis a személyesség, az igazságszolgáltatásban szereplő terhelt részvétele az eljárásban, amit különböző felmérések támasztanak alá. A megkérdezettek szerint a tisztességes eljárás egyet jelentett az eljárás (és a szereplők) közvetlen észlelésével, ezért az algoritmusok uralma elvezethet a büntetőeljárás destabilitásához. A méltányosság, a semlegesség, a hitelesség jóllehet eltérőn viselkedik az algoritmusok világában, ám a védői munka nagy része – főként a védő szóbeli védőbeszédében kicsúcsosodó állásfoglalása – ellehetetlenül.
Megoldás a transzparencia növekedése, e követelménynek már az algoritmusok megírásánál érvényesülnie kell. Szinte már a szemünk előtt látjuk az ügyvédi kar nagy részét, akik már nem a védőbeszédre készülnek, hanem számítástechnikai kurzusokra járnak azért, hogy az informatika világában elmerülve programokról, algoritmusokról és mesterséges intelligenciáról folytassanak a bírókkal vitát.
Nem szeretnénk az algoritmusok alkalmazásának a jogi hivatásrendekre gyakorolt hatását elbagatellizálni, avagy a felmerülő konfliktusokat lebecsülni. Különösen nem a semlegesség biztosítását, a diszkrimináció tilalmát, ami úgy tűnik, a legsúlyosabb problémahalmaz.[11] Az algoritmusok által támogatott döntéseket számos vizsgálat elemezte, ezek különös módon arra mutattak rá, hogy a digitális döntéshozatal „bekódolta” magába a büntetőeljárások egyenlőtlen, bizonyos csoportokat jobban, másokat kevésbé sújtó gyakorlatát.[12] Egyfelől a mesterséges intelligencia tanítása olyan anyagon történt, amely szinte természetes módon tartalmazta az egyenlőtlenség és a diszkrimináció adatait (ítéleti tényállásban, ítéleti indokolásban, büntetés kiszabásában), másfelől nem állt rendelkezésre elég szűrő a diszkriminatív következtetések eltávolításához. A társadalmi diszkrimináció így a számítógépek világának zárt ajtói ellenére belopódzik az algoritmusok és mesterséges intelligencia birodalmába.[13]
A mesterséges intelligenciára és az algoritmusokra alapozott döntéshozatalt az emberi jogok szempontjából elementáris kritika illeti. Számos írás pusztán azért kritizálja, mert „gépek” döntenek emberek helyett. Algoritmusok autoritásáról beszélnek[14], ahol az emberi tényező a technikai rendszer mögé lép. A különböző Big Data-elemzésekre visszanyúló megfigyelési rendszerek működése nem lépi át az emberi jogok érvényesítésének minimális küszöbét, az algoritmusok magáncégekben történő kidolgozása (kiszervezése) pedig – a titoktartás megoldatlansága miatt – reális jogi kockázatot jelent.[15] Lényegi kritikát fogalmaznak meg azok, akik az algoritmusok rendszerének elemzése után állapítják meg, hogy láncolatok és egymásra épülő döntések automatikusan magukkal hozzák a fel nem fedezett hibák továbbélésének lehetőségét. Az algoritmusok kialakításának első lépcsőjében elkövetett „tévedések, hibák” ugyanis később nem, vagy alig korrigálhatók, ehhez az alapokat jelentő tanulási folyamathoz kellene visszatérni, ami – a létrehozás minél sürgetőbb igényét érvényesítve és munka mennyiségét tekintve – elképzelhetetlen. [16]
Egyetértés mutatkozik abban, hogy a digitális eljárások és működésükhöz szükséges háttérfeltételek kialakítása alapvetően megváltoztatták az igazságszolgáltatás (beleértve valamennyi szektorát) munkastílusát, kultúráját, szokásait.[17] Hozzátehetnénk, a hagyományos legitimáció helyett más, körvonalaiban ma még homályosan látszódó legitimáció lép fel, ahol megváltozik az igazságszolgáltatásba vetett bizalmi elv forrása és hatása. Az eljárások legitimációja (Luhmann)[18] helyébe, ahol a személyes részvétel a döntés elfogadásának alapja, a technikába vetett bizalom és az algoritmikus eljárások feletti ellenőrzés hite lép. A bizalom nem perszonális többé, mert nem találkozik az ügyfél és ügydöntő aktor (gép) egymással, hanem a digitális korszak generálisan uralkodó bizalma. A digitális korban ugyanis „digitális bizalom” dominál, ami nem más, mint a személyes adataink kiáramlása, a jó hírnév megőrzése és a felelősségre vonhatóság rendszerének felépítése feletti kontrol képességének a hite.[19]
A cikk első részét itt, a másodikat itt, a harmadikat itt, a negyediket itt, az ötödiket pedig itt olvashatja.
Lábjegyzetek:
[1] Orna Rabinovich-Einy – Ethan Katsh: Digital Justice. Reshaping Boundaries in an Online Dispute Resolution
Environment. International Journal of Online Dispute Resolution 2014 (1) 5.-36.
[2] Alan Vajda: Modernising the Courts, Land Registers and Cadastre. Croatian International Relation Review. 2001. June. 27. – 30.
[3] Uri J. Schild — John Zeleznikow: Comparing Sentencing Decision Support Systems for Judges and Lawyers. Journal of Decision Systems. Volume 17 – No. 4/2008, 523.-552.
[4] Peter Müller – Nikolaus Pöchhacker: Algorithmic Risk Assessment als Medium des Rechts. Medientechnische Entwicklung und institutionelle Verschiebungen aus Sicht einer Techniksoziologie des Rechts. Österreich Z. Soziol.(2019) (Suppl 1) 44:157–179. https://doi.org/10.1007/s11614-019-00352-5.
[5] Hannah Couchman: Policing by Machine. Predictive Policing and the Threat to our Rights. Report, January, 2019. https://www.libertyhumanrights.org.uk/policy/report-policing-machine. 2019. február 09-ei letöltés
[6] A kockázat elemzésről: Megan Stevenson: Assessing Risk Assessment in Action. Minnesota Law Review. 103:303.2018. 303 – 384.
[7] John Kleinberg – Jens Ludwig – Sendil Mullainathan – Cass R. Sunstein: Discrimination in the Age of Algorithms. Journal of Legal Analysis, Volume 10, 2018, Pages 113–174, https://doi.org/10.1093/jla/laz001 Publikálva: April, 22, 2019.
[8] Helmut Philipp Aust: “The System Only Dreams in Total Darkness”: The Future of Human Rights Law in the Light of Algorithmic Authority. German Yearbook of International Law 60 (2017). https://ssrn.com/abstract=3130043. 2019. 06. 20-ai letöltés
Andrew Guthrie Ferguson: The Legal Risk if Big Data Policing. Criminal Justice, Summer, 2018. 33-SUM Crim Just, 4.
Alexander Babuta and Marion Oswald: Data Analytics and Algorithmic Bias in Policing. Royal United Services Institute for Defence and Security Studies. RUSI, 2019. No. 210639. <http://creativecommons.org/licenses/by-nc-nd/4.0/>.
[9] Ric Simmons: Big Data, Machine Judges, and the Legitimacy of the Criminal Justice System. Ohio State Legal Studies Working Paper No. 442. University of California Davis Law Review, Vol. 52, 2018. 1067.-1118. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3156510. 2020.február 10-ei letöltés
[10] Ric Simmons: Big Data and Procedural Justice: Legitimizing Algorithms in the Criminal Justice System. Ohio State Journal of Criminal Law. Vol.15. No.2. 2018. 573.-581.
[11] Yubin Li: Algorithmic Discrimination in the U.S. Justice System: a Quantitative Assessment of Racial and Gender Bias Encoded in the Data Analytics Model of the Correctional Offender Management Profiling for Alternative Sanctions (compas). Baltimore, Maryland, USA. 2017. John Hopkins University. https://jscholarship.library.jhu.edu/handle/1774.2/61818. 2020. február 1-jei letöltés
[12] Katherine Beckett at al.: Drug Use, Drug Possession, Arrest and the Question of Race: Lessons from Seattle. 52. Soc.Probs. 419. 2005. Idézi: Ric Simmons: Big Data and Procedural Justice: Legitimizing Algorithms in the Criminal Justice System. c. írásában
[13] Ales Zavrsnik: Algorithmic Justice: Algorithms and Big Data in Criminal Justice Settings. European Journal of Criminology. 2019. 1-20. sagepub.com/journals-permissions. DOI: 10.1177/1477370819876762. journals.sagepub.com/home/euc. 2020. február 10-ei letöltés. A mesterséges intelligencia adathalmaza mindig a kontrolladat minőségét tükrözi. Amennyiben rossz vagy szubjektív a kontrolladat, ugyanolyan stílust tanul meg a neurális háló
[14] Érdekes, ezt az érvelést a fiatalabb generációk nem veszik át. Számukra éppen a szubjektív és elfogultságmentes döntés a lényeges, az érzelmek és befolyások kikapcsolása, amit a számítógépek biztosítanak. A megjegyzés – kutatások hiányában — a szerző szubjektív tapasztalata, átvitatkozott konferenciák hozadéka. Kritikákra: Deborah Lipton: Digital Sociology. Routledge, 2015. E vitákat elemzi: Helmut Philipp Aust idézett írásában
[15] Andrew Guthrie Ferguson: The Legal Risk of Big Data Policing. id.mű
[16] Katharina Zweig, Sarach Fischer, Konrad Lischka: Wo Maschinen irren können. Fehlerquellen und Verantwortlichkeiten in Prozessen algorithmischer Entscheidungsfindung. Arbeitspapier. Bartelsmann Stiftung, 2018. A megállapítás a zárt algoritmusok esetére áll. Genetikus algoritmusok esetében a működés adaptív, a viselkedés idomul.
[17] Elisabeth E. Joh: The New Surveillance Discretion: Automated Suspicion, Big Data, and Policing. Harvard Law and Policy Review. Vol. 10. 15-42. 2016.
[18] Niklas Luhmann: Legitimation durch Verfahren. Suhrkamp, Frankfurt am Main, 1983.
[19] Deborah Lipton: Digital Sociology. Routledge, 2015. 153.