A digitális társadalom olvasatai – XII.


Ez a cikk több mint egy éve került publikálásra. A cikkben szereplő információk a megjelenéskor pontosak voltak, de mára elavultak lehetnek.

Alábbi cikksorozatában a szerző a digitális társadalom különböző aspektusait tárja elénk, igyekezve lényegre törően bemutatni szerkezetének fontosabb csomópontjait, és összegezni a tudásrendszerek, az internet, a mesterséges intelligencia, a hálózati társadalmak fontosabb, a jogalakulás szempontjából releváns mozgásait. Ezúttal az EU Fehér Könyvét veszi górcső alá.

Az Európai Unió szabályozásáról: a Fehér Könyv

Az Európai Bizottság 2020 februárjában jelentette meg Fehér Könyvét a mesterséges intelligencia témakörében (MI Fehér Könyv).[1] A dokumentum korábbi stratégiai elhatározásokra, elemzésekre és döntésekre támaszkodik. Egy folyamatos stratégiaalkotás és odafigyelő elemzés képe rajzolódik ki a szövegből, amelyben a prioritást a beruházások támogatása és a szabályozás kidolgozása kapta.

A jogi szabályozási javaslatok előtt fontos tisztázni a megközelítés szemléletmódját. Ez az unió globális versenyképességének növelése, az EU technológiai szerepének megőrzése és biztosítása. A jogi stratégia e törekvéshez csatlakozik, ám a konkrét javaslatok néha nem lépik át a működő szakpolitikai kereteket, többek között az Európa Tanács (ET) – sorozatunk korábbi részében bemutatott – 2017-es emberi jogi vizsgálódását. Kétségtelen, az MI Fehér Könyv egyfajta választ ad az ET által jelzett jogi problémákra.

Idő és karakterhiány miatt nem kívánunk az anyag gazdaságstratégiai részével foglalkozni, de azt meg kell állapítani, az adatgazdaság, az MI, a felhőalapú és az algoritmusokra épülő infrastruktúra kifejezések hűen leképezik a digitális társadalom alakzatait. Ennek köszönhetően érthető a három (szabályozási) terület – a polgárok, a vállalkozások, és a közérdekű szolgáltatások – kijelölése. Az MI technológiáiba vetett bizalom mellett (melyből következik az MI kockázatainak elhárítása) az anyag az emberi méltóság, a magánélet védelme, a demokratikus folyamatok, és a szociális jogok biztosítása érdekében érvel. Fontos, többször kiemelt, külön hangsúlyozott stratégiai törekvés a nemzetek feletti szabályozás kialakítása. A bizalmi ökoszisztémát a nemzeti kezdeményezések bevezetése veszélyezteti, mivel a polgárok bizalmát gyengíti (azaz növeli a hálózatba rendeződő MI-technológiák kockázatát), széttördeli az egységes piacot, megakadályozza egy dinamikus európai ipar kialakulását. Ez az a stratégiai törekvés azonban, ahol azonnal komoly örvény alakul ki, a következő lépés ugyanis a nemzeti és uniós jogalkotási hatáskörök problémája. Másként fogalmazva: a közös szabályozás hatáskörének terjedelme. Bármennyire logikusnak tűnik egy európai térségközpontú szabályozás, nem elhanyagolható feszültséget okoz a tagállami és az uniós szabályok viszonya azokon a területeken, ahol – például fogyasztóvédelem – leginkább irányelvi szabályozásra van lehetőség. Természetesen azonnal felvetődik az Emberi Jogi Charta uniós jogi kérdése is, főleg akkor, ha az emberi jogi katalógus bevezetése az alapszerződések körébe millió sebből vérzik.

Az MI Fehér Könyv nem e problémák megoldására született. A széles innovációs és beruházási támogatások – és gigantikus euró milliárdok – ígérete mellett egy integrált európai ügynökséget működtető szabályozási teret rendezne be, mellette (vagy vele párhuzamosan?) pedig a tudományos kutatások, a kompetencia és oktatási képességek (és tudások) széttöredezett és decentralizált hálózatainak integrálását. Mindez nem vitatható törekvés, de ezért azt a kérdést nem ártott volna feltenni, milyen szabályok és elképzelések szerint működne egy szabályozási hatóság, a bürokratikus reguláció normái miként illeszkednek a hagyományos európai jog szabályaiba.

Az MI Fehér Könyv jogi szabályozási stratégiája többrétegű, így a jogbiztonság, a jogállamiság rendjére ügyelő hét szabályozási csoportot jelöl ki. Alapját az Európai Bizottság által 2018-ban létrehozott szakértői bizottság jelentése képezi, ami azért egy kicsit fura, lévén az anyag nem jogi, hanem etikai iránymutatást tartalmaz.[2] A hét csoport a következő: 1.) az emberi cselekvőképesség és emberi felügyelet; 2.) műszaki stabilitás és biztonság; 3.) adatvédelem és adatkezelés; 4.) átláthatóság; 5.) sokféleség, megkülönböztetés-mentesség és méltányosság; 6.) társadalmi és környezeti jólét; 7.) elszámoltathatóság.

A szabályozáspolitika a keretszabályozást részesíti előnyben, egyfelől – állítják – az MI gyors fejlődésének ez felel meg leginkább, másfelől – ismeri el az anyag – ilyen európai szabályozási keret még nem létezik. A szabályozás során gondoskodni kell az MI által okozott vagyoni és nem vagyoni károk elhárításáról, a kockázatok minimalizálásáról. Figyelemre méltóan a Bizottság a fő kockázatok körét az alapvető jogok (ezek: a személyes adatok és a magánélet védelme, diszkrimináció tilalma), valamint a biztonsággal és a termékfelelősséggel kapcsolatos problémákban látja.

Az alapjogok katalógusát és az MI működésének kritikus pályáit az MI Fehér Könyv az ET-jelentéssel szinte szó szerinti azonosságban sorolja fel. Ugyanígy jár el az MI által hozott automatikus döntések, és ezek jogi következményeinek értékelésével. Ami új, de nem meglepő, az a fogyasztói és a termékfelelősségi rendszer kockázatainak kiemelése. Nagy kérdés tehát, hogy ezt az egymással nem konvergáló területet miként gondolják a keretszabályozásba illeszteni akkor, ha ráadásul számos területre alkottak már uniós jogszabályt.

A megoldás több konceptuális elemét ismerteti a Fehér Könyv. Fő törekvésként, amit lehetséges, azt a megfelelő, és az adott szabályozás továbbépítésével kell megoldani. Amit nem, arra új szabályt kell hozni.[3] Az első körbe illeszkedik a meglevő jogi szabályok hatékonyabb végrehajtása, a másodikba a hagyományos jogi intézmények (pl. termékbiztonság) rugalmas továbbfejlesztése – pl. az MI-kockázatok időbeli változásának előzetes szabályozása. A szabályozás alapelve a kockázat foka, így „egy adott MI-alkalmazást főszabály szerint magas kockázatúnak kell tekinteni.” Különösen akkor, ha olyan ágazatban használják, amelyik maga szintén magas kockázatokkal jár (közlekedés, energiaszektor, közszféra egyes részei), és – második feltétel –, amennyiben a használat módja jár eleve magas kockázattal. A szabályozási kerettel szembeni követelmény a célhoz kötöttség és a jogbiztonság.

A szabályozás irányultsága 1. a rendszerek tanításához használt adatok; 2. adat- és nyilvántartás-megőrzés; 3. tájékoztatás; 4. stabilitás és pontosság; 5. emberi felügyelet; 6. egyes konkrét – például távoli, biometrikus azonosításra használt – MI-alkalmazások.

Magyarázatot a stabilitás és az emberi felügyelet területéhez kell adni, a többi az adatvédelem (első modell) és a transzparencia követelményének érvényesítésével megoldható. Mindkét területen a nagy kockázattal járó MI-alkalmazásokról van szó, így a stabilitás és a pontosság követelményei az alkalmazások technikai kritériumait érintik. Az emberi felügyelet az emberi szerepvállalás biztosítását jelenti, pontosabban az eredmények reprodukálhatóságát, az adatmanipulációval szembeni ellenállás biztosítását. Az emberi felügyelet biztosítása ezen túlmenő követelményeket is tartalmaz, ilyen az MI-alkalmazás outputjának emberi döntéstől való függővé tétele. A példa: szociális ellátások iránti kérelmet csak ember utasíthat el, gép nem. E körbe tartozik az MI döntéseinek emberi felülvizsgálata, az MI-rendszer működésének ember általi korlátozhatósága. Leírtak azonban egy, több mint kétséges kritériumot is, az MI rendszerének működés közbeni folyamatos felügyeletét. A példa az önvezető autó kikapcsológombja, amit meg lehet nyomni akkor, ha az ember nem tartja biztonságosnak az önvezető autó működését. E feltétel nagyon szépen hangzik, talán népszerű is, azonban így önmagában sokkal több bajt okoz, mintsem hasznot. Gondoljunk bele, az önvezető autók rendszerbe kötött járművek, milyen hatással jár, ha az egyiket kikapcsolja az a vezető, akinek szubjektív döntéseit éppen elhárítani igyekszik a rendszer.

Az MI Fehér Könyv elgondolkoztató része a kötelezettek megnevezése, azaz annak kifejtése, miként kell az MI magas kockázatát felosztani az érintett gazdasági szereplők között. A fejlesztő, az alkalmazó, a forgalmazó, a (magán- vagy közösségi) felhasználó, e terület rendkívül sok aktora nevezhető meg. A kötelezettségeket arra a szereplő(k)re kell telepíteni – hangzik végül el a szentencia –, aki a kockázat kezelésére (is) a legalkalmasabb. A fejlesztési szakaszból eredő kockázatot a fejlesztők, a felhasználási szakaszban jelentkező kockázatokért az alkalmazó a felelős. Szép séma, de nem jutunk közelebb a megoldáshoz, mert – maradva az önvezető autóknál – ezek szerint a járműben ülő (aki nem vezető) a felelős, vagy ha nem, akkor ki? És ezzel eljutottunk napjaink egyik megoldatlan vitájához.[4]

A megfelelőségi követelmények és a jogérvényesítés biztosításának csatornáira az MI Fehér Könyv számos intézményt, és megoldási módot foglal magába. Tesztelés, ellenőrzés, tanúsítás, licenszek, stb. e téren az anyag összegyűjtötte a szakirodalomban és a kutatásokban felmerült elgondolásokat. Igazából az MI működését egy folytonos emberi ellenőrzés alatt álló rendszerdinamikának képzeli el, ami – szerintünk – egy nagy tévedés. Valahol nyilván van megoldása például az MI-rendszerek tanításához használt adatok, a rendszer kiépítésének, hitelesítésének stb. ellenőrzésére, de az emberi ellenőrzés lehetetlen. Egyébként az informatikai jogi irodalom részletesen kifejtette, miért nem járható ez az út, és jó néhány megoldási javaslatot letettek már az asztalra.[5] Az MI Fehér Könyvének igazi európai kuriózuma az a fejtegetés lehet, amikor a mesterséges intelligencia európai irányítási struktúrájáról értekezik. A bürokratikus reguláció kétségeket kizáróan európai hagyomány, működésére nézve legalább annyi kedvező, mint kedvezőtlen tapasztalatot halmozott fel a történelem. Visszajutottunk oda, ahonnan elindultunk, a közösségi cselekvési tér és a hálózatalapú digitális társadalomban kiépítendő alakzatok problémájához.

A jelzett hiányok egyik oka a problémák megosztott kezelése. A Bizottság ugyanis ugyanazon a napon a Fehér Könyv mellett egy Jelentést bocsátott ki, ahol az MI-technológiák és a dolgok internete (IoT), majd a robotika felelősségi kérdéseit taglalta.[6] Ez az anyag a technológiai lehetőségek mellett részletesen bemutatta a termékbiztonság és a felelősség gazdasági és jogi kérdéseit. Az MI működésének egyik lényegi elemét az autonómiában találta meg. A Jelentés szerint az autonómia magas foka ellenére az MI-vel rendelkező termékek jövőbeli viselkedését előre meg lehet határozni, mivel a kockázatértékelés – amire az uniós jog már ma kötelezi a gyártókat –, figyelembe veszi a termék használatával járó problémákat a termék teljes élettartama, működési ideje alatt. A jövőben azonban ettől eltérő fejlesztések is lehetnek, az MI autonómiája miatt pedig módosulnak a működés következményei. Olyan hatások következnek be, melyeket már nem lehet előre látni. Új kockázatértékelési eljárásokat kell bevezetni, ezeknek a termék teljes élettartamára vonatkozóan megfelelő elemzéseket kell nyújtaniuk.

A fenti követelmény megtalálható az MI Fehér Könyvben is. Ami nincs, az az MI-követelmények kiterjesztése és nevesítése a robotokra, a hálózatba kapcsolt és MI alapján működő eszközrendszerekre (IoT). A termékbiztonsági előírások másik területét a digitális technológiák – és MI-alkalmazások – harmonizált felelősségi rendszerében jelöli ki az anyag. A Jelentés fogyatékossága ugyanakkor, hogy az konkrét jogi stratégiát nem tartalmaz, nem világos, mi a kapcsolata a Fehér Könyvvel, holott a kockázat – és ennek elhárítása – mindkét bizottsági dokumentum kulcsfogalma.

Az MI Fehér Könyv nem volt előzmények híján, célszerű ezért összevetni az anyagot az uniós döntéshozatal állomásaival. Hol és miben történt kompromisszum, nem volt-e esetleg egy másik (relevánsabb, alkalmazhatóbb, konkrétabb) javaslat. A sorozat következő írásában e kérdéseket tisztázzuk, és igyekszünk a Fehér Könyvet követő időszakot is bemutatni.

A cikksorozat első részét itt, a másodikat itt, a harmadikat itt, a negyediket itt , az ötödiket itt, a hatodikat itt, a hetediket itt, a nyolcadikat itt , a kilencediket itt, a tizediket itt, a tizenegyediket pedig itt olvashatja el.

Lábjegyzetek:

[1] Fehér Könyv a mesterséges intelligenciáról: a kiválóság és a bizalom európai megközelítése. Európai Bizottság. Brüsszel, 2020.2.19. COM(2020)65 final.

[2] Etikai Iránymutatás a megbízható mesterséges intelligenciára vonatkozóan. A mesterséges intelligenciával foglalkozó magas szintű szakértői csoport jelentése. Közzétéve: 2019 április, Európai Bizottság, Brüsszel. https://ec.europa.eu/digital-single-market/en/high-level-expert-group-artificial-intelligence

[3] A digitális társadalom problémáinak jogi kezelésére három innovációs modellt figyelhetünk meg. Az első az ún. „adaptációs modell”, a második a „transzformációs modell”, és végül a „szakítás modellje”. Az adaptációs modellbe tartoznak mindazok a változások, amelyek a digitális társadalom jogi kihívásait a létező jogrend keretén belül válaszolják meg. A transzformációs modell ama törekvések gyűjtőfogalma, amelyek az adaptációs minták sikertelensége vagy hiánya esetén új jogalkotási és joggyakorlati szabályokkal oldják fel a patthelyzetet. A szakítás modellje egy teljesen új jogi rendszert és jogi rendet feltételez. Az uniós jog lényegében az első két modellt alkalmazza, a harmadik típusról nem akar tudomást venni. Bővebben: Gyekiczky Tamás: Jogrendszerek a Digitális Társadalomban, Wolters Kluwer, Budapest, 2020. 12. fejezet

[4] Udvary Sándor: Az önvezető gépjárművek egyes technikafüggő szabályozási kérdései. In: Gellén Klára (szerk.): Jog, innováció, versenyképesség, Wolters Kluwer, Budapest, 2017. 75–88. A szerző kétféle önvezető járművet különböztet meg, az egyik az SSDV (Singular Self-Driving Vehicle), a másik a LSDV (Linked Self-Driving Vehicle). Az SSDV (ennek is különböző technikai lehetőségei vannak) fejlett változata önmagától oldja meg a közlekedési problémákat, a másik típus egy hálózat részeként tevékenykedik, ugyanakkor a közlekedés rendszerszintű szervezésében és működésében sokkal hatékonyabb

[5] Vö: Deven R. Desai – Joshua A. Kroll: Trust but Verify: A Guide to Algorithms and the Law;  Harvard Journal of Law & Technology (Vol. 31) No1. 1 – 64.

[6] Jelentés a mesterséges intelligencia, a dolgok internete és a robotika biztonsági és felelősségi vonatkozásairól. A Bizottság Jelentése a Tanácsnak, az Európai Parlamentnek és az Európai Gazdasági és Szociális bizottságnak. Brüssel, 2020,2,19. COM(2020) 64 final.


Kapcsolódó cikkek