Alapjogok a mesterséges intelligencia korában


A mesterséges intelligencia (MI) társadalomra és az alapjogokra gyakorolt hatásairól, az ajtónkon kopogtató jövő lehetséges jogi szabályozásáról cseréltek eszmét a terület hazai és európai szakértői az egyetemen.

Alapjogok a mesterséges intelligencia korában címmel rendezett konferenciát a Nemzeti Közszolgálati Egyetem (NKE) Eötvös József Kutatóközpont (EJKK) Információs Társadalom Kutatóintézete (ITKI) szeptember 26-án, a Ludovika Főépület Széchenyi Dísztermében az Európai Unió Tanácsának 2024-es magyar elnöksége rendezvényeként – számolt be a ludovika.hu.

Megtalálni a keskeny ösvényt

Konferenciánk mai témája az EU jogalkotó tevékenysége és az akadémiai kutatások metszetében van – kezdte köszöntőjét a konferencián Török Bernát, az NKE EJJK igazgatója, az ITKI intézetvezetője. Hozzátette, mindkettő célja, hogy a társadalom hasznára fordítsák a folyamatosan fejlődő digitális világ vívmányait. Ennek jelentősége messze túlmutat az egyes új technológiai jelenségek kezelésén: a technológia egészének kell ugyanis alkalmazkodnia az alapjogokhoz, közös értékeinkhez és a társadalom igényeihez. Komoly kihívás természetesen, hogy a társadalmi előnyök és veszélyek között vezető szűk ösvényt megtaláljuk. Európa e törekvésben kulcsszereplőnek számít, a jogalkotás azonban folyamatosan feltételezi a tudományos kutatások támogatását. A szabályozás ugyanis csak az első lépés, vizsgálni kell azt is, hogy hogyan szerzünk érvényt a szabályoknak. Mint az nemrégiben kiderült, a cégek többsége ma versenyképességi akadálynak tartja a túlzott szabályozást Európában – emlékeztetett Török Bernát. Ennek azonban nem lehet következménye a szabályok leépítése, ehelyett jó, tehát nem akadályozó szabályokat kell alkotni. Ez számos szereplő közös munkáját feltételezi, amiből nem maradhat ki az egyetemi szféra sem. A mai konferencia éppen erről szól: a jövő társadalmáról és a helyes szabályozásról szóló közös gondolkodásról.

Az információ hatalom

A személyes adatok védelme továbbra is kiemelten fontos terület, hiszen az MI-re vonatkozó szabályozás a GDPR alapelveire épít, így azok rendelkezéseit kell követni – hangsúlyozta a konferencián Péterfalvi Attila, a Nemzeti Adatvédelmi és Információszabadság Hatóság (NAIH) elnöke. Kiemelte, az MI valóban dominálja a híreket, így egyre többen kezdenek nagy nyelvi modellen alapuló eszközöket használni. Ennek során az MI-nek, ahogy minden más adatkezelőnek, alkalmaznia kell a GDPR szabályait. Ez természetesen kérdéseket és kihívásokat vet fel, mint például az úgynevezett fekete doboz jelenség kérdését. Bár az MI megkönnyíti életünket, ennek ellenére fontos, hogy az átláthatóság, a célhoz kötöttség és a többi alapelv végig érvényben maradjon. Péterfalvi Attila kiemelte, az alapos, részletes, akár az új és még újabb technológiákra kitérő szabályozás is jobb annál, mintha egyáltalán nem lenne szabályozás. Hangsúlyozta, hogy a magyar hatóság proaktívan áll hozzá az új technológiák jelentette adatvédelmi kihívásokhoz. A NAIH a nyáron saját laboratóriumot hozott létre a különféle MI-megoldások elemzésére. Az információ ugyanis hatalom, és ha rossz kezekbe kerül, óriási károkat képes okozni – figyelmeztetett a hatóság elnöke.

Alapjogok és az ipari mérce

Hatalmas lehetőséget jelent, ám veszélyeket is rejt az MI – csatlakozott az elhangzottakhoz Kilian Gross, az Európai Bizottság Tartalmak, Technológiák és Kommunikációs Hálózatok Főigazgatóságának (CNECT) egységvezetője. Európa az AI Act létrehozásával a megbízhatónak tekinthető MI szabályait fektette le. A megbízhatóság régi európai mérce, hiszen ez alapján gyártunk épületeket, autókat és más ipari termékeket évtizedek óta. Ám jogosan vetődik fel a kérdés: elég-e egy termékalapú mérce ahhoz, hogy megvédjük az alapvető jogokat? A válasz azonban igen, a jogalkotók gondoltak erre, így a törvényben szerepelnek a demokrácia, az emberi jogok és a joguralom fogalmai. Kilian Gross kiemelte, hogy az AI Act kockázatalapú megközelítést alkalmaz, ez alapján lehet egy technológia engedélyezett, feltételesen engedélyezett vagy éppen tiltott. A kategorizálás alapvető része, hogy a szabályozás nem engedi az MI számára a társadalmi pontozást, a biometrikus jellemzők alapján való kategorizálást, az érzelmek felismerését és egyéb manipulatív eljárásokat – ezek a tiltások pedig mind rendelkeznek alapjogi vonatkozással. A szolgáltatókat a technológia megalkotása során a törvény kockázatelemzésre kényszeríti, így egy alkalmazás hatását az alapjogokra mindig fel kell mérni. A használat során az átláthatóság érdekében a felhasználó számára jelezni kell, hogy a folyamatban MI vesz részt, illetve mindig felismerhetőnek kell maradnia, hogy az adott választ gép készítette. Ez is alapjogi kérdés, hiszen a gépi produktumok befolyásolhatják például a választásokat, így a demokráciát. Kilian Gross hangsúlyozta, hogy az AI ACT nem önálló szabály, hanem egy több jogszabályból összeálló szabályozási kirakó része. Hozzátette, az EU megfelelő hatóságokat és szervezeteket biztosít a törvény alkalmazáshoz, amelynek gyakorlati működését már jövőre meg tudjuk vizsgálni. Létrejött az Európai MI Iroda is, amely 360 fokos rálátással vizsgálja majd az MI működését, a szabályok alkalmazását és a technológiai jövőjét.

A hatékonyság nem ad felmentést

A diszkrimináció kérdését helyezte a fókuszba előadásában David Reichel, az Európai Unió Alapjogi Ügynökségének projektvezetője. Kiemelte, az ügynökségnek elsőként tapasztalatokra volt szüksége az MI-vel kapcsolatban, hiszen csak a valódi eseteket van értelme szabályozni. Az elmúlt években ezért az ügynökség számos jelentést készített az algoritmusok működéséről. Kiderült, hogy a legfontosabb ok, amiért az MI-t használni akarjuk, a hatékonyság. E cél pedig túl kevés ahhoz, hogy az alapjogokat a háttérbe szorítsuk.

Bármilyen MI esetén fontos az adatok jogszerű használata (ez is lehet kihívás), az elfogulatlan, nem diszkriminatív működés és a lehetőség, hogy az MI ellen legyen lehetőség panaszt tenni. Az elfogult MI kapcsán David Reichel az ügynökség egy vizsgálatát mutatta be, amiből kiderült, hogy komoly kihívás lehet például a gyűlöletbeszéd kiszűrése szövegekből. Bizonyos szavakat, noha önmagukban nem bántók, az MI komoly kockázatnak lát a szövegben (mint például a zsidó vagyok vagy a muszlim vagyok kifejezéseket). Még inkább elfogult e szavak hímnemű verziójával, ahol ez az adott nyelvben létezik. David Reichel hozzátette, az algoritmus által adott eredmény befolyásolja a való világot és viszont, így az MI elszabadulhat.

Nem maradhat csupán technikai kérdés

A konferencia első panelbeszélgetésén Az MI és az alapvető jogok címmel Sorbán Kinga, az ITKI kutatója, az Európai Unió Tanácsa távközléssel és az információs társadalommal foglalkozó munkacsoportjának alelnöke moderálásával kért szót Turbék Zoltán, Magyarország Állandó ENSZ Képviseletének ideiglenes ügyvivője, az állandó ENSZ képviselő helyettese; Aszódi Nikolett, az AlgorithmWatch politikai és érdekképviseleti menedzsere; Angeliki Dedopoulou, a Meta MI és fintech területekért felelős EU-politikai menedzsere; valamint Julien Chasserieau, a DigitalEurope MI és adatpolitika területért felelős társigazgatója. A résztvevők a szakmai és személyes bemutatkozást követően arról beszélgettek, melyik alapvető jogot hogyan fogja érinteni az MI használata.

Angeliki Dedopoulou amellett érvelt, hogy az MI inkább segíteni, mint hátráltatni fogja az alapjogok érvényesülését, hiszen használata közelebb hozza egymáshoz az embereket. Az algoritmusok segítenek a szólásszabadság érvényesítésében és a különféle vélemények terjesztésében, illetve az információszerzésben, a hatékonyságban, de például az MI képes támogatni a fogyatékkal élők jobb hozzáférését egyes digitális termékekhez.

Julien Chasserieau mindezt azzal egészítette ki, hogy az alapjogokra gyakorolt hatás alapvetően attól függ, hogy valójában mire használjuk az MI-t. Akkor jelenthet csak igazán veszélyt, ha emberi döntések kiváltására akarjuk a gépeket használni. Emberek is hozhatnak persze rossz döntést, de azt – ellentétben az MI technológiai kihívást jelentő, gyakran láthatatlan elfogultságával és diszkriminációjával – van lehetőségünk később kijavítani.

Aszódi Nikolett amellett érvelt, hogy az MI nem csupán technológiai, hanem társadalmi, társadalomtechnológia kérdés, és ennek megfelelően érdemes kezelni. Alkalmazása széleskörű lehet, a cél dönthet arról, hogy a technika sért-e alapjogot vagy sem. Az azonban szerinte bizonyos, hogy sem a hatékonysági paradigma, sem a profitérdek nem írhatja felül az alapjogokat. Turbék Zoltán egyetértett a résztvevőkkel abban, hogy az MI használatának lehet egyaránt pozitív és negatív hatása, ugyanakkor rámutatott, nagyon fontos időben megismernünk és tudatosítanunk a használattal járó kockázatokat. Ez nem csak a magánszférát, de az állami alkalmazás területét is érinti, hiszen az is lehet hatással az alapjogokra.

Enyhíteni a kockázatokat

A konferencia délutáni szekciójában elsőként Diletta De Cicco, az Európai Adatvédelmi Testület jogi tisztviselője adott elő az AI Act és az adatvédelmi keretrendszer közötti összefüggésekről. Később, Az MI-hez kapcsolódó kockázatok felmérése és enyhítése című panelbeszélgetésen Ződi Zsolt, az ITKI tudományos főmunkatársa moderálásával fejtette ki álláspontját Jeremy Rollinson, a Microsoft EU-politikai vezetője, Guido Lobrano, az ITI politikai részlegének vezető alelnöke, Sebnem Erener, a Klarna vezető jogtanácsosa, valamint Malte Firlus, az Amazon EU-közpolitikáért felelős munkatársa. A konferencia záróbeszédét Bartóki-Gönczy Balázs, az NKE Államtudományi és Nemzetközi Tanulmányok Kar tudományos dékánhelyettese mint a Nemzeti Média- és Hírközlési Hatóság Médiatanácsának tagja tartotta.

Forrás: Ludovika.hu


Kapcsolódó cikkek