Itt az új AI Act – Gyakorlati útmutató az alkalmazáshoz


Az AI Act gyakorlati kérdéseiről Dr. Petrányi Dóra a CMS Ügyvédi Iroda partnere, regionális igazgatója, valamint a CMS Globális Technológia, Média és Telekommunikációs csoportjának társvezetője és Dr. Horváth Katalin, a CMS Ügyvédi Iroda partnere, a CMS Technológia, Média és Telekommunikáció csoportjának tagja tartott előadást a Wolters Kluwer Hungary által szervezett 4 részes webinárium-sorozat első alkalmán.

A webinárium felvételét itt tekintheti meg.

 Az EU AI Act

A hosszas jogalkotási időszaknak köszönhetően a rendelet szinte kódex-szerűen jelent meg, melynek bizonyítéka többek között a 150 oldal terjedelmű leíró jellegű preambulum. Egy nagyon masszív joganyag az AI Act, mely a világ első, a mesterséges intelligencia alkalmazási területeit lefedő egybefüggő szabályozást alkotó normájaként tartandó számon. (A jogszabályt 2024. július 12-én hirdették ki az Európai Parlament Hivatalos Lapjában, és augusztus 1-jén fog hatályba lépni. teljeskörűen alkalmazni majd 2026-tól kell – a szerk.)

A törvény tárgyi hatályát a jogalkotók az “MI-rendszer” fogalmán keresztül határozták meg, mely egy “olyan gépi alapú rendszer, amelyet úgy terveztek, hogy különböző szintű autonómiával működjön, amely bevezetését követően alkalmazkodóképességet tanúsíthat, és amely a kapott bemenet alapján – explicit vagy implicit célok érdekében – kikövetkezteti, miként generáljon olyan kimeneteket, például előrejelzéseket, tartalmakat, ajánlásokat vagy döntéseket, amelyek befolyásolhatják a fizikai vagy a virtuális környezetet.”[1]  Fontos, hogy az MI-rendszert el kell határolni a jelenleg ismert szoftverektől. Ennek központi eleme az, hogy a mesterséges intelligencia által vezértelt rendszerek nem csupán az adatok feldolgozására képesek, hanem abból következtetéseket vonnak le, mely a kimenetek előállítását, illetve a modellek és algoritmusok levezetését eredményezi.

A személyi hatály kapcsán a két legfontosabb szereplő a szolgáltató, aki MI-rendszert vagy modellt fejleszt, forgalomba hoz, üzembe helyez és mindezt saját neve vagy védjegye alatt teszi, valamint az alkalmazó, aki a felügyelete alatt álló rendszert szakmai tevékenysége során használja. Természetesen a joganyagban megjelennek további szereplők is, ilyen az importőr, a forgalmazó, a termékgyártó és a meghatalmazott képviselő. Esetükben szintén kiindulási alapként az elsődleges szereplőkre vonatkozó fogalomrendszer irányadó, azonban tartalmaznak speciális elemeket, mint például a harmadik országbeli jogalany védjegye, a saját termékkel együttes forgalomba hozatal vagy a letelepedett jogi személyek képviselete.

A területi hatály piaci elv alapján működik, tehát az unióban letelepedett szolgáltatókra és a harmadik országbeli, de az unióban szolgálatást nyújtó gazdasági szereplőkre is kiterjed. Ez a gondolatiság hasonló a GDPR-rendeletben megjelenő meghatározáshoz.

Kiemelendő, hogy a rendelet alkalmazhatósága szempontjából négy alapvető kategóriát állít fel:

  • Az MI-t az Unióban forgalmazó vállalatok, függetlenül attól, hogy hol találhatók.
  • Nem uniós szolgáltatók és alkalmazók, ha mesterséges intelligenciájuk uniós lakosokat érint.
  • az EU-ban székhellyel rendelkező alkalmazók és importőrök, illetve az MI-rendszerek forgalmazói.
  • Az EU-ban márkanevük alatt forgalmazott, MI-t tartalmazó termékek gyártói.[2]

Azonban, mint minden joganyag, ez a rendelet sem lehet kivétel nélkül minden helyzetben alkalmazandó, így a normaszöveg rögzít bizonyos kivételeket. Példálózó jelleggel ilyen a nemzetbiztonsági-, tudományos-, védelmi célú felhasználás vagy az ingyenesen hozzáférhető és nyílt forráskóddal működő szoftverek alkalmazása.

A rendelet egyik újdonsága a kockázat alapú megközelítés bevezetése volt. Itt tulajdonképpen egy piramist láthatunk a szemünk előtt, melynek alsó szintjein találhatóak az alacsony és minimális kockázattal járó MI-rendszerek, melyek alkalmazásához elegendő egy alapfokú jártasság, tudatosság, míg a csúcson az elfogadhatatlan kockázatot rejtő tiltott MI-gyakorlatokat láthatjuk. A kettő között persze több kategória kapott helyet, de mindegyik esetében közös kapcsolódási pont a felelősség kérdése, mely esetében kijelenthető, hogy a jogalkotó egy bizonyos értéklánc mentén kívánta a kötelezettségek telepítését megoldani. Itt fontos megjegyezni, hogy bár mindenki elsősorban a szolgáltatókat látja a felelősségi láncolat mögött, ez mégsem felel meg teljesen a valóságnak. A jártasság mint követelmény elsősorban az alkalmazókat érinti, de szintén fontos kötelezettségek terhelik a termékgyártókat, a forgalmazókat és az importőröket is.

Tiltott MI-gyakorlatok

 “Olyan MI-rendszerek, amelyek szubliminális technikákat alkalmaznak az adott személy tudatán kívül, vagy célzottan manipulatív vagy megtévesztő technikákat alkalmaznak annak érdekében, hogy lényegesen torzítsák egy személy vagy csoport magatartását.”[3]

Az innovációs robbanás korának joggyakorlata annak ellenére, hogy a rendelet még igazán fiatalnak tekinthető, kimunkált olyan példákat, melyek a tiltott gyakorlatok egyes módjait mutatják be. Ilyen lehet egy olyan technológia, mely jelentősen gyengíti egy adott személy vagy csoport megalapozott döntéshozatalra való képességét például személyre szabott tartalmak megjelenítésével. Az ilyen gyakorlatok velejárója, hogy az érintetteknek jelentős károsodást okoznak vagy ennek bekövetkezése szinte teljes bizonyságú.

Természetesen nem csupán az egyén magatartására gyakorolhatnak ezen technikák káros hatást, hanem kihathatnak a társadalmi-szociális megítélésükre is. Ennek eszköze a társadalmi pontozási rendszer, melynek hatásai kifejezetten károsak és szerencsére visszásságaira egyre több platformon igyekeznek felhívni a figyelmet. A különböző bűnüldözési szervek persze alkalmaznak ilyen és ehhez hasonló pontozási rendszereket, azonban ezek jogszerű kivételt képeznek a rendelet tilalmai alól. Sajnos a mesterségesintelligencia-eszközök “fekete piacán” népszerűnek mondhatók a hatóságok eszközrendszerét mintegy lemásolni hivatott arcfelismerő rendszerek, melyek értelemszerűen tilalmazott gyakorlatnak számítanak az AI Act rendszerében. Vannak azonban olyan érzelemfelismerő rendszerek, melyek szintén kivétel alá esnek, azonban itt a felhasználási kereteket igen szűk körben szabja meg a szabályozás. Léteznek továbbá az úgynevezett “biometrikus kategorizálási rendszerek”, melyek szintén tilalom alá tartoznak. Ilyen lehet a gyakorlatban “egy online platform profilozó algoritmusai felhasználhatják az egyes felhasználók arcképeit és hangfelvételeit arra, hogy politikai véleményüket, vallási meggyőződésüket vagy más személyes jellemzőiket kategorizálják és beazonosítsák.”[4] Itt még korántsem ér véget a biometrikus technológiákra vonatkozó tilalom-felsorolás, néhány gyakorlati példa az elfogadhatatlan kockázatot jelentő “valós idejű” távoli biometrikus azonosító rendszerekre: városi videómegfigyelő rendszer, arcfelismerő kamerák használata az utcákon vagy tömegközlekedési csomópontokon, bűncselekményekkel gyanúsított személyek azonosítása és nyomon követése érdekében.[5] Nem lehet teljes a szabályozás a szükségszerű kivételek mellett e téren sem, így például az emberkereskedelem megakadályozására használt rendszerek és az AI Act II. mellékletében felsorolt további gyakorlatokra a tilalom nem vonatkozik.

AI Act,EU AI Act

MI-rendszerek nagy kockázatúként való besorolása

Az első kategóriába azon rendszerek tartoznak, melyek „az AI Act I. mellékletében felsorolt uniós harmonizációs jogszabályok hatálya alá tartozó termék biztonsági alkatrészeként kívánják használni, vagy az MI-rendszer önmagában ilyen termék.”[6] Illetve a rendelet ide sorolja még a nagy kockázatú rendszerek biztonsági alkatrészeit is. Fontos, hogy a jogalkotó ide telepített egy célzott megfelelőségi követelményt.

Emellett a rendelet III. melléklete tartalmaz még nagy kockázatú rendszereket, melyek a következők:

  • Biometria: „Az alkalmazó a rendszerből származó azonosítás alapján ne hozzon intézkedést vagy döntést kivéve, ha a szükséges kompetenciával, képzettséggel és hatáskörrel rendelkező legalább két természetes személy – egymástól függetlenül – ellenőrizte és megerősítette.”[7] Ezen rendszereknél tehát az emberi beavatkozásnak, közrehatásnak kiemelt szerepe van. A gyakorlatban ilyenek például az érzelemfelismerésre használt MI-rendszerek.
  • Kritikus infrastruktúra: „A kritikus digitális infrastruktúrák, a közúti forgalom vagy a víz-, gáz-, fűtési vagy villamosenergia-szolgáltatás irányításában és működtetésében biztonsági alkotórészként való használatra szánt MI-rendszerek”[8], melyek esetében kifejezetten nagy mérlegelési jogköre van a jogalkotónak, legalábbis a minősítés tekintetében mindenképp.
  • Oktatás és szakképzés: Az alá-fölé rendeltségi viszony miatt nagyobb odafigyelést igényelnek a résztvevők, így négy kivételes magas értékelési rendszert (bejutás vagy felvétel meghatározása, eredményértékelés, szintfelmérés, tiltott magatartások megfigyelése) tartalmaz a rendelet.
  • Foglalkoztatás, a munkavállalók irányítása és az önfoglalkoztatáshoz való hozzáférés: „Felvétel vagy kiválasztás – különösen célzott álláshirdetések elhelyezése, a jelentkezések elemzése és szűrése, valamint a jelöltek értékelése céljából. Továbbá munkaviszony feltételeinek, előléptetés vagy munkaviszony megszüntetését érintő döntések meghozatala, feladatkiosztás, teljesítmény és magatartás nyomon követése és értékelése.”[9]
  • Alapvető magán- és közszolgáltatásokhoz és ellátásokhoz való hozzáférés és ezek igénybevétele: „Állami segítségnyújtási ellátásokra és szolgáltatásokra, egészségügyi szolgáltatásokra való jogosultság értékelése, biztosítása, csökkentése, visszavonása vagy visszaigénylése. A természetes személyek hitelképességének értékelése vagy hitelpontszámuk megállapítása, kivéve a pénzügyi csalás észlelése. Egészség- és életbiztosítás – a kockázatértékeléshez és az árképzéshez való használatra szánt MI-rendszerek. Segélyhívások értékelése és osztályozása, sürgősségi segélyszolgálatok kirendelése, kirendelési prioritás megállapítása, betegosztályozási rendszerek sürgősségi egészségügyi ellátásban.”[10]
  • Bűnüldözés, amennyiben ezek használatát a vonatkozó uniós vagy nemzeti jog engedélyezi: „Természetes személy esetében fennáll-e annak kockázata, hogy bűncselekmény áldozatává válik? A bűnüldöző hatóságok támogatása – például poligráf vagy hasonló eszköz. A bizonyítékok megbízhatóságának értékelése. Természetes személy esetében fennáll-e bűncselekmény elkövetésének vagy ismételt elkövetésének valószínűsége? (Nem kizárólag profilalkotás alapján, vagy személyek, vagy csoportok személyiségjegyeinek és személyes jellemzőinek, illetve múltbeli bűnözői magatartásának értékeléséhez.) Bűncselekmények felderítése, nyomozás vagy büntetőeljárás alá vonás során profilalkotás.”[11]
  • Migráció, menekültügy és határigazgatás, amennyiben ezek használatát a vonatkozó uniós vagy nemzeti jog engedélyezi: „Az illetékes hatóságok által poligráfként és hasonló eszközként való használatra szánt MI-rendszerek. A valamely tagállam területére belépni szándékozó vagy oda belépett természetes személy által jelentett kockázat – többek között biztonsági kockázat, irreguláris migrációs kockázat vagy egészségügyi kockázat – értékelése. Menedékjog iránti kérelmek, vízumkérelmek vagy tartózkodási engedély iránti kérelmek, valamint jogállást kérelmező személyek jogosultsága tekintetében az ezekkel összefüggő panaszok kivizsgálása – beleértve a bizonyítékok megbízhatóságának kapcsolódó értékelését. A migrációval, a menekültüggyel és a határigazgatással összefüggésben – az úti okmányok ellenőrzése kivételével – a természetes személyek felderítése, felismerése vagy azonosítása.”[12]
  • Igazságszolgáltatás és demokratikus folyamatok: „Az igazságügyi hatóságok segítése a ténybeli és a jogi elemek kutatásában és értelmezésében, valamint a jog konkrét tényekre történő alkalmazásában, alternatív vitarendezés keretében is. Választások vagy népszavazások eredményének vagy a természetes személyek választásokon vagy népszavazásokon tanúsított szavazási magatartásának befolyásolásához való használatra szánt MI-rendszerek. Nem tartoznak ide azok az MI-rendszerek, amelyek kimenete nem érint közvetlenül természetes személyeket, mint például a politikai kampányok adminisztratív vagy logisztikai szempontból való megszervezéséhez, optimalizálásához vagy strukturálásához használt eszközök.”[13]

Azonban a rendelet gondolatrendszerébe beletartoznak bonyolult összefüggési láncok, és ez a nagy kockázatú rendszerekre is igaz. Olyan kivételszabályokat rögzít a jogalkotó, melyek visszacsatolják az alkalmazandó szabályokat az rendelet alapvetéseinek rendszerébe. Erre jó példa, amikor ugyan nagy kockázatúnak minősül(ne) egy alkalmazott technológia, azonban, ha „nem jelent jelentős kockázatot természetes személyek egészségére, biztonságára vagy alapvető jogaira nézve, többek között azáltal, hogy nem befolyásolja lényegesen a döntéshozatal kimenetelét”[14], akkor nem sorolható a nagy kockázati kategóriába.

Továbbá „annak a szolgáltatónak, amely úgy ítéli meg, hogy valamely, az AI Act III. mellékletében említett MI-rendszer nem nagy kockázatú, az adott rendszer forgalomba hozatala vagy üzembe helyezése előtt dokumentálnia kell értékelését. Regisztrálnia kell a nagy kockázatú MI-rendszerek uniós adatbázisában. Az illetékes nemzeti hatóságok kérésére a szolgáltatónak be kell nyújtania az értékelés dokumentációját. A természetes személyekkel kapcsolatos döntéseket hozó vagy az ilyen döntések meghozatalában segítséget nyújtó rendszerek alkalmazóinak tájékoztatniuk kell a természetes személyeket arról, hogy esetükben nagy kockázatú MI-rendszert használnak.”

Hamarosan elkészül egy bizottsági iránymutatás „a gyakorlati végrehajtásról, a nagy kockázatú és a nem nagy kockázatú MI-rendszerek felhasználási eseteire vonatkozó gyakorlati példákat tartalmazó átfogó listával”[15], melyet az indokol, hogy a gyakorlati szakemberek is kifejezetten nehezen elvégezhetőnek tartják a besorolást.

 A nagy kockázatú MI-rendszerek szolgáltatóira és alkalmazóira, valamint más felekre vonatkozó kötelezettségek

 A szolgáltató fő kötelezettsége egy kockázatkezelési rendszer kiépítése és megfelelő működtetése. Feladata többek között a nagy kockázatú rendszerek tekintetében a károkozás valószínűsítése és a kockázatok megfelelő kategorizálása a becslés és értékelés eszközeivel. Amennyiben szükséges a szolgáltató köteles az érdekeltségi körében felmerülő kockázatok csökkentésének érdekében megtenni a szükséges intézkedéseket. Természetesen több megfelelő intézkedést ismer a rendelet és a gyakorlat. Ilyen lehet, amikor már az MI-rendszer tervezésénél mintegy megelőző jelleggel kerül beépítésre olyan elem, mely alkalmaz a kockázati tényezők kiszűrésére. A gyakorlatban ez nem csupán egyszerű vizsgálatot vagy szakszerű odafigyelést jelent, hanem az alkalmazó és a szolgáltató közötti szükségszerű, szoros együttműködést eredményezi.

A második kötelezettség az adatok kezelésére vonatkozik. Minden adatkészletnek jó minőségűnek és az inkluzivitási követelményeknek meg kell felelniük. Az AI Act gyakorlati alkalmazásának talán legnagyobb kihívása az lesz, hogy ezt biztosítani tudja. Ez a gyakorlatban azt jelenti, hogy a szolgáltatóknak gondoskodniuk kell a megfelelő adatminőségről, illetve arról is, hogy a legbiztosabb adatvédelmi technikákat alkalmazzák, mindezt az etikai szempontok érvényesülésére figyelemmel. A validálási adatok tekintetében többletkövetelmény az alul- és túlillesztés problémájának elkerülése.

Alulillesztésről akkor beszélünk, ha „a modell nem képes megtanulni a tanítóadatokban rejlő komplex összefüggéseket vagy mintákat. Általában akkor jelentkezik, ha a modell túl egyszerű, vagy a tanítóadatok mennyisége vagy minősége nem megfelelő.”[16] A túlillesztés ezzel szemben az, amikor „a modell túl jól alkalmazkodik a tanítóadatokhoz, és túlzottan illeszkedik azokhoz, és nem általánosítható jól új adatokra vagy tesztadatokra. Általában akkor jelentkezik, ha a modell túl bonyolult, vagy ha a tanítóadatokban zaj vagy redundancia van.”[17]

Ezen kötelezettség része az is, hogy megfelelő adatkormányzási stratégiát alkalmazzák a szolgáltatók. Ehhez gondoskodni kell olyan reprezentatív adatkészletről, mely rendelkezik a szükséges statisztikai tulajdonságokkal és esetleg olyan sajátos elemekkel is, melyek segítenek az esetleges torzítások, visszaélések elkerülésében. A gyakorlatban ezt adatátadási szerződésekkel és szavatossági garanciákkal lehet elérni.

A harmadik sarkalatos kötelezettség a műszaki dokumentáció elkészítése. A rendelet erre vonatkozó részletes útmutatót tartalmaz. A fekete doboz hatás kapcsán sokszor felmerül a szolgáltatókban, hogy képtelenség megfelelni a dokumentációs előírásoknak. Azonban a gyakorlat azt mutatja, hogy az átláthatósági kritériumokat betartó szereplők képesek megfelelően elvégezni a műszaki adatok, eljárások reprezentálását. Ehhez a szekcióhoz kapcsolódik a nyilvántartás vezetés, melyet a használat teljes ideje alatt egyfajta napló jelleggel kell vezetnie a szolgáltatónak.

Negyedik követelményként jelennek meg az átláthatóságot biztosító kötelezettségek. A szolgáltatóknak a fekete doboz-hatás megszüntetése érdekében már a tervezés folyamatában figyelemmel kell lenniük az átláthatósági követelményekre. Ennek egyik eszköze a használati útmutató csatolása, mely azt a célt szolgálja többek között, hogy az alkalmazó megértse a mesterséges intelligencia által vezérelt eszköz működését. Ebben a körben a jogalkotó az alkalmazóra is telepít kötelezettséget, ugyanis amennyiben hibát észlel azt haladéktalanul köteles jelenteni a szolgáltató felé. További követelmény a megfelelő szakképzettséggel rendelkező emberi felügyelet biztosítása az esetleges hibák és ezekből adódó kockázatok csökkentése, elkerülése érdekében. Fontos, hogy a technológiai folyamatban születő parancsokat, döntéseket adott helyzetben a humán szereplőnek felül kell tudni írnia. Megemlítendő a „kill switch” intézménye, mely azt jelenti, hogy szükség esetén a rendszer működése megszakítható egy, a rendszer biztonságos állapotban történő leállását lehetővé tevő „stop” gomb vagy hasonló eljárás segítségével.[18] Nem elhanyagolható azonban annak a követelménye sem, hogy az MI-rendszerek kellő pontossággal működjenek, teljes reziliencia mellett. Létezik három olyan, kifejezetten mesterséges intelligencia elleni támadási struktúra, melyekkel szemben minden rendszernek ellenállónak kell lennie. Ezek az adatmérgezés, azaz a tanulóadat-készlet manipulálását megkísérlő támadások, a modellmérgezés, vagyis a tanítás során használt előtanított összetevők manipulálását megkísérlő támadások és a modellkijátszás, ami a modell hibájának előidézésére szolgáló bemenetek alkalmazását jelenti.[19]

Bizonyos MI-rendszerek szolgáltatóira és felhasználóira vonatkozó átláthatósági kötelezettségek

 Léteznek olyan kötelezettségek is, melyek nem minden AI rendszerre vonatkoznak. Ilyenek lehetnek például a chatbotok, amikor fel kell hívni arra a figyelmet, hogy a beszélgetés másik oldalán egy mesterséges intelligencián alapuló rendszer áll. Napjainkban a médiában is számos helyen alkalmazzák az AI eszközöket, például egy újságíró egy cikk megírásához. Természetesen ilyenkor is jelezni kell, hogy a tartalmat mesterséges intelligencia generált.

Szintén aktuális probléma a deepfake, mellyel kapcsolatban szigorúan lép fel a jogalkotó és a gyakorlat is. Kötelezettség, hogy a szolgáltatóknak és felhasználóknak “közölniük kell, hogy a tartalmat mesterségesen hozták létre vagy manipulálták. Kivéve, ha a használatot törvény engedélyezi bűncselekmények felderítése, megelőzése, nyomozása vagy büntetőeljárás alá vonása céljából. Ha a tartalom nyilvánvalóan művészeti, kreatív, szatirikus vagy mű vagy program részét képezi, az átláthatósági kötelezettségek az ilyen létrehozott vagy manipulált tartalom meglétének megfelelő, a mű megjelenítését vagy élvezetét nem akadályozó közlésére korlátozódnak.”[20]

 Általános célú MI-modellek

 A legkisebb kockázatot jelentő, általános jártasság mellett alkalmazható rendszerek kategóriájába tartozik a sokak által ismert és használt ChatGPT és a különböző nagy nyelvi modellek. A velük szemben támasztott kötelezettségek közé tartozik a műszaki dokumentáció készítése, a különböző uniós szerzői jogra vonatkozó rendelkezéseknek való megfelelés és a modellek tanításához felhasznált adatkészletek részletes ismertetése.

 A vonatkozó szabályokat a rendeletben részletesen a XI. és a XII. mellékletek tartalmazzák. A XI. melléklet rögzíti a részletes műszaki dokumentációra és eljárás-ismertetésre vonatkozó követelményeket. Érdekesség, hogy az uniós politikát lekövetendő bekerült egy “zöld rendelkezés” is a normaszövegbe. Egészen pontosan az, hogy a dokumentációban szerepelnie kell a becsült energiafogyasztásnak.

 Végrehajtási szabályok

 Fontos kitérni a jogértelmezés keretein belül a rendelet végrehajtásának módjára is. A gyakorlatban ez a következőképpen alakul majd: a végrehajtási hatáskör megosztottan fog érvényesülni a tagállamok és az unió között. A felügyeleti modell szereplői az EU Bizottságon belüli MI-hivatal, a tagállamokat képviselő testület, a független szakértőkből álló tudományos testület és a tanácsadó fórum lesz.

Természetesen a rendelet szankciórendszert is tartalmaz. Az abszolút tilalmak és az AI Act rendelkezéseinek megsértése esetén, valamint félrevezető információk kibocsátása és a GPAI-modellek által elkövetett konkrét jogsértések esetén a felhasználóknak és a szolgáltatóknak több millió eurós bírsággal kell szembenézniük.

 Mindeközben a világ többi részén

 Alapvetően minden kutatás és statisztika azt bizonyítja, hogy a világ minden részén nyomon követhető egy hatalmas innovációs hullám és az azt lekövetni próbáló szabályozási infrastruktúra kiépítése. Amerikában például tervben van “a fejlett mesterséges intelligencia chipek exportellenőrzése, a NIST AI kockázatkezelési keretrendszer kiépítése vagy a Fehér Ház kötelezettségvállalásai és végrehajtási rendeletének alkalmazása”[21]. Kínában, a világ második vezető mesterséges intelligencia országában tervezetten megvalósul egy ”ajánlórendszer- és mélyszintézis szabályozás kidolgozása, valamint a generatív mesterséges intelligenciára vonatkozó ideiglenes intézkedések bevezetése”[22].

Mire figyeljünk?

 Szolgáltatóként két azonnali teendő van: a kockázati szint besorolása, valamint az adatmegismerés és adatkormányzás kiépítése. Az adatkormányzás magában foglalja a torzítások lehetőségének csökkentését, valamint a vonatkozó szellemi tulajdonjogok megsértésének elkerülését és az alkalmazás során felmerülő működési zavarok kockázatának elkerülését. Ezt követően az átláthatósági- és felelősségi kérdések tisztázására kell hangsúlyt fektetni. Ide tartozik annak dokumentálása, hogy “hogyan jutott egy MI-rendszer a döntésére, és milyen adatokat használt fel a rendszer tanításához.”[23] A nagy kockázatú rendszerek esetében követelmény továbbá, hogy a végzett műveletek elég átláthatóak legyenek ”ahhoz, hogy az alkalmazók képesek legyenek értelmezni a rendszer kimenetét és megfelelően használni azt.”[24]

Fontos, hogy a szolgáltatóknak mindig egy hármas szabályozási rendszert kell majd alkalmaznia. Ide tartoznak:

  • termékfelelősségi irányelv
  • nemzeti felelősségi rendszerek szabályai
  • MI-vel kapcsolatos felelősségről szóló irányelvre irányuló javaslat

 Általános rendszerek kapcsán a szellemi tulajdonra és az üzleti titokra kell kiemelt figyelmet fordítani, de nem szabad elhanyagolni a hozzáférési- és társadalmi elveket (számonkérhetőség, méltányosság, megbízhatóság, adatvédelem, inkluzivitás) sem.

Az alkalmazóknak elsősorban a felelősségi kérdésekre kell majd figyelemmel lenniük.

A webináriumot az előadók egy találó idézettel zárták, melyet jelen összefoglaló is felhasznál, hiszen rendkívül szépen jeleníti meg a jogászság és a mesterséges intelligencia közötti feszültséget, melyet remélgetőleg a formálódó gyakorlat és jogszabályi környezet idővel elcsendesít majd.

„A mesterséges intelligencia terén nem csupán szerencsés, ha megvan a bizalom, hanem egyenesen elengedhetetlen. Ezekkel a mérföldkőnek számító új szabályokkal az EU élen jár az olyan új globális normák kidolgozásában, amelyekkel biztosítható a mesterséges intelligencia iránti bizalom. A szabványok meghatározása révén megnyithatjuk az utat az etikus technológia világszintű elterjedése felé, és biztosíthatjuk, hogy mindeközben az EU versenyképes maradjon. A szabályozás időtálló és innovációbarát lesz, és lehetővé teszi, hogy a legszükségesebb esetekben, akkor, amikor az uniós polgárok biztonsága és alapvető jogai forognak kockán, be tudjunk avatkozni.” – Margrethe Vestager, a digitális korra felkészült Európáért felelős ügyvezető alelnök.


AI Act,EU AI Act

A CMS, mely idén ünnepelhette fennállásának 35. évfordulóját, a hazánkban működő legnagyobb nemzetközi ügyvédi iroda. Sikerét a számtalan területet felölelő szektor-specifikus szaktudásnak, a globális partnereknek, lelkiismeretes ügyvédeknek és a jól képzett támogató munkatársaknak köszönheti. Számos szolgáltatás elérthető az irodánál, mely így az üzleti jog minden aspektusát lefedő problémakörben kiemelkedő segítséget nyújt a jogkereső feleknek. A CMS Magyarország kiemelt témái közé tartozik a mesterséges intelligencia elterjedésének vizsgálata, az uniós beruházások és innovációk támogatása, az üzleti életben megjelenő alapvető jogok védelme, valamint a különbféle jogalkotási csomagok ismertetése és alkalmazásának elősegítése.


A cikk a Wolters Kluwer Hungary termékeire/szolgáltatásaira vonatkozó reklámot tartalmaz 

[1] EU AI Act (https://www.europarl.europa.eu/doceo/document/TA-9-2024-0138_HU.pdf) 3. cikk, 1. pont

[2] Dr. Petrányi Dóra, Dr. Horváth Katalin, CMS: Az AI Act gyakorlati kérdései. Webinárium előadás. 2024. május 22.

[3] EU AI Act (https://www.europarl.europa.eu/doceo/document/TA-9-2024-0138_HU.pdf) 5. cikk (1) bekezdés a) pont

[4] Dr. Petrányi Dóra, Dr. Horváth Katalin, CMS: Az AI Act gyakorlati kérdései. Webinárium előadás. 2024. május 22.

[5] Dr. Petrányi Dóra, Dr. Horváth Katalin, CMS: Az AI Act gyakorlati kérdései. Webinárium előadás. 2024. május 22.

[6] EU AI Act (https://www.europarl.europa.eu/doceo/document/TA-9-2024-0138_HU.pdf) 6. cikk (1) bekezdés

[7] Dr. Petrányi Dóra, Dr. Horváth Katalin, CMS: Az AI Act gyakorlati kérdései. Webinárium előadás. 2024. május 22.

[8] Dr. Petrányi Dóra, Dr. Horváth Katalin, CMS: Az AI Act gyakorlati kérdései. Webinárium előadás. 2024. május 22.

[9] Dr. Petrányi Dóra, Dr. Horváth Katalin, CMS: Az AI Act gyakorlati kérdései. Webinárium előadás. 2024. május 22.

[10] Dr. Petrányi Dóra, Dr. Horváth Katalin, CMS: Az AI Act gyakorlati kérdései. Webinárium előadás. 2024. május 22.

[11] Dr. Petrányi Dóra, Dr. Horváth Katalin, CMS: Az AI Act gyakorlati kérdései. Webinárium előadás. 2024. május 22.

[12] Dr. Petrányi Dóra, Dr. Horváth Katalin, CMS: Az AI Act gyakorlati kérdései. Webinárium előadás. 2024. május 22.

[13] Dr. Petrányi Dóra, Dr. Horváth Katalin, CMS: Az AI Act gyakorlati kérdései. Webinárium előadás. 2024. május 22.

[14] EU AI Act (https://www.europarl.europa.eu/doceo/document/TA-9-2024-0138_HU.pdf) 6. cikk (3) bekezdés

[15] Dr. Petrányi Dóra, Dr. Horváth Katalin, CMS: Az AI Act gyakorlati kérdései. Webinárium előadás. 2024. május 22.

[16] Dr. Petrányi Dóra, Dr. Horváth Katalin, CMS: Az AI Act gyakorlati kérdései. Webinárium előadás. 2024. május 22.

[17] Dr. Petrányi Dóra, Dr. Horváth Katalin, CMS: Az AI Act gyakorlati kérdései. Webinárium előadás. 2024. május 22.

[18] Dr. Petrányi Dóra, Dr. Horváth Katalin, CMS: Az AI Act gyakorlati kérdései. Webinárium előadás. 2024. május 22.

[19] Dr. Petrányi Dóra, Dr. Horváth Katalin, CMS: Az AI Act gyakorlati kérdései. Webinárium előadás. 2024. május 22.

[20] Dr. Petrányi Dóra, Dr. Horváth Katalin, CMS: Az AI Act gyakorlati kérdései. Webinárium előadás. 2024. május 22.

[21] Dr. Petrányi Dóra, Dr. Horváth Katalin, CMS: Az AI Act gyakorlati kérdései. Webinárium előadás. 2024. május 22.

[22] Dr. Petrányi Dóra, Dr. Horváth Katalin, CMS: Az AI Act gyakorlati kérdései. Webinárium előadás. 2024. május 22.

[23] Dr. Petrányi Dóra, Dr. Horváth Katalin, CMS: Az AI Act gyakorlati kérdései. Webinárium előadás. 2024. május 22.

[24] Dr. Petrányi Dóra, Dr. Horváth Katalin, CMS: Az AI Act gyakorlati kérdései. Webinárium előadás. 2024. május 22.


Kapcsolódó cikkek

2024. december 6.

NMHH podcast: az online tér kockázatai – a gyermekek online biztonsága

Új évaddal jelentkezik decembertől az NMHH Podcast. A Nemzeti Média- és Hírközlési Hatóság (NMHH) sorozata ezúttal a gyermekek online biztonságával, valamint az ehhez kapcsolódó legfrissebb trendekkel és követendő példákkal foglalkozik. Az első adás már fel is került a hatóság közösségimédia-felületeire. a sorozat műsorvezetője pedig ezúttal is Kántor Endre, az NMHH Podcast első, a mesterséges intelligencia kihívásaival foglalkozó sorozatának házigazdája.

2024. december 5.

Új szereplők, új szerepek: jogi innovációs tanácsadó

A gazdasági szereplőkkel szemben fokozódó elvárás, hogy naprakész válaszokat adjanak a gyorsan változó környezetben az erőforrásaik optimalizálása mellett. A megoldást a rohamosan fejlődő technológiák kihasználása jelentheti, az ezek közötti eligazodásban, valamint az implementálásban nyújthat segítséget egy jogi innovációs tanácsadó.