AZ EP szakbizottságai emberközpontú és etikus mesterséges intelligencia-rendszereket hoznának létre


Ez a cikk több mint egy éve került publikálásra. A cikkben szereplő információk a megjelenéskor pontosak voltak, de mára elavultak lehetnek.

Az Európai Parlament (EP) szakbizottságai elfogadták a mesterséges intelligencia (MI) alkalmazására vonatkozó első uniós szabályozás megalkotását célzó tárgyalási álláspontjukat, amelyben az emberközpontú és etikus európai fejlesztések biztosítására új átláthatósági és kockázatkezelési kötelezettségeket írnának elő – tájékoztatott az uniós parlament csütörtökön.

A 84 szavazattal, 7 ellenszavazat és 12 tartózkodás mellett elfogadott szöveg szerint az EP Belső Piaci (IMCO) és Állampolgári Jogi Bizottságának (LIBE) képviselői mindenek előtt azt kívánják elérni, hogy az MI-rendszereket emberek felügyeljék, biztonságosak, átláthatóak, nyomon követhetők, megkülönböztetésmentesek és környezetbarátak legyenek.

Véleményük szerint a szabályoknak kockázatalapú megközelítést kell követniük, és kötelezettségeket kell megállapítaniuk a szolgáltatók és a felhasználók számára attól függően, hogy a az adott rendszer milyen szintű kockázatot tud generálni. Ennek értelmében tilos lenne az emberek biztonságát veszélyeztető, például a tudatalatti vagy szándékosan manipulatív technikákat alkalmazó rendszerek alkalmazása, vagy olyanoké, amelyek társadalmi, viselkedési gazdasági helyzet és személyes jellemzőik alapján osztályoznak. A képviselők betiltanák a biometrikus megfigyelést és az érzelmek felismerését alkalmazó rendszereket is.

Az EP illetékes szakbizottságai kiterjesztenék a magas kockázatú területek besorolását úgy, hogy az magában foglalja az emberek egészségét, biztonságát, alapvető jogait vagy a környezetet károsító hatásokat is. Emellett magas kockázatúnak nevezték a szavazók politikai kampányokban való befolyásolására szolgáló mesterséges intelligencia-rendszereket, valamint a közösségimédia-platformok által használt ajánlórendszereket is. A szolgáltatóknak értékelniük és csökkenteniük kellene a kockázatokat, meg kellene felelniük a tervezési, tájékoztatási és környezetvédelmi követelményeknek, és regisztrálniuk kellene magukat egy uniós adatbázisban.

A generatív alapmodelleknek, az úgynevezett GPT-knek további átláthatósági követelményeknek kellene megfelelniük, például közzé kellene tenniük, hogy a tartalmat mesterséges intelligencia hozta létre, és közzé kellene tenniük a betanításhoz használt, szerzői joggal védett adatok összefoglalóit is.

A képviselők végezetül szeretnék erősíteni a polgárok azon jogát, hogy panaszt nyújthassanak be az MI-rendszerekkel kapcsolatban és magyarázatot kapjanak a jogaikat jelentősen érintő, nagy kockázatú rendszereken alapuló döntésekről. A képviselők megreformálnák az Európai Unió mesterséges intelligenciával foglalkozó hivatalának szerepét is, amelynek feladata lenne az MI-szabálykönyv végrehajtásának nyomon követése is.

(MTI)


Kapcsolódó cikkek

2024. június 28.

Hivatali visszaélésért ítélték el a zalai jegyzőt

Hivatali visszaélés és költségvetési csalás bűntettében mondta ki – nem jogerősen – bűnösnek a Zalaegerszegi Törvényszék azt a zalai jegyzőt, aki a 2022-es választások idején „visszaforgatott” magának némi pénzt – olvasható a birosag.hu-n.

2024. június 27.

A mesterséges intelligencia emberközpontú korszakának küszöbén állunk

Lehetnek-e a mesterséges intelligenciának jogai? Hogyan lehet emberközpontúan szabályozni a technológia használatát? Ki a felelős azért, hogy a mesterséges intelligencia milyen döntéseket hoz? Mit kell tudni a technológia emberi jogi és ipari vonatkozásairól? Az ELTE tudományos-ismeretterjesztő videósorozatának legújabb részében Darázs Lénárd, az ELTE általános rektorhelyettese tárja fel az MI jogi aspektusait.