Érzelemfelismerés – bárány, vagy báránybőrbe bújt farkas? (II. rész)


Mint a legtöbb bonyolult kérdés esetében, itt sem könnyű meghatározni, melyik oldal álláspontja a helytállóbb: a cikksorozat második része ezt a témát járja körül röviden.

Az előző részben már röviden bemutattuk az érzelemelemzés lehetőségeit írott szövegek esetében. Az érzelemfelismeréshez (emotion recognition – ER) képest ez egy sokkal egyszerűbb eset, de már itt is láthattuk, mennyire összetett problémáról van szó.

Az ER arra tesz kísérletet, hogy egy ember érzelmi állapotát video- vagy hangfelvételek elemzésével tegye lehetővé. Ehhez nagyrészt az arcfelismerésben már bevett eszközöket használja, azonban a cél itt nem (pusztán) konkrét személyek azonosítása, hanem azok hangulatának meghatározása. Ehhez főként az arckifejezések, esetleg összetettebb rendszerek esetében a testtartás, a metakommunikáció, valamint a hanghordozás megfigyelése használható fel.

A módszer talán akkor került először igazán előtérbe a közbeszédben, amikor felröppent a hír, hogy a kínai állam ennek segítségével profiloz például rendőrségi kihallgatáson lévő embereket, jellemzően az ujgur kisebbség tagjait. A népcsoport tagjaival szemben tanúsított megkülönböztető bánásmód miatt már régóta éri kritika a kínai kormányt. A hírek szerint a kisebbség tagjainak életét szervesen áthatja az a fajta agresszív adatszolgáltatási kötelezettség, amely mindennapjaik szinte minden területére kihatással van kezdve a DNS mintáktól és íriszszkenneléstől egészen a mobiljukon található privát adatokig. Az így kinyert információkat vélhetően olyan Big Data adatbázisokhoz kapcsolják, amelyek később még inkább segítenek a lakosság feletti kontroll kiépítésében és megszilárdításában. Vélhetően hosszútávon a Társadalmi Kreditrendszer is hasznosítani fogja az ilyen módon nyert információkat.

Talán éppen egy hasonlóan orwelli jövő víziója az, ami miatt az EU esetében az ER rendszerek fejlesztése mostanában éles ellenállásba ütközik.

Az ilyen rendszerek korlátozásának szószólói az ER rendszerek kapcsán főként azoknak az egyéni szabadságjogokra kifejtett negatív hatásait emelik ki. Ezek közül a legjelentősebbnek a véleménynyilvánítás szabadságának korlátozása tűnik. Érvelésük szerint ezen technológiák egyre inkább a mindennapi élet részévé válnak, amikor is a hatóságok azt „gyanús” személyek azonosítására alkalmazzák, vagy éppen, amikor iskolák a tanulók figyelmi szintjét monitorozzák a tanítás alatt. Legfontosabb következtetésük, hogy a hasonló gyakorlatokat még azelőtt be kell tiltani, hogy azoknak lenne ideje szervesen integrálódni a társadalmi folyamatokba.

Ezzel szemben a korlátozások ellenzői szerint az ER technológiák tiltása legfőképpen „anti-tech” szervezetek egy csoportjának (pl. Access Now, European Data Digital Rights) tudható be. Érvelésük szerint az ER alkalmazását ellenzők egyik legfőbb érve, hogy az európai kormányok nem használhatnák fel ezen megoldásokat alapvető szabadságjogok megsértésére, hiszen az EU-ban a polgári szabadságjogok és az emberi jogok a kínainál sokkal erősebb és kiterjedtebb védelemmel rendelkeznek. Néhány érvelés odáig is elmegy, hogy a hasonló csoportok ellenállását a bűnüldözéssel szembeni ellenállásként értelmezze. Emellett fel szokott merülni a technológia ellenzői körében gyakran előkerülő két fontos érv ellentmondásossága. Ez azon nyugszik, hogy egy technológia szükségszerűen nem lehet egyszerre invazív és olyan, amely nem működik hatékonyan, ezért pedig egyszerűen áltudománynak titulálják.

Ahogyan a legtöbb összetett kérdésnél megszokott, ez esetben sem egyszerű eldönteni, melyik oldal érvelése a helyes. Ha maradunk Kína példájánál, mint a hasonló rendszerek (európai szemmel) visszaélésszerű alkalmazásánál, azt láthatjuk, hogy egy ilyen megoldás, még ha nem is működik tökéletesen, igenis képes ártalmas következményekkel járni. A rendszer használata során például a felhasználóban óhatatlanul előítéletek képződhetnek meg, akár tökéletesen működik a rendszer, akár nem. Az sem teljesen tisztázott, hogy a jelenleg létező megoldások mennyire lehetnének pontosak, ha a kínaihoz hasonló mértékben állna rendelkezésre tanítóadat a fejlesztésükhöz.

Ahogyan már a sokkal egyszerűbb szentimentelemzési modellek példáján is láthattuk, a hasonló fejlesztések esetében rendkívül sok probléma és hibalehetőség adódik. ER rendszerek esetében az adatok inherens multimodális természete ezt csak tovább bonyolítja. Az ilyen alkalmazások kezdetlegességét látszólag jól jelzi, hogy még néhány évvel ezelőtt is jelentek meg írások, amelyek a szükséges tanítóadat hiányára hívják fel a figyelmet.

Fontos szem előtt tartani, hogy az EU jelenleg nem az ER, mint technológia teljes betiltását tűzte ki célul, mindössze néhány annak néhány kritikus területen történő alkalmazását. Ez egyébként összhangban van azzal a ténnyel is, hogy még néhány évvel ezelőtt is Horizon2020-as pályázatokban nyertek támogatást ER témakörben projektek.

Ha azt szeretnénk megítélni, mennyire jelenthet invazív technológiát egy valós időben működő ER rendszer, akkor nem elég a jelenleg létező rendszerekből kiindulni. Ha belegondolunk, alig másfél évvel ezelőtt a generatív mesterséges intelligencia csúcsát olyan rendszerek jelentették, amelyek szövegek tartalmát voltak csak képesek összefoglalni (többé-kevésbé pontosan). Az azóta eltelt másfél évben ezek a rendszerek nemcsak az interneten történő valós idejű keresésre, információk rendszerezésére lettek képesek, de elindultak a multimodalitás irányába is. Emlékeztetőül; multimodális rendszer alatt azt értjük, amikor többféle modalitát (írott szöveget, hanganyagot, képi információt) párhuzamosan tud egy rendszer feldolgozni. Ezt jól példázza az OpenAI által közzétett fejlesztések hosszú listája akár csak az elmúlt évből.

Nem lehetünk benne biztosak, hogy a mesterséges intelligencia egyéb területei mikor indulnak el egy hasonlóan robbanásszerű úton. Ha pedig olyan helyzetet képzelünk el, amelyben egy korábban megengedő szabályozás következtében hirtelen ellenőrizetlenné válnak egy technológia nem várt következményei, az könnyen válhat kvázi-disztópikus forgatókönyvvé.

Persze itt sem szabad elfelejtenünk, hogy az innováció akadályozása súlyos hátrányokkal járna az EU számára, ami a versenyképességet illeti az AI fejlesztések területén. Az AI Act jelenlegi tervezét sokszor éri az a kritika, hogy túlságosan defenzív, techno-pesszimista stratégiát követ. Elvégre igaz, hogy minden technológia pontosan annyira veszélyes, mint amennyire a használója azzá teszi, ez pedig az ER esetében sincs másképpen. Bárhogy is, a jelenlegi forgatókönyv szerint az EU még a lehetőséget sem kívánja megadni, hogy bármelyik tagállamában a Kínához hasonló megfigyelő állam épülhessen ki. Azt, hogy ez a fajta korlátozás mennyiben a helyzet túlreagálása, vagy lobbista csoportok tevékenységének eredménye és hogy mennyire korlátozza majd a versenyképességet, vélhetőleg csak utólag leszünk képesek megítélni.

A cikk szerzője Üveges István, a MONTANA Tudásmenedzsment Kft. számítógépes nyelvészeti szakértője, valamint a HUN-REN Társadalomtudományi Kutatóközpont projektkutatója.

A cikk angolul Emotion Recognition—a Sheep or a Wolf in Sheep’s Clothing? (PART II.) címmel a Constitutional Discourse oldalán jelent meg.


Kapcsolódó cikkek

2024. május 22.

Egyenlőtlenségek és lehetőségek a nagy nyelvmodellek világában

A mesterséges intelligencia fejlődése válaszút előtt áll. Attól függően, hogy hogyan alakítjuk a jövőt, válhat belőle mindenki számára elérhető, vagy csak a globális nagyvállalatok által privilegizált eszköz is. Az MI demokratizálása nemes és hasznos cél ugyan, de a kapcsolódó fejlesztéseket jelenleg mégis jelentős globális egyenlőtlenségek jellemzik. A kérdés az, mi ezen egyenlőtlenségek gyökere, és mit tehetünk, hogy felszámoljuk azokat?
2024. május 6.

A feketedoboz jelensége és következményei a mesterséges intelligencia alapú technológiákban

Vajon mennyire átlátható a mesterséges intelligencia működése? A „black box” kifejezés azt sugallja, hogy egy rendszer működése gyakran rejtély az emberek számára. De mi történik, ha például az OpenAI által fejlesztett ChatGPT algoritmus működését vizsgáljuk? És vajon ez a „fekete doboz” jelenség milyen kérdéseket vet fel a jogi és szabályozási követelmények teljesítésének képességéről, valamint a hibás döntésekért való felelősségről?