Etikus gépek – a helyes döntés és a morálisan helyes döntés problémája a gépi tanulásban


A technológia fejlődésével párhuzamosan egyre inkább felmerül a kérdés, hogy vajon a mesterséges intelligencia képes lesz-e etikus döntéseket hozni? A cikk az MI és az etika kapcsolatát, valamint a felmerülő problémákat vizsgálja.

Habár az emberek között járó, velük interakcióba lépő robotok koncepciója már egészen az ókori mitológia óta jelen van, a társasalom működésébe beavatkozni képes mesterséges intelligencia csak napjainkban válik valósággá. Ahogyan a mindennapokban egyre inkább támaszkodunk a technológia nyújtotta megoldásokra, felmerül a kérdés, hogy a jövő mesterséges intelligencia alapú megoldásai képesek lehetnek-e nem csak helytálló, de etikus döntéseket is hozni? A jelen írásban éppen ezért az etikus AI kapcsán felmerülő kérdéseket, valamint a jelenleg ismert fontosabb problémákat és a rájuk adható válaszokat vesszük sorra röviden.

2024-re elmondhatjuk, hogy a mesterséges intelligencia (AI) az életünk egyre több területén jelen van, néhol egészen nyilvánvaló, máshol rejtettebb formában. AI algoritmusokkal találkozhatunk olyan teljesen ártalmatlan környezetekben is, mint például az e-mail kliensek spam szűrői, médiaszolgáltatók tartalomajánló rendszerei, vagy éppen egyes cégek ügyfélszolgálatainak chatbotjai képében. Ezekre általában igaz, hogy olyan döntések meghozatalában segédkeznek, amelyek könnyebbé vagy kényelmesebbé teszik az életünket, azonban jelentős hatást egyik sem gyakorol a jövőnkre. A már jelenleg is ismert alkalmazások közül azonban nem mind ennyire „ártalmatlan”, elég csak a közösségi média platformok rendszereire gondolni, amelyek az érdeklődési körünknek megfelelő tartalmak erős priorizálása által véleménybuborékokba zárhatnak minket, vagy éppen az ártó szándékkal alkalmazott mesterséges intelligenciára (weaponized AI), amely alkalmas lehet például választási manipulációk támogatására.

A jelenlegi trendek alapján a közeljövőben a gépi tanuláson alapuló rendszerek képességeinek további fejlődése és elterjedtségük gyors növekedése várható. Habár az általános mesterséges intelligencia (Artificial General Intelligence – AGI) megjelenése még a legoptimistább (de azért realista) becslések szerint is évtizedekre van, jól látható, hogy már a jelenleg létező megoldások is milyen társadalmi, pénzügyi és biztonsági kockázatot jelenthetnek felelőtlen kezekben. A (valószínűleg nem túl távoli) jövőben az AI-nak döntéseket kell majd hoznia olyan helyzetekben, amelyek kimenetele jelentősen befolyásolja emberek életét. Ez felveti a kérdést, hogy az ilyen jellegű döntések meghozatala előtt van-e mód arra, hogy olyan információt / tudást kódoljunk az érintett rendszerekbe, amely valamiképp leképezi az értékrendet, amely eredményeképpen emberi fogalmak szerint morálisan helyes, avagy etikus döntések születhetnek?

A jelenlegi gépi tanuló rendszerek alapja az az adat (tanítóadat), amely alapján a tanulást felügyelő algoritmus elsajátítja az abban rejlő mintázatokat, majd a későbbiekben ezek segítségével hoz „döntéseket” új helyzetekben. Legegyszerűbb megközelítésben az etikus AI megteremtése is nagyjából hasonló módon képzelhető el; hatalmas mennyiségű tanítóadat birtokában feltételezhetjük, hogy az algoritmus képes elsajátítani azokat a mintákat, amelyek az emberi értelemben vett moralitást jellemzik (persze mindezt a – jelenleg – csak az emberre jellemző önreflexió és empátia képessége nélkül, pusztán az adatokra támaszkodva). A kérdés jobb megértéséhez érdemes egy már létező, gyakorlati példából kiindulni.

A Moral Machine Experiment egy 2018-as projekt volt, amelyben filozófusok és adattudósok több mint 200 országból mintegy 40 millió választ gyűjtöttek össze a híres „troli probléma” megoldására vonatkozóan. Ez talán az egyik leghíresebb gondolatkísérlet, amelyben a döntéshozó feladata valójában egy „lehetetlen” döntés meghozatala saját morális elveinek engedelmeskedve. Az alap szituációban a válaszadó egy trolit vezet, amikor is észreveszi, hogy a fék meghibásodott a járművön. Egy váltóhoz közeledve azt tapasztalja, hogy amennyiben a jelenlegi útvonalán halad tovább, a sínen öt emberrel fog ütközni, akik így belehalnak a találkozásba. A váltó átállításával egy másik sínre terelheti a járművet, ahol azonban szintén áll egy ember, akinek ez a döntés a halálát okozza. A kérdés leegyszerűsítve tehát arról szól, hogy ilyen helyzetben a válaszadó nem cselekszik, és ezáltal passzívan okozza 5 ember halálát, vagy cselekszik, ezzel mintegy „szándékosan” megölve egy embert?[1]

A kísérlet rávilágított többek között arra a preferenciabeli különbségre, amely például a kollektivista és individualista társadalmakat jellemzi, de a nyugati és keleti kultúra válaszadói is jelentősen eltértek például a passzivitásra (nem cselekvésre) való hajlam tekintetében. A kapott válaszok változatossága, valamint ország- és kultúraspecifikus volta önmagában is felveti a kérdést, hogy mennyiben lehetséges az etikai döntések demokratizálása (közmegegyezésre bocsátása) által stabil alapot teremteni ilyen döntéseket meghozni képes gépi tanuló modellek programozásához?

A helyzetet tovább nehezíti a gépi tanulási megoldások alapvető felépítése. Ahogyan említettük, ezek minden esetben a kapott adatokból sajátítják el a feladatuk megoldásához szükséges tudást. A Moral Machine példája egy olyan tiszta eset, amikor (amennyiben a válaszokat közvetlenül tanítóadatként használnánk például közlekedési helyzetek megítélését végző önvezető autók esetében) egyfajta moralitás már kezdetben is a tanítóadatokba van kódolva.

A jelenlegi gépi tanulási modellek ezzel szemben inherensen feladatorientáltak, azaz jellemzően egyetlen céllal készülnek és csakis annak a megoldására alkalmasak. A problémát az jelenti, hogy valójában a legtöbb esetben nincs rálátásunk arra, hogy van-e jelen valamilyen morális értékrend azon adatokban, amelyekkel az algoritmus a döntéseket meghozó modellt előállította? Több példát is ismerünk, amikor egy-egy modell rasszista vagy éppen szexista előítéleteket halmozott fel a betanulás során, amelyre azonban már csak az üzembe helyezés és a használat megkezdése után derült fény.[5] Egy elméleti megoldás lehetne, hogy a már létező modelleket továbbtanítjuk speciálisan a preferált morális értékeket képviselő adatokkal, ez azonban a legtöbb esetben nem kivitelezhető a gépi tanulási modellek egy technikai jellegzetessége miatt. Ahogyan már írtunk róla, a gépi tanulási algoritmusok a megszerzett tudást egy modellben raktározzák el. Ez a modell felelős később a döntések meghozataláért a tanulási fázis végén. Amennyiben a már kész, jól működő modellnek újabb példákat mutatunk, ez az eredmény sajnos nem hozzáadódik a már meglevő „tudáshoz”, hanem felülírja azt (catastrophic forgetting). Ennek következtében a modell nem megtartja az eredeti feladatát, hozzávéve a kapott új (etikai jellegű) információt, hanem mintegy elfelejti az eredeti rendeltetését. Persze arról sem feledkezhetünk meg, hogy valójában nincs ráhatásunk, milyen mintázatokat tanul meg a modell az új adatokból, azaz, hogy azt fogja elsajátítani, amit szeretnénk, de ez ismét csak egy másik kérdés.

A megoldás tehát már az első betanítás előtt az adatok szűrése, validálása lehet, amellyel biztosítjuk, hogy a modellek kimenete az elvárt etikai normáknak megfelelően működjön. Tegyük hozzá, hogy a tanítóadatok mennyisége miatt ez sem triviális feladat, különösen, hogy az adatokban jelenlevő előítéletek sok esetben nem is nyilvánvalók, vagy nem könnyedén visszakövethetők.

A Moral Machine tapasztalatai fontos információt jelentenek a jövő emberei között mozgó, velük interakcióba lépő gépeinek fejlesztése szempontjából, azonban legalább ugyanennyi kérdést megválaszolatlanul is hagynak. Ezek közül talán a legfontosabb – ahogyan már érintettük –, hogy morális értékrend meghatározásakor a többségi döntés vajon mindig korrelál-e az etikus döntéssel? Elég csak a második világháborús Németországra gondolnunk, hogy ezt megkérdőjelezzük, de nem szabad elfelejtenünk azt sem, hogy a modern nyugati világ értékrendjét évszázadokon át a keresztény kultúra határozta meg, amely az etikával kapcsolatos mai nézeteinkben is erősen tetten érhető. Ez azonban nem tekinthető egy kultúrák közötti univerzálénak.

A gépi tanulás adatorientáltsága miatt ezen felül az AI kutatóknak rendkívül explicit, mérhető és számszerűsíthető értékekkel kellene jellemezniük az etikai szempontokat ahhoz, hogy azok napjaink és a közeljövő gépi tanulási modelljeibe belekódolhatók legyenek. Ehhez legalábbis az emberi válaszadók teljes egyetértésére lenne szükség (például adatgyűjtés során), ami nem lehetetlen, de ismét csak problémás. Nincs garancia ugyanakkor arra sem, hogy egy fiktív helyzetben meghozott elméleti döntést a valóságban is ugyanúgy hoznánk-e meg. Vajon egy olyan válaszadó, aki a villamos probléma esetén a kérdés feltételekor félrerántaná a villamost, hogy ezzel megmentsen 4 életet, a valóságban is megtenné-e ezt, tudva immár, hogy így az ő saját, aktív döntése okozza majd egy ember halálát? Mindemellett felmerül az is, hogy az adatközlőktől begyűjtött válaszok általában rendkívül konkrét helyzetek leírását tükrözik, a valós életben azonban számtalan helyzetben lehet szükség hasonló döntések meghozatalára. Csakúgy, mint a jogban, a gépi tanulás világában sem lehetséges minden elképzelhető helyzetet előre konkrétan leírni, ezért a generalizálás már a modell feladata kell, hogy legyen. A megoldandó feladat ezzel kapcsolatban tehát az, hogy biztosítsuk a modell általánosítási képességét mindössze néhány konkrét helyzet leírása, és az elvárt válasz specifikálása által.

A problémakör növekvő ismertségét és népszerűségét jól jelzi, hogy az elmúlt években egy konkrét kutatási irány is kialakult, amelynek célja, hogy a gépi tanulási modellek kimenetét egy általános elváráshoz, értékrendhez legyen képes igazítani, ezzel csökkentve az ilyen megoldások működésében sok esetben a mai napig jelenlévő bizonytalanságot (AI alignment). Az irányzat szószólói a legtöbb esetben azzal érvelnek, hogy az emberi döntéshozatalt számos olyan (a döntés aktuális kontextusából eredő) faktor is befolyásolja, mint például az egyéni tapasztalatok, kulturális normák, empátia, személyes értékrend, amelyek eredőjeként az ember képes egymástól megkülönböztetni a és a rossz fogalmát, majd ennek tükrében mérlegelni a döntéseit. A cél az, hogy ezen többlettudást a gépi tanulási modellek is számításba tudják venni egy-egy adott helyzetben.

Megjegyzendő ugyanakkor, hogy az irányzat a probléma megoldását főként a fejlesztők hatáskörébe utalja, tekintettel arra, hogy a modellek kimenetére ők lehetnek a legnagyobb hatással. Az ellenzők szerint azonban ez több problémát is felvet, amelyek közül talán a legfontosabb, hogy ilyen esetben pusztán emberek egy kis csoportja határozná meg, mi számít valójában etikusnak, szemben a korábban már említett demokratizált megközelítéssel. Ennek már ma is láthatjuk előjeleit, elég csak a piacvezető generatív mesterséges intelligencia megoldások fejlesztőire gondolni. Ez főleg annak következménye, hogy az AI alignment támogatói az etikai elveknek a gépi tanult megoldásokba való kódolását főként technikai, és nem társadalmi, jogi vagy éppen filozófiai problémaként kezelik.

Egy másik ellenérv szerint a megoldás olyan (jelenleg még nem létező) problémákra kíván reflektálni, amelyek leginkább csak az általános mesterséges intelligencia (AGI) kapcsán merülhetnek fel érdemben. Ez maga után vonja, hogy a kutatásra szánt idő és pénz értékes erőforrásokat von el olyan társadalmi problémák megoldásától, amelyek már napjainkban is léteznek és amelyek fő forrását a jelenleg alkalmazott AI megoldások felelőtlen alkalmazása jelenti. Mindemellett megjegyzendő az is, hogy az AI alignment fogalma a legtöbb esetben rendkívül homályosan van csak definiálva, amely persze lehet annak a következménye is, hogy egyelőre rendkívül fiatal kutatási irányzatról van szó, amely éppen csak az útkeresés fázisában jár.

Mindezek tükrében egyelőre úgy tűnik, hogy habár az etikus döntéseket meghozni képes rendszerek fejlesztése a jövőben elengedhetetlen lesz, a napjainkban működő megoldások felülvizsgálata pedig egyre sürgetőbb, a probléma még csak most kezd növekvő figyelmet kapni. A mesterséges intelligencia kutatások jelen állása szerint az elvárt morális elveknek megfelelő működés leginkább a tanítóadatok gondos válogatása, valamint a folyamatos, célzott minőségbiztosítás útján lehetséges. A megoldáshoz elengedhetetlen az AI demokratizálása és a fejlesztésekkel kapcsolatos transzparencia növelése is. Annak érdekében, hogy a mesterséges intelligencia valóban az életet megkönnyítő, és az embereket segítő technológia lehessen, elengedhetetlen a visszaélések megelőzése és a felelőtlen alkalmazások korlátozása, amelyben a mindenkori jogalkotónak is kiemelt szerepe lesz.

A cikk szerzője Üveges István, a MONTANA Tudásmenedzsment Kft. számítógépes nyelvészeti szakértője, valamint a HUN-REN Társadalomtudományi Kutatóközpont projektkutatója.

A cikk angolul Ethical Machines – the Problem of Right Decision and Morally Right Decision in Machine Learning címmel a Constitutional Discourse oldalán jelent meg.


[1] A problémának egyébként számos változata ismert, amelyekben a sínen állók életkora, egészségi állapota, de még az is változhat, hogy a leírás szerint a válaszadó esetleg ismeri-e valamelyik személyt a sínen állók közül, vagy éppen rokonságban áll-e vele. Ezek mind olyan faktorok, amelyek összefüggését a problémára adott válasszal számos kísérlet vizsgálta már.


Kapcsolódó cikkek

2024. július 15.

Amikor a mesterséges intelligencia megmérgezi magát: a beazonosíthatatlan szintetikus adatok problémája

A generatív mesterséges intelligencia terjedése maga után vonta a nem ember által létrehozott képek, szövegek videók rohamos elszaporodását is. Egyes új kutatások arra utalnak, hogy az ilyen „szintetikus adatok felhasználása új GAI (Generative artificial intelligence, azaz generatív mesterséges intelligencia) modellek tanítása során katasztrofális következményekkel járhat. Ez még inkább sürgetővé teszi a mesterségesen generált tartalmak explicit jelölésének kötelezettségét, amennyiben a jövőben továbbra is profitálni szeretnénk az MI nyújtotta gazdasági és társadalmi előnyökből.