A feketedoboz jelensége és következményei a mesterséges intelligencia alapú technológiákban


Vajon mennyire átlátható a mesterséges intelligencia működése? A „black box” kifejezés azt sugallja, hogy egy rendszer működése gyakran rejtély az emberek számára. De mi történik, ha például az OpenAI által fejlesztett ChatGPT algoritmus működését vizsgáljuk? És vajon ez a „fekete doboz” jelenség milyen kérdéseket vet fel a jogi és szabályozási követelmények teljesítésének képességéről, valamint a hibás döntésekért való felelősségről?

2023.06.14-én az Európai Parlament elkezdte tárgyalni az első olyan átfogó szabályozást, amely tagállam-szerte hivatott lenne szabályozott keretek közé szorítani a mesterséges intelligencia, és az ilyen technológián alapuló rendszerek használatát (EU AI Act). A tervezetet 2024. március 13-án elfogadták, már csak kihirdetésre vár. Ez, és  a hozzá kapcsolódó tárgyalások ismét ráirányították a figyelmet a technológia azon aspektusaira, amelyek még napjainkban is kevéssé közismertek, és amelyek miatt az ilyen rendszerek visszaélésszerű használata számos kockázatot rejt magában.

A mesterséges intelligencia kutatások világában a „black box” egy metaforikus kifejezés, amely arra utal, hogy egy rendszer működése nem feltétlenül átlátható vagy teljesen megérthető az emberek számára. Ahhoz, hogy ez a jelenség érthető legyen, érdemes röviden megvizsgálni a ma leginkább nagyhatású algoritmusok (mint például az OpenAI által fejlesztett ChatGPT) mögött álló folyamatokat, amelyek során a mesterséges intelligencia „tudásra” tesz szert.

A mesterséges intelligencia mint kutatási terület számos tudományág kapcsolatán alapul (informatika, pszichológia, idegtudomány stb.), illetve magának is számos különböző részterülete van attól függően, hogy mi a fejlesztés fő célja (robotika, természetesnyelv-feldolgozás, szakértői rendszerek, gépi látás stb.). Napjainkban ezek közül mind a kutatások, mind pedig pedig az ide kapcsolódó ipari fejlesztések legfontosabb területe a gépi tanulás világa. Madártávlatból szemlélve egy gépi tanuláson alapuló eljárás három fő komponensből tevődik össze, amelyek

  1. egy algoritmus,
  2. a tanítóadatok, valamint
  3. a végeredményként előálló modell.

Az algoritmus valójában azért felelős, hogy hatalmas számú (feladatspecifikus) példa alapján képes legyen új „ismereteket”, pontosabban szólva az adatokban meglevő (akár az ember számára észrevehetetlen) mintázatokat elsajátítani. Azokat az adatokat, amelyek elemzésével ezt megteszi, tanítóadatoknak nevezzük. Az így megszerzett „ismereteket” ezután szükséges tárolni valamilyen formában, hogy az eredmények a későbbiekben is felhasználhatóak legyenek, ezért pedig az elkészített modell lesz a felelős.

Ennek a működésnek egy tipikus példája a nagy nyelvi modellek (LLM) működése. Az LLM-ek hatását a modern világra jól illusztrálja, hogy ilyen megoldás a GPT-4 nyelvmodell is, amelyen az OpenAI ChatGPT szolgáltatása alapul, de ugyanígy egy LLM áll a Google Gemini nevű (piacvezetőnek szánt) társalgási AI eszköze mögött is. Az LLM-ek legáltalánosabb feladata, hogy az emberi nyelvvel kapcsolatos és/vagy az emberi nyelven, írott formában jelen lévő információkat összegyűjtsék, értelmezzék és tárolják. Ilyen információk lehetnek például a nyelv nyelvtani szabályai, az egyes szavak szófajai, vagy éppen a nyelvet alkotó szavak jelentése a nyelvvel magával kapcsolatban, vagy éppen kérdésekre adott helyes válaszok sokasága, ha a modelltől chatbotszerű működést várunk el. A tanítóadatot hatalmas szöveges adatbázisok jelentik, az eredmény pedig egy olyan (már említett) modell lesz, amely később tovább tanítható számos speciálisabb feladatra is. Ilyen feladat lehet például a szentimentanalízis, amikor szövegek érzelmi tartalmát szeretnénk feltárni gépi tanuló modellek segítségével, vagy például egy tudásbázis alapján kérdések megválaszolása.

Hirdetés

DIGITAL COMPLIANCE BY DESIGN & LEGALTECH 2024

Üzlet, technológia és jog találkozása a digitális gazdaságban
A digitális gazdaság uniós szabályozási közege rendkívül komplex. Ha nem fordítunk kellő figyelmet a jogi-szabályozási szempontokra, a projekt elbukhat a jogszerűségen. Ha pedig nem a leghatékonyabb LegalTech eszközöket választjuk, a piac elszaladhat mellettünk, mire kijövünk az egyébként jogszerű, de idejétmúlt megoldással.
Időpont: 2024. május 8. Helyszín: Radisson Blu Béke Hotel
Információ és jelentkezés

Hogy mit is értünk black box alatt ezen modellek esetében, és hogy ez miért jelent problémát, azt két szinten is megközelíthetjük. Értelmezhetjük a gépi tanulási folyamat egyes részeinek nyilvánossága felől, valamint utalhatunk a terminussal az elkészült modellek interpretálhatóságára is.

Az első esetben, ha a gépi tanulás három említett komponense szempontjából vizsgáljuk a kérdést, azt találjuk, hogy ezek mindegyike lehet az átláthatatlanság forrása. Elképzelhető olyan eset, amikor az algoritmus maga nem nyilvános, ezáltal a tervezőn kívül mások számára megismerhetetlen annak pontos működési mechanizmusa. Megjegyzendő, hogy ez a legritkább eset. Egy másik eset az, amikor a modell tanításához használt adatok természete vagy forrása nem ismert a nagyközönség számára. Ennek ikonikus példája a már említett ChatGPT, amelynek tanításához egyes források szerint mintegy 570 GB nagyságrendű szöveges adat került felhasználásra, amelyek pontos mibenléte azonban nem nyilvános adat, vagy legalábbis a fejlesztő cég mindezidáig nem adott ezzel összefüggő pontos tájékoztatást, ahogyan maga az adathalmaz sem elérhető semmilyen nyilvános felületen. Az utolsó esetben maga a folyamat eredményeképpen létrejött modell az, amely nem hozzáférhető. Ez természetesen lehetetlenné teszi, hogy különböző eljárásokkal a benne tárolt információ elemezhető vagy értelmezhető legyen.

A fentiek a legtöbb esetben valamilyen jogos üzleti érdekből kiinduló döntések, hiszen amennyiben egy teljes gépi tanulási eljárás könnyedén rekonstruálható (mint ahogyan az kutatási projektek esetében például alapvető követelmény), akkor a versenytársak jelentős előnyre tehetnek szert például azáltal, hogy egy már meglevő megoldás talajáról indulva fejlesztenek újabbakat, jelentős idő- és pénzügyi ráfordítás megspórolása mellett.

A második esetben a black box terminusa a gépi tanulás még egy jellemzőjére is utalhat, amely főként a neurális hálók és a mélytanulás világában bír jelentős szereppel. Az eddig említett három lehetőség és a black box jelleg kialakulása alapvetően emberi szándéknak tulajdonítható, éppen ezért megoldásuk is elvi szinten triviális (még ha a gyakorlatban nehezen megvalósítható, kikényszeríthető is); az egyes komponensek nyilvánossá tétele. A modellek belső működése azonban sok esetben maga is annyira komplexszé válhat, hogy még annak nyilvánossága esetén is kérdéses, hogyan lehetséges interpretálhatóvá tenni az egyes eredményeket, amelyek annak használatával keletkeznek.

Ismét csak a nyelvmodellek, és a legtöbb nyelvmodell alapját képező neurális hálózatok példájánál maradva az ilyen modellek belső működése sok esetben még a szakértők számára is átláthatatlan. A modellek általánosan valamilyen inputot kapnak, amelyre válaszként egy output-ot hoznak létre. Képfeldolgozásban az input lehet például egy kép, az output pedig a döntés, hogy mi látható az adott képen. Nyelvmodellek esetén az inputot jelentheti egy mondat, a kimenetet pedig egy döntés az adott mondat érzelmi tartalmáról. De hasonló példa a jog területéről például bírósági határozatok automatikus tartalmi összefoglalójának generálása, vagy éppen azok szerkezeti elemeinek (pertörténet, bíróság döntése stb.) automatikus azonosítása. A kapcsolatot a bemenet és a kimenet között a modell belsejében sok esetben sok százmillió, vagy akár milliárd paraméter adja meg. Ezek valójában a háló neuronjai közötti kapcsolatok egy-egy szám értékkel, amelyekkel a modell a megtanult információt kódolja, és amelyek segítenek neki a döntések meghozatalában. Ahhoz, hogy megérthessük, hogyan keletkezik az inputból output, értenünk kellene az összefüggést ezen kapcsolatok, valamint az általuk tárolt értékek és a bemenet-kimenet pár között. Nyilvánvaló, hogy ez (már csak a paraméterek számossága miatt is) rendkívül nehéz feladat, amely emberi ésszel önmagában feldolgozhatatlan problémát jelent.

Amennyiben egy gépi tanulási modell döntéseinek háttere szándékos döntések, vagy szimplán a technológia egyes inherens jellemzői miatt nem megismerhető, az számos káros következményt vonhat maga után. Az AI előítéletessége azt a jelenséget tükrözi, amikor tudatos fejlesztői döntések, észrevétlen hibák, vagy éppen az adatokba ártó szándékkal bejuttatott torzítások miatt a modell által adott döntések tendenciózusan hátrányosak lesznek valamely csoport (például kisebbségek) számára. Amennyiben például egy bank hitelminősítéshez használ gépi tanulási modellt, a modell könnyen juthat olyan következtetésre, hogy egy adott területen a kihelyezett hitelek megtérülése alacsony és a hitel folyósítás kockázatos, éppen ezért kerülendő. Amennyiben a területen a lakosság többsége valamilyen (például etnikai) kisebbségbe tartozik, könnyen előállhat olyan általánosítás, amely során a kisebbség tagjai soha nem kaphatnak pozitív hitelbírálatot a tanítóadatban jelenlevő (akár véletlen) korreláció miatt. A valós életbeli, az AI elfogultságából eredő problémák sok esetben a fentinél árnyaltabbak, valamint csak nagyon nehezen felismerhetők, éppen ezért jelentős károkat okozhatnak, amennyiben kezelésük nem elég hatékony, amellett, hogy a fentivel rokon esetek például a diszkrimináció tilalmába is ütköznek.

Az átláthatóság és az elszámoltathatóság hiánya főként a neurális modellek kapcsán jelenthet problémát, alapja pedig a bemenet és a kimenet közötti kapcsolat elemezhetetlensége. Főként orvosi alkalmazások esetében kiemelt jelentősége van, hogy például egy diagnózis esetén ne pusztán a végeredmény, de az oda vezető okok és következtetések láncolata is megismerhető legyen a szakértők számára. Ha a modell döntéseinek oka nem megismerhető, akkor a hibás döntésekért vállalt felelősség kérdése is tisztázatlan marad.

A black box mesterséges intelligencia rendszerek használata esetén bonyolult lehet a jogi és szabályozási követelményeknek való megfelelés. Egyes szabályozások, például a GDPR, biztosítják az egyének számára a magyarázathoz való jogot, és átláthatóságot követelnek az automatizált döntéshozatalban. Ha azonban egy AI-rendszer belső működése nem értelmezhető vagy magyarázható, akkor a hasonló szabályozási követelményeknek való megfelelés is ellehetetlenülhet.

A fentieket az EU-s mesterséges intelligencia szabályozás a jelek szerint főként az egyes AI-alapú megoldások kockázati osztályokba sorolásával, valamint az ezen osztályokhoz tartozó korlátozások bevezetésével igyekszik kezelni a rohamosan fejlődő technológia jelentette kihívásokat. Talán a legfontosabb kérdés, hogy hosszútávon miképpen lehet összeegyeztethető az egyén jogait a jelenleginél sokkal határozottabban megvédő jogi szabályozás például az Unió digitális szuverenitásra vonatkozó célkitűzéseivel? Az adatalapú gazdaság korában, amikor is a legfőbb értéket a felhasználókról begyűjtött adatok jelentik, a lazább szabályozási környezet versenyelőnyt jelent még akkor is, ha a kapcsolódó morális és etikai aggályok, valamint a technológia felelőtlen alkalmazásából adódó társadalmi károk hosszú távon semmissé teszik ezen kezdeti előnyöket.

A legfontosabb kérdés azon egyensúly megtalálása, amelyben a szabályozási környezet a jelenleginél sokkal szigorúbban elszámoltathatóvá teszi a nagyvállalatokat az általuk alkalmazott technológiák következményei, valamint az általuk ezekhez begyűjtött adatok vonatkozásában, azonban támogatja a felelősen alkalmazott mesterséges intelligencia alapú megoldásokat a versenyképesség növelése, és az ilyen technológiák nyújtotta valós előnyök kiaknázhatósága érdekében. Tekintettel arra, hogy az AI napjaink talán leggyorsabban fejlődő területe, ez a különbségtétel talán minden egyes új elért technikai eredménnyel nehezebbé válik.

A cikk szerzője Üveges István, a MONTANA Tudásmenedzsment Kft. számítógépes nyelvészeti szakértője, valamint a HUN-REN Társadalomtudományi Kutatóközpont projektkutatója.

A cikk angolul Europe’s AI Legislation Sparks ‘Black Box’ Debate: Unraveling Tech’s Gifts and Risks címmel a Constitutional Discourse oldalán jelent meg.


A cikk a Wolters Kluwer Hungary Kft. termékeire/szolgáltatásaira vonatkozó reklámot tartalmaz.


Kapcsolódó cikkek

2024. április 17.

Miért (ne) antropomorfizáljuk a generatív mesterséges intelligenciát? – 1. rész

Úgy tűnhet, a mesterséges intelligencia napjainkban egyre inkább az emberhez hasonlóvá kezd válni. Ennek hátterében a tudomány fejlődésének természetes következményei és néha tudatos emberi döntések állnak. Milyen jelenségek állnak a folyamat mögött, és hogyan fogja ez a trend befolyásolni a mindennapjainkat a közeljövőben?