Miért (ne) antropomorfizáljuk a generatív mesterséges intelligenciát? – 1. rész


Úgy tűnhet, a mesterséges intelligencia napjainkban egyre inkább az emberhez hasonlóvá kezd válni. Ennek hátterében a tudomány fejlődésének természetes következményei és néha tudatos emberi döntések állnak. Milyen jelenségek állnak a folyamat mögött, és hogyan fogja ez a trend befolyásolni a mindennapjainkat a közeljövőben?

A mesterséges intelligencia alapú, vagy azzal támogatott szolgáltatások mára mindennapjaink részét képezik. Akár tudatában vagyunk, akár nem, ezek a szolgáltatások szervesen jelen vannak a közösségi média tartalomajánlásai mögött húzódó algoritmusokban, a legnagyobb keresőmotorok mögött, vagy akár legnépszerűbb kérdésmegválaszolásra tervezett chatbotokban is. A technológiai fejlődés ma már olyan szinten áll, hogy az emberekkel interakcióra lépni is képes AI alkalmazások kapcsán gyakran kerül elő, hogy azok képességei mennyire emberhez hasonlóak, vagy inkább csak „szimuláltak”. Tény, hogy a fejlesztőknek a legtöbb esetben elemi érdeke, hogy a termékeik képességeit a leginkább kidomborítsák. Az ezen képességekből levonható következtetéseket pedig ezután mindenki maga állapíthatja meg.

Az egyik trend, ami a mai legmodernebb generatív mesterséges intelligenciákat (pontosabban az alapjukként szolgáló nyelvmodelleket) jellemzi az antropomorfizáció. Ezt a kérdést két oldalról is megközelíthetjük. Beszélhetünk egyrészt arról a jelenségről, amikor a felhasználó találkozik valamilyen mesterséges intelligenciát alkalmazó rendszerrel, és annak vélt vagy valós képességei alapján azt többé-kevésbé emberszerűnek fogadja el. Másrészt megvizsgálhatjuk, milyen hatásai vannak, ha a gyártók a termékeiket (akár a hatékonyság, akár az azokat övező bizalmi szint növelése érdekében) egyre inkább emberszerűvé teszik. Ezek közül elsőként vizsgáljuk meg, miért vagyunk hajlamosak az emberi intelligencia, és az emberi viselkedés nyomait látni ott, ahol azok valójában nincsenek is jelen.

Erre jó példa az LLM-ek működése, amelyek kapcsán a ChatGPT megjelenése óta állandó téma azok valós teljesítményének értékelése, emberhez mérhető(?) képességei. Fontos előrebocsátani, hogy a legtöbb tech cég rendkívül óvatosan bánik az olyan kijelentésekkel, amelyek az általuk fejlesztett mesterséges intelligenciák emberhez hasonlóságát méltatná. A kérdést legtöbb esetben a hatékonyság oldaláról közelítik meg, mintegy az adott eszköz teljesítményének kidomborítása érdekében. Ennek ellenére a téma nem mentes a botrányoktól. A Google például nemrég menesztette egyik mérnökét, aki nyilvánosan is azt állította, hogy a cég által fejlesztett társalgási nyelvmodell (LaMDA) érzésekkel bír (sentient). Az eset egyik lehetséges magyarázatáról itt írtunk bővebben.

Élő (emberszerű) tulajdonságokkal felruházni élettelen dolgokat minden jel szerint egy tipikus emberi vonás. Kicsit konkrétabban, az antropomorfizmus kifejezéssel arra a pszichológiai jelenségre szokás utalni, hogy az emberek hajlamosak úgy társas kapcsolatba lépni nem emberi entitásokkal, mintha ezek is emberi lények lennének. Az ilyen entitások lehetnek állatok, növények, de akár természeti vagy társadalmi jelenségek, illetve technológiai „eszközök” (úgy hardver, mint szoftver) is. Elég csak arra gondolni, amikor a gyerekek például szerepjátékok során élőként tekintenek a játékaikra, amely egyébként a fejlődésük egyik természetes állomása is. Esetükben mindvégig megfigyelhető egy éles határ a szerepek észlelésében, azaz a gyerekek valójában pontosan tisztában vannak vele, hogy az adott objektum valójában nem élő és nem rendelkezik emberhez hasonló valós tulajdonságokkal.

Gyermekkorban ez abban segít, hogy az őket körülvevő világot képesek legyenek interpretálni még akkor is, ha annak eseményei mögött sokszor olyan okokozati kapcsolatok húzódnak meg, amelyeket abban a korban még nem érthetnek meg. Bármennyire bizarrnak is tűnhet elsőre a párhuzam, könnyen lehet, hogy a generatív mesterséges intelligenciával kapcsolatban is hasonló helyzet alakulhatott ki. Ennek egyik oka feltehetőleg az, hogy igazából rendkívül kevés információval rendelkezünk ezek működéséről, illetve az sem teljesen tisztázott, hogy képességeiket hogyan lehetséges adekvát módon mérhetővé tenni.

A mélytanuláson alapuló modellek működése a gyakorlatban közismerten nehezen interpretálható. A hasonló modellek (például az LLM-ek közé tartozó GPT modellcsalád is) több százmillió, vagy akár milliárd mesterséges neuron kapcsolatán, valamint a bennük tárolt szám értékeken keresztül képezi le a tanítóadataiban jelenlevő információkat. Ahhoz, hogy megtudjuk, milyen kapcsolat van egy input és egy output között, nemcsak azt kellene tudnunk, mely neuronok felelősek az utóbbiért, de azt is, hogy mit jelent a bennük kódolt információ. Ennek a fajta interpretálhatóságnak a megteremtése nemcsak a mesterséges intelligencia kutatásokat jellemző egyik legnagyobb kihívás napjainkban, de aktív kutatási terület is.

Valójában gyakran alakul olyan helyzet, amikor még a szakértők is híján lehetnek a saját maguk által tervezett eszközök működését magyarázni képes módszereknek. Ez pedig ideális táptalajt nyújt nemcsak különböző találgatásoknak és elméleteknek, de annak is, hogy a felhasználók azonosítsák például az egyes modellek kimenetének minőségét a mögötte húzódó mesterséges intelligencia emberszerűségével.

A generatív AI valós képességei körüli bizonytalanságot tovább árnyalja, hogy például az OpenAI a GPT-4-es modelljük bejelentésekor (2023 márciusában) egy rendkívül impozáns listát is közzétett, amely a modell által teljesített szakmai és egyetemi felmérések hosszú sorát tartalmazza. Ezen nem csak középiskolai tesztek, de például a BAR vizsga is helyet kapott.

Bár az itt listázott eredmények valóban figyelemreméltók, kérdéses, hogy mennyire függenek össze a modellek valós (emberi értelemben vett) intelligenciájával. Nem szabad ugyanis elfelejtenünk, hogy ezeket a teszteket kivétel nélkül emberek képességeinek vagy adott területen elért tárgyi tudásának a mérésére alakították ki. Az igazság az, hogy jelenleg nem rendelkezünk olyan eszköztárral, amely képes lenne azt megmérni, hogy egy gépi tanult modell mennyire képes emberi értelemben is intelligensen „viselkedni”.

Az emberek esetében már hosszú története van annak, hogy hogyan és miképpen mérünk egyes készségeket, amelyeket az intelligencia fokmérőjeként szokás emlegetni. Habár egyre szélesebb körben válnak ismertté olyan nézetek is, hogy nemcsak egy, de akár egyenesen 9 különféle készség halmaz az, amelyeket összefoglalóan intelligenciának nevezhetünk. Az emberek esetében tudjuk, hogy ezek a tesztek valóban mérnek valami olyat, ami meghatároz bennünket. Gépi rendszerek esetében ellenben még csak most folynak kísérletek, hogy mi is az, amit igazából mérnünk kellene.

Mindez a bizonytalanság kiváló táptalajt nyújt ahhoz, hogy az eredményeket, melyeket a mai legnépszerűbb MI eszközök produkálnak, valamiféle emberi képességnek tudjuk be. A nagy cégek sok esetben törekednek is arra, hogy a termékeiket emberszerűbbé tegyék. A személyi asszisztensek esetében teljesen megszokott jelenség, hogy azok képesek hangalapú információt fogadni, és erre emberi nyelven, emberi hangon válaszolni. Ez valójában csak a már korábban is létezett ember-gép interfész kiterjesztése az emberek között megszokott kommunikációs csatornára.

A cikk szerzője Üveges István, a MONTANA Tudásmenedzsment Kft. számítógépes nyelvészeti szakértője, valamint a HUN-REN Társadalomtudományi Kutatóközpont projektkutatója.

A cikk angolul Why (Not) Anthropomorphize Generative Artificial Intelligence? PART I.  címmel a Constitutional Discourse oldalán jelent meg.


Kapcsolódó cikkek

2024. március 27.

A mesterséges intelligencia által generált tartalmak vízjelezése: megoldás vagy látszatmegoldás?

A generatív mesterséges intelligencia (generative artificial intelligence – GAI) felemelkedése elkerülhetetlenül maga után vonja a használatával létrehozott félrevezető tartalmak terjedését is. Nagyrészt az erre való reagálásként egyre inkább a közbeszéd tárgyává válik a mesterségesen generált tartalmak (szövegek, videók, hanganyagok) explicit jelölésének problémája. A készülőben lévő szabályozások kapcsán komoly kérdés azok betartatása, nem beszélve a technológia rosszindulatú felhasználása során keletkező tartalmak azonosíthatóságáról.