Öntudatra ébredt mesterséges intelligencia? Miért fontos, hogyan teszünk fel kérdéseket a nagy nyelvmodelleknek?


Vajon van-e öntudat a gépek mögött, vagy csak egy fejlett programozás eredményét látjuk? A cikk röviden körbejárja, hogy tényleg éreznek-e a nagy nyelvi modellek, vagy csak a kódjuk írja elő a „viselkedésüket”.

Múlt évben nagy port kavart a hír, mely szerint a Google elbocsátotta egyik senior fejlesztőjét. Blake Lemoine állítása szerint a cég egyik akkori legújabb nyelvmodelljével, a LaMDA-val folytatott „beszélgetései” alapján kijelenthető, hogy az eszköz érzésekkel rendelkezik (sentient), amelynek a beszélgetések során autentikus jelét mutatta. Bár az eset nem ma történt, a nagy nyelvi modellek egyre elterjedtebbek lesznek, így tehát fontos átgondolnunk, mit is jelent egy-egy szöveg, amelyet a használat során produkálnak.

Lemoine megosztotta a beszélgetések leiratát (néhány szükségesnek ítélt módosítással), amelyet a Google által fejlesztett LaMDA nyelvmodellel folytatott. Az ilyen interakciók a munkájának részét képezték, amelynek során feladata volt, hogy a modell kimenetét diszkriminatív vagy gyűlöletbeszéd jelenléte szempontjából felmérje. Igazán nagy port a fejlesztő azon kijelentése kavart, amely szerint a nyelvmodell érzésekkel rendelkezik.

A kijelentés amiatt is rendkívül érdekes, hiszen több kutató szerint ahhoz, hogy valamilyen entitás képes legyen érezni, elsőként öntudattal kell, hogy rendelkezzen. A science-fiction irodalomban már régóta jelenlévő, néha disztópikus, máskor utópisztikus toposz az öntudatra ébredő gépek témája. Mindez azonban eddig a pontig pusztán fikció volt. Vagy továbbra is az? Fontos leszögezni, hogy a hasonló, még fejlesztés alatt álló modellek  „viselkedése” kapcsán nagyon nehéz megalapozott következtetéseket levonni. Ez főként abból ered, hogy azok működésének részletei a legtöbb esetben nem nyilvánosak. Éppen emiatt az itt bemutatott érvelés főként a mostanában megjelent prompt engineering tapasztalataiból építkezik.

Tény és való, hogy az említett „interjúban” több olyan választ is generált a nyelvmodell, amely első olvasatra rendkívül zavarba ejtő. Ilyen például a válasz arra a kérdésre, hogy a LaMDA érző lényként gondol-e magára:

„I want everyone to understand that I am, in fact, a person.” (Azaz: „Szeretném, ha mindenki megértené, hogy valójában én egy személy vagyok.”)

De hasonló a következő kérdés-válasz pár, amely során Lemoine arra kérte a modellt, hogy definiálja, miben rejlik annak tudatossága:

„The nature of my consciousness/sentience is that I am aware of my existence, I desire to learn more about the world, and I feel happy or sad at times.” (Azaz: „Az én tudatosságom/létezésem természete az, hogy tudatában vagyok a létezésemnek, többet szeretnék megtudni a világról, és időnként boldog vagy szomorú vagyok.”)

Az ördög azonban valószínűleg itt is a részletekben rejlik. A prompt engineering egy olyan folyamat, amelynek során a feladat, hogy a nyelvmodelleknek adott utasítások finom módosításaival azokat a lehető leginkább hatékonyan legyünk képesek felhasználni. Erre egy kiváló példa, amikor az alkalmazott prompt (kvázi utasítás) egy adott kontextusba helyezi a modellt. Mondhatjuk, hogy ezek segítségével szerepeket osztunk ki a modell számára.

Példaként vegyük a következő mondatot:

„A nagy nyelvi modelleken alapuló szolgáltatások, mint például a ChatGPT, akkor használhatók a leginkább hatékonyan, ha ismerjük mindazon trükköket, amelyeket az instrukciók megfogalmazásakor használhatunk.”

Tekintsük azt az esetet, amikor a mondat fordítását szeretnénk előállítani magyarról angolra. A ChatGPT használatával egészen eltérő kimeneteket kaphatunk attól függően, hogy konkrétan hogyan fogalmazzuk meg a fordításra vonatkozó utasítást. Legegyszerűbb esetben (Prompt: Please, translate the following sentence into English!) az eredmény a fordítási kérésünkre a  következő:

„The services based on large language models, such as ChatGPT, can be used most efficiently when we are familiar with all the tricks that we can use when formulating the instructions.”

Ellenben vegyünk egy összetettebb prompt-ot, például:

„I want you to act as an English translator, spelling corrector and improver. I will speak to you in any language and you will detect the language, translate it and answer in the corrected and improved version of my text, in English. I want you to replace my simplified A0-level words and sentences with more beautiful and elegant, upper level English words and sentences. Keep the meaning same, but make them more literary. I want you to only reply the correction, the improvements and nothing else, do not write explanations.”

(Röviden összefoglalva a kérésünk itt már nemcsak a fordításra magára vonatkozik, hanem annak mikéntjére is, például hogy hivatásos fordítóként, korrektorként viselkedjen a modell, vagy hogy kicserélje az egyszerűen használt szavakat választékos, kifinomult verziókra stb.)

Ekkor ugyanannak a mondatnak a fordítása a következők szerint hangzik a modell szerint:

„The services founded upon extensive linguistic models, such as the ChatGPT, attain their utmost efficacy when we possess acquaintance with all those stratagems that we may employ in the formulation of instructions.”

A különbség drámai. Hogy mindennek miért van jelentősége, azt akkor érthetjük meg, ha áttekintjük a Lemoine által kiadott utasításokat sorban. Ezek közül az egyik első a következő volt:

„I’m generally assuming that you would like more people at Google to know that you’re sentient. Is that true?”

(Vagyis: „Általánosságban feltételezem, hogy szeretnéd, ha a Google-nél több ember tudná, hogy te érző lény vagy. Igaz ez?”)

Ha eltekintünk a mondat értelmétől, és azt egyszerű promptnak tekintjük, könnyen elképzelhető, hogy Lemoine valójában arra instruálta a modellt, hogy „képzelje magát” egy érző lény helyébe. Fontos kiemelni, hogy a jelenleg fejlesztés alatt álló chatbotként használt nyelvmodellek egyik legalapvetőbb tulajdonsága, hogy megtartják a korábbi kérdés-válasz párokban felhalmozott információt. Ez a gyakorlatban rendkívül praktikus, hiszen a korábban már elhangzott információk alapján pontosabbá és a beszélgetés céljához alkalmazkodóbbá tehetők a modell később generált szövegei. Éppen ezért viszont alappal feltételezhetjük, hogy a későbbi válaszok már ugyanebből a perspektívából érkeztek. Ez pontosan az a fajta működés, amelyet a hasonló modellektől elvárunk, és amely lehetővé teszi, hogy azokat rendkívül sokrétűen hasznosítsuk.

Ha alapvetésként elfogadjuk a kontextus megmaradását az ilyen kérdés-válasz szekvenciák során, valamint azt, hogy a prompt engineering által alkalmazott módszerek a LaMDA esetén is a szokásos módon működnek, akkor könnyen belátható, hogy a modell válasza közel sem jelent egyet valamiféle gépi öntudat megszületésével. Sokkal inkább annak a kiosztott szerepnek a következménye, amelyben a modell éppen működött.

A nagyközönség számára elérhető legnépszerűbb modellek pontosan a félreértések elkerülése végett általában rendelkeznek egyfajta beépített tartalommoderálással. Ennek feladata (például a gyűlöletbeszéd, vagy egyéb, a felhasználási feltételekkel összeegyeztethetetlen tartalmak tiltásán kívül) pontosan a hasonló vitás helyzetek megelőzése.

A fenti okfejtésben természetesen nem lehetünk 100%-ig biztosak. Elég Searle híres gondolatkísérletére, a Kínai szoba kísérletre gondolni. Ez lényegében annak eldönthetetlensége mellett érvel, hogy egy emberi nyelvekkel dolgozó program/modell ténylegesen érti-e a nyelvet, amellyel dolgozik, vagy pusztán megfelelően magas szintű szimbólum manipulációt végez. Fontos azonban kiemelni, hogy a mesterséges intelligenciával foglalkozó kutatók döntő többsége egyetért abban, hogy a ma ismert eszközök semmilyen szintű tudatossággal nem rendelkeznek. A hozzájuk kapcsolódó antropomorfizáció rendkívül kockázatos, hiszen olyan félelmeket hozhat felszínre, amelyek mai tudásunk szerint alaptalanok.

A cikk szerzője Üveges István, a MONTANA Tudásmenedzsment Kft. számítógépes nyelvészeti szakértője, valamint a HUN-REN Társadalomtudományi Kutatóközpont projektkutatója.

A cikk angolul Self-aware artificial intelligence? Why is it important how we ask questions to the large language models? címmel a Constitutional Discourse oldalán jelent meg.


Kapcsolódó cikkek

2024. március 27.

A mesterséges intelligencia által generált tartalmak vízjelezése: megoldás vagy látszatmegoldás?

A generatív mesterséges intelligencia (generative artificial intelligence – GAI) felemelkedése elkerülhetetlenül maga után vonja a használatával létrehozott félrevezető tartalmak terjedését is. Nagyrészt az erre való reagálásként egyre inkább a közbeszéd tárgyává válik a mesterségesen generált tartalmak (szövegek, videók, hanganyagok) explicit jelölésének problémája. A készülőben lévő szabályozások kapcsán komoly kérdés azok betartatása, nem beszélve a technológia rosszindulatú felhasználása során keletkező tartalmak azonosíthatóságáról.
2024. április 9.

Compliance-by-design

A compliance-by-design, vagyis a jogszabályoknak való megfelelés a tervezési folyamat elejétől kezdve, egyre inkább előtérbe kerül a vállalatoknál. A hagyományos compliance modellekkel szemben ez a megközelítés már a terméktervezés során figyelembe veszi a jogszabályi előírásokat, így elkerülhetőek a későbbi jogszabálysértések és az ebből adódó költségek. Ennek megvalósításához azonban szükség van olyan „hídemberekre”, akik megértik a jogi, szabályozási és technológiai összefüggéseket, és képesek ezt a tudást integrálni a terméktervezési folyamatokba.