A mesterséges intelligencia által generált tartalmak vízjelezése: megoldás vagy látszatmegoldás?
A generatív mesterséges intelligencia (generative artificial intelligence – GAI) felemelkedése elkerülhetetlenül maga után vonja a használatával létrehozott félrevezető tartalmak terjedését is. Nagyrészt az erre való reagálásként egyre inkább a közbeszéd tárgyává válik a mesterségesen generált tartalmak (szövegek, videók, hanganyagok) explicit jelölésének problémája. A készülőben lévő szabályozások kapcsán komoly kérdés azok betartatása, nem beszélve a technológia rosszindulatú felhasználása során keletkező tartalmak azonosíthatóságáról.
Miért fontos?
A generatív mesterséges intelligencia segítségével létrehozható tartalmaknak ma már széles tárháza áll rendelkezésre. Elég csak az emberi nyelvhasználatot megtévesztő pontossággal imitálni képes chatbotokra (pl. ChatGPT) vagy a deepfake videókat órák alatt generálni képes eszközökre gondolni. Az ilyenek által létrehozott tartalmak (főleg a szövegek esetében) ma már teljességgel alkalmasak a felhasználók megtévesztésére. Ez értendő egyrészt arra, hogy azokat akár ember is készíthette volna, másrészt pedig arra, hogy a bennük foglalt tényeket, vagy az általuk ábrázolt képanyagot valóságosnak fogadjuk el.
Ez a helyzet olyan visszaélésekre is lehetőséget ad, mint például célzott dezinformációs kampányok indítása vagy közszereplők hitelességének aláásása. Megfigyelhető ugyanakkor, hogy a szintetikus tartalmak detektálása közel sem jár a generálással azonos szinten. Ezzel párhuzamosan az AI demokratizálásának köszönhetően a nyílt forrású, sok esetben no-code (vagyis programozás nélkül is működő) szinten is könnyűszerrel használható GAI eszközöket egyre többen és egyre könnyebben képesek használni. Ez a gyakorlatban egy olyan helyzetet eredményez, amikor tömegek lesznek képesek szintetikus tartalmakat könnyedén előállítani (akár ártó szándékkal), az eredmény pedig megkülönböztethetetlen lesz az „eredeti” tartalmaktól.
Ahhoz, hogy valaki félrevezető tartalmakat hozzon létre, még csak nem is feltétlenül szükséges a GAI eszközök rossz szándékú alkalmazása. A mesterséges szöveggenerálás példájánál maradva, a ma létező nagy nyelvmodellek (LLM-ek) működésének egyik mellékhatása, hogy gyakran hallucinálnak. Ez azt jelenti, hogy kimenetük nonszensz, faktuálisan téves, esetleg a kontextushoz nem illő szöveg lehet. A helyzetet nehezíti, hogy míg egy nyelvtanilag helytelen mondatot bárki képes felismerni, egy olyan szöveget azonban, amely tökéletes magyarsággal íródott (éppen csak valótlan információkat tartalmaz), már sokkal nehezebb lehet észrevenni. Ez a (néha téves) működés a statisztikai modellezés következménye, amely során a nyelvi modellek a kapott kontextushoz legvalószínűbb szósorozatokat adják válaszképpen, tekintet nélkül azok igazságtartalmára vagy helyességére az adott helyzetben.
Miért problémás?
A Kínában nemrég hatályba lépett Interim Administrative Measures for Generative Artificial Intelligence Services intézkedés konkrét standardokat ír elő mindazon szolgáltatók számára, akik GAI segítségével generált tartalmakat szolgáltatnak az állam területén belül. A szabályozás keretében konkrét standardok készültek, amelyek képanyagok esetében előírják például a feltüntetendő tájékoztató szöveget, annak méretét és pozícionálását. Fontos emellett, hogy a tájékoztatás világos és egyértelmű legyen, például; „Generated by AI”. A fenti explicit vízjeleken kívül szintén szó esik ún. implicit vízjelek alkalmazásáról is. Ezek az emberi szem számára láthatatlanok, azonban programokkal könnyen kimutatható a jelenlétük egy-egy tartalomban.
Hasonló kezdeményezést láthatunk a vezető USA-beli mesterséges intelligenciával foglalkozó cégek irányából is, illetve az Európai Unióban is egy, a fentiekkel rokon szabályozás kezd körvonalazódni. Noha papíron ezek az elvárások jól hangzanak, érvényesítésük a gyakorlatban nem lesz könnyű. A nagy tech cégek termékei általában a figyelem középpontjában vannak, így esetükben nehéz elképzelni a szabályozás megkerülését. Teljesen más a helyzet azonban az egyéni felhasználók esetében.
Ahogyan már röviden szó volt róla, az AI fejlesztések terén az utóbbi időben erősödő trend a nyílt forrású megoldások fejlesztése. Ezek célja elsődlegesen a transzparencia növelése és a technológiába vetett bizalom erősítése. Az ilyen megoldások azonban (jellegükből adódóan) bárki számára elérhetőek. Tegyük fel, hogy a szintetikus tartalmak jelölése néhány éven belül kötelező lesz minden országban, ahol a jelenlegi vezető AI fejlesztések zajlanak[1]. Az ezután létrehozott modellek kimenetei már megkerülhetetlenül rendelkezni fognak mindazon azonosítókkal, amelyet a szabályozás megkövetel. Korábbi GAI megoldások esetében azonban a tartalmak továbbra is jelöletlenek maradnak.
Az olyan esetekben pedig, amikor a GAI felhasználása rossz szándékkal történik (pl. propaganda terjesztésére szolgáló, automatikusan generált kommentek a közösségi médiában) elve nem is számíthatunk rá, hogy a készítők önként leleplezzék ezáltal céljaikat.
Mit tehetünk?
A jelenlegi trendek alapján világos, hogy a közeljövőben még nehezebb lesz megkülönböztetni, hogy amit látunk, olvasunk, esetleg hallunk, az igazi vagy hamis, ember vagy gép készítette-e, illetve célja a félrevezetés vagy a tájékoztatás. Ahhoz, hogy egy ilyen világban továbbra is képesek lehessünk kiigazodni, a törvényes keretek között működő cégek szabályozása csak az érem egyik oldala. Emellett legalább ennyire fontos, hogy felkészüljünk azoknak a szintetikus tartalmaknak az azonosítására is, amelyeknél a készítő célja éppen az azonosíthatóság elkerülése (is) volt.
Már jelenleg is zajlanak kísérletek arra vonatkozóan, hogy az LLM-ek által előállított tartalmak milyen hatékonysággal azonosíthatók automatikusan. Aggasztó, hogy például mesterségesen generált szövegek esetében az eredmények egyelőre arra utalnak, hogy azokat megbízhatóan azonosítani rendkívül problémás.
A fent már említett implicit vízjelek esetében az sem tisztázott, hogy pontosan „ki” lesz majd képes azokat hitelt érdemlően kimutatni? Az átlagos felhasználó szempontjából olyan eszközökre lenne szükség, mint például egy böngészőben futó beépülő modul, amely automatikusan ellenőriz minden megjelenített tartalmat, és jelzést ad, ha szintetikus szöveget, videó- vagy hanganyagot érzékel. Ez azonban jelenleg még puszta science-fiction. De még ha egy ilyen rendszer el is készül, a szintetikus tartalmak ilyen fokú elterjedése teljesen új társadalmi kérdéseket is felvet. Nem tudni például, hogy az egyre szaporodó, vízjelezett tartalmak terjedése miként hat az „eredeti” tartalmak megítélésére? Könnyen elképzelhető olyan forgatókönyv, amely során a szintetikus tartalmak jelenléte nagy mennyiségben önmagában is erodálja a bizalmat bármiféle online elérhető információ irányába.
Áttekintve a GAI mai szerepét a társadalomban, könnyen belátható, hogy olyan messzire vezető technológiai és társadalmi folyamatoknak vagyunk tanúi, amelyek hatására egyelőre nem vagyunk felkészülve. Az eredetitől megkülönböztethetetlen szintetikus tartalmak alapjaiban képesek megkérdőjelezni a valóságról alkotott képünket. Ahhoz, hogy a mesterséges intelligencia betölthesse a neki szánt szerepet, mint például az életünk jobbá tétele vagy a gazdasági produktivitás növelése, már most fel kell készülnünk a jövő kihívásaira. Ahhoz, hogy a GAI ne válhasson egy ellenőrizetlenül száguldó vonattá, a törvényhozóknak és a technológiát fejlesztő szakembereknek közösen kell majd új és innovatív megoldásokat találniuk.
A cikk szerzője Üveges István, a MONTANA Tudásmenedzsment Kft. számítógépes nyelvészeti szakértője, valamint a HUN-REN Társadalomtudományi Kutatóközpont projektkutatója.
A cikk angolul Watermarking AI-generated Content; Solution or Pseudo-solution? címmel a Constitutional Discourse oldalán jelent meg.
[1] Ezt főként a Kína – USA – EU tengelyként szokás meghatározni.