A mesterséges intelligencia szabályozása – Beszámoló a Kürt Akadémia meetupjáról


A cikkben a Kürt Akadémia által különböző területről meghívott szakértőkkel megrendezett Az AI szabályozása című előadásának összefoglalója olvasható.

Nemrég napvilágot látott egy nyílt levél, amelynek leginkább kirívó részlete szerint „felszólítunk minden mesterségesintelligencia-laboratóriumot, hogy haladéktalanul legalább 6 hónapra szüneteltesse a GPT-4-nél erősebb AI-rendszerek képzését[1]. A több mint kétezer-ötszáz aláíró[2] között olyan nevek vannak, mint Elon Musk a Tesla, a SpaceX és a Twitter CEO-ja, Steve Wozniak, az Apple társalapítója, valamint Yuval Noah Harari író és a Jeruzsálemi Héber Egyetem professzora.

E személyek ilyen súlyú kijelentése nemcsak a szakmai sajtóban kapott jelentős nyilvánosságot, hanem a széles nyilvánosság ingerküszöbét is átütötte. Így volt ez a tavalyi év végén elérhetővé tett ChatGPT-vel is, és azóta mintha egy egészen más sebességű világban találnánk magunkat, ahol egyre kevesebb a fogódzkodó, ellenben egyre több a kérdés, a megbúvó bizonytalanság és a veszélyforrás.

Pontosan e fejlemények tették különösen aktuálissá a Kürt Akadémia 2023. március 30-án megrendezett Law and Order eseménysorozatának legújabb, Az AI szabályozása című alkalmát. Huszics György (alapító, ügyvezető, Crane, Carbon.Crane) az esemény házigazdája a fenti nyílt levélen túl egy szemléltető ábrával adta meg az alaphangot.

Képzeljünk el egy négyzetet, amelyet függőlegesen két részre osztunk. A négyzet a technológiát, benne a két egyenlő rész a „lehet” és „nem lehet” területeit jelképezik. Ahogy nap mint nap az információs technológia fejlődéséről szóló híreket olvassuk, érzékelhetjük, hogy a határvonal folyamatosan mozgásban van, egyre több minden „lehet”, míg egyre kevesebb dolog esik a „nem lehet” területére úgy, hogy közben maga a négyzet is folyamatosan növekszik.

Most egy szaggatott vonalú vízszintes osztás révén „szabad” és „nem szabad” részekre bontjuk a négyzetet. Egységes, hatályos és kiforrott szabályozás híján adott esetben nehéz különbséget tenni a két kategória között, képlékeny a köztük húzódó határvonal.  Az esemény három előadójának gondolatai e szaggatott vonal köré összpontosultak.

Varga Gábor (nemzeti technológiákért felelős vezető, Microsoft) szerint az emberiség történelmének legnagyobb hatású innovációja lehet a mesterséges intelligencia (MI), amely természetesen kockázatokat is hordoz. Analógiaként hivatkozta a gépkocsik XX. század eleji utcai forgalomban való megjelenését. Az új helyzettel kezdetben nehéz volt mit kezdeni, születtek elvetélt megoldások is, de közel száz év alatt egy kiforrott rendszer épült fel, amelynek részét képezi a KRESZ, a társadalmi méretű oktatás, a kodifikált tilalmak, a törésteszt, a műszaki vizsga, a biztonsági öv stb. Az MI-ket rohamos léptékben fejlesztik, a szabályozás pedig szükségszerűen reagál, illetve reagálni fog e jelenségre, hiszen az nyilvánvaló, hogy kellenek a korlátok. Találó példával hangsúlyozta, hogy mégiscsak a „kereket előbb találták fel a féknél”, azaz nem elvárható, hogy előbb legyen kész kontrollrendszer az MI-re, mint ahogy azt kifejlesztik. Szükséges továbbá, hogy az etikai elveket gyakorlatba ültessék eszközök, folyamatok, oktatás, szabályozás révén. Zárásul hivatkozott a Microsoft Responsible AI Standard-jére[3], a cég felelős MI fejlesztési szabálykönyvére.

Szepes Zsolt (kommunikációs vezető, Carbon.Crane) a marketing oldaláról közelített az esemény témájához. A jelenlegi állás szerint az MI már egy közepes képességű szövegíró szintjén áll. Az a tendencia, hogy előbb folyamatrészleteket vált ki, később pedig egész folyamatokat vesz át. Előnyként jelentkezik az idő- és költséghatékonyság növekedése, a célzott, személyekre szabott tartalom, valamint a fokozott innováció és inspiráció. Számos területen jelentősen felkavarta az állóvizet az MI, elég csak a szöveg-, kép-, videó-, zenegenerálásra, keresőmotor-optimalizálásra (SEO), érzelemelemzésre és chatbotokra gondolni. (Az előadó mondandója súlyosságának érzékeltetésére érdemes itt hivatkozni egy friss, többnyire MI-vel készült rövidfilmre.) Ha valaki MI-t venne igénybe marketing célra, ötven kategóriában körülbelül ezerötszáz lehetőség közül választhat. De mégis mennyire éri meg ez? Kisebb, alacsony költségvetéssel bíró cégeknek hasznos lehet chatbot alkalmazása, viszont tisztában kell lenniük vele, hogy a teljes ügyfélkapcsolat nem váltható ki vele.

Az érzelemérzékelés területén mind az érzelem kiváltására, mind a hangulat érzékelésére képes már az MI; szövegírás terén közel áll hozzá, hogy önállóan is kifogástalan szöveget alkosson. A képszerkesztés területén konkrét példával élve a Midjourney megugrotta a megfelelő kézábrázolást, azonban arcok és szemek tekintetében még hagy némi kívánnivalót maga után. Elkerülhetetlen a kérdés, hogy végső soron kinek a munkáját veszi el az MI? Az előadó szerint egy kezdő marketinges kolléga munkájának nyolcvan százalékát képes kiváltani, egy kreatív szakember kevesebb adminisztrációs feladatot lesz kénytelen a hátán cipelni, egy marketing vezető jobban fókuszálhat a stratégiai feladatokra az MI segítéségének köszönhetően, illetve egy marketing ügynökség gyorsabban szolgálhat ki több ügyfelet. Az előadó végső soron optimista a változással kapcsolatban. Az MI segít az unalmas tömegmunka kiváltására és a stratégiai feladatok továbbra is az embereknél maradnak.

Dr. Domokos Márton (ügyvéd, CMS Budapest) az Egyesült Államok és az Európai Unió szabályozási környezetéről beszélt. Míg az EU inkább egy egységes, átfogó szabályozásban gondolkozik, addig az USA-t a szektorspecifikus szabályozás és az önszabályozási rendszerek együttélése jellemzi. Tendencia, hogy az egyes országokban egyre növekszik az MI-t említő jogszabály-tervezetek, illetve jogszabályok száma, azonban a jogalkotás sebessége nehezen képes követni az MI-k fejlesztésének ütemét. A jogalkalmazásra is nyomás helyeződik, például a szerzői jogok területén. Elég a mesterséges intelligencia által alkotott digitális rajzokra gondolni, amelyek elkészítéséhez emberi művészek alkotásait használta fel, akik emiatt pert indítottak[4]4. Az EU készülő és várhatóan a közeljövőben elfogadásra kerülő AI Act-je három kategóriát állít fel: általános célú MI, nagy kockázatú MI és tiltott MI. A besorolást nagyban befolyásolják az öreg kontinensen hagyományosan erős emberi jogok és adatvédelem szempontjai.

Az MI-t alkalmazóknak kockázatkezelési rendszert kell létrehozniuk, megfelelő adatvédelemmel, műszaki dokumentációkkal, nyilvántartásokkal, kiberbiztonsággal kell rendelkezniük, nem nélkülözhetik az átláthatóságot és a felhasználók tájékoztatását, valamint az MI felett emberi felügyeletnek kell állnia. Mindezek mellett hangsúlyozni szükséges a felhasználók kötelezettségeit is. Be kell tartaniuk a használati utasításokat, nekik is emberi felügyeletet kell biztosítaniuk az MI működése felett, valamint gondoskodniuk kell az adatmegőrzésről és a kockázatbejelentésről (partnercégek és hatóság felé egyaránt). A sok kötelezettség hallatán jogosan merül fel, hogy a szabályozás rontja az EU versenyképességét, lassítja az MI-k fejlesztését. Egyesek azt is vizionálják, hogy a fejlesztők elhagyják az Uniót, így az kimarad a folyamat fősodrából, azonban ehhez érdemes emlékezni arra is, hogy mekkora piacot jelent az EU. Ennek fényében a legpesszimistább forgatókönyvek nem tűnnek túl valószínűnek.

Az eseményt záró kerekasztal-beszélgetésen az első gondolat a felelősségé volt. Huszics György megkérdezte erről az ChatGPT-t, aminek a válasza a következő volt: „az MI-t a hibájáért nem lehet felelősségre vonni”. Miért? Mert utasításokat hajt végre, függetlenül attól, hogy azok a fejlesztőtől vagy az alkalmazótól származnak.

Az előadóknak ezután rövid kérdésekre rövid válaszokat kellett adniuk. Kell-e szabályozás? Egyedül e kérdésben volt színtiszta egyetértés: igen. Elkésett a szabályozás? Többségben voltak a nemek, de kevésbé érződött könnyen megítélhetőnek e felvetés. Szabályozás vagy önszabályozás? Egyikre, másikra és mindkettőre is érkezett voks. Szabályozás vagy innováció? Nehéznek érezték e két kategória összevetését, de többségében az innováció elsőbbségével értettek egyet.

Szepes Zsolt megjegyezte a fentiek mellé, hogy nem engedhetik meg maguknak komplett szakmák, hogy elutasítsák az MI-t. Inkább abban látja a jövőt, hogy a piacon jelen lehetnek kisebb, „kézműves” szövegírók, grafikusok stb., akik deklaráltan nem használnak mesterséges intelligenciát.

Hosszabb távon mi biztosíthat kontrollt és garanciákat? Amíg nincsen szabályozás, addig bízni kell abban, hogy nem élnek vissza vele, illetve addig is kialakulhat, működhet a fejlesztők, felhasználók önszabályozása. A kapitalista logika jelenleg hajtja a fejlesztőket, hogy leelőzzék és kiszorítsák a versenytársaikat. Ennek fényében nehezen hihető lehetőségnek tűnik, hogy az Elon Musk és a többi aláíró által jegyzett nyílt levél révén fél évre befagyasszák a ChatGPT4-nél fejlettebb MI-k fejlesztését. A válasz máshol rejtőzik, talán, mint az ördög, a részletekben.


[1] https://futureoflife.org/open-letter/pause-giant-ai-experiments/

[2] Azóta kiderült, hogy nem minden aláírás volt valós.

[3] https://query.prod.cms.rt.microsoft.com/cms/api/am/binary/RE5cmFl

[4] https://24.hu/tech/2023/01/19/kepalkoto-mesterseges-intelligencia-getty-images-per-tortenelmi/


Kapcsolódó cikkek

2024. március 28.

Fűszerezett érvelési bajnokság – Rekordok a 9. Dr. Nagy László Magánjogi Érvelési Versenyen

Kozma Gábor, a Pázmány Péter Katolikus Egyetem ötödéves joghallgatója nyerte a kilencedik alkalommal megrendezett, idén több rekorddal is szolgáló Dr. Nagy László Magánjogi Érvelési Versenyt, ami e nehéz jogászi műfaj kiváló művelőjének, a 2013-ban fiatalon elhunyt ügyvédnek állít emléket. A rangos megmérettetésre története során először nem csak az összes hazai jogi karról – ráadásul rekordszámban – jöttek nevezések, hanem a Sapientia Erdélyi Magyar Tudományegyetemről is érkezett pályázat.

2024. március 27.

A mesterséges intelligencia által generált tartalmak vízjelezése: megoldás vagy látszatmegoldás?

A generatív mesterséges intelligencia (generative artificial intelligence – GAI) felemelkedése elkerülhetetlenül maga után vonja a használatával létrehozott félrevezető tartalmak terjedését is. Nagyrészt az erre való reagálásként egyre inkább a közbeszéd tárgyává válik a mesterségesen generált tartalmak (szövegek, videók, hanganyagok) explicit jelölésének problémája. A készülőben lévő szabályozások kapcsán komoly kérdés azok betartatása, nem beszélve a technológia rosszindulatú felhasználása során keletkező tartalmak azonosíthatóságáról.