Az MI technológia társadalmi hatásai


Ez a cikk több mint egy éve került publikálásra. A cikkben szereplő információk a megjelenéskor pontosak voltak, de mára elavultak lehetnek.

Az elmúlt pár hétben éles vita bontakozott ki az MI technológia alkalmazásának negatív társadalmi hatásairól, kiváltképp a ChatGPT zárttá tétele okozott ellenszenvet a nemzetközi színtéren. Cikkemben összegzem az mesterséges intelligencia alkalmazásával, illetve a ChatGPT zárttá tételével kapcsolatos érveket és ellenérveket.

A nemzetközi közösségben nem vitatkoznak arról, hogy a mesterséges intelligenciára igenis szükség van. A vita inkább abban áll, hogy a fejlesztéseket képesek vagyunk-e kézben tartani és a negatív társadalmi hatásokat elkerülni.

Az OpenAI által fejlesztett ChatGPT-4 nyíltról zárttá tételét a fejlesztő azzal indokolta, hogy a nyílt forrással túl sokat árulna már el a szoftverről a konkurencia számára, amely versenyhátrányt és veszteséget okozna számára.

Az ellentábor viszont azzal érvel, hogy zárttá tétel esetén nem lehet vizsgálni a mesterséges intelligencia által használt adatok forrását, valamint azt, hogy milyen műveleteket végeznek az adatokon és az kihez jut el.

Az EGOV hírlevél által idézett Transtelex cikk szerint nagy vihart kavart az Elon Musk és több ezer szakértő által aláírt, a mesterséges intelligencia kutatásának szüneteltetését követelő levél, miután a levélben idézett kutatók elítélték munkájuk felhasználását, egyes aláírásokról kiderült, hogy hamisítványok, mások pedig visszaléptek a támogatástól.

A cikk szerint az MI rendszerek fejlesztésének hat hónapos szüneteltetését több mint 1000 ember, köztük Elon Musk, Steve Wozniak, az Apple társalapítója és Emad Mostaque, a Stability AI vezérigazgatója követelte, amíg az ilyen konstrukciók közös biztonsági protokolljait független szakértők nem dolgozzák ki, nem hajtják végre és nem ellenőrzik.

„Az AI-laboroknak és a független szakértőknek ezt a szünetet arra kellene felhasználniuk, hogy közösen dolgozzanak ki és hajtsanak végre egy sor közös biztonsági protokollt a fejlett AI-tervezés és -fejlesztés számára, amelyeket független külső szakértők szigorúan ellenőriznek és felügyelnek” – áll a levélben.

A kritikusok azzal vádolták az elsősorban a Musk Alapítvány által finanszírozott Future of Life Institute-ot (FLI), hogy az elképzelt apokaliptikus forgatókönyveket helyezi előtérbe a mesterséges intelligenciával kapcsolatos közvetlenebb aggodalmakkal szemben – például azzal, hogy rasszista vagy szexista előítéleteket programoznak a gépekbe.

Margaret Mitchell, aki korábban a Google etikai AI-kutatásait felügyelte, jelenleg pedig a Hugging Face nevű mesterséges intelligenciával foglalkozó cég vezető etikai kutatója, bírálta a levelet, és a Reutersnek kifejtette, hogy nem világos, hogy mi számít „erősebbnek a GPT4-nél”.

Az EGOV hírlevélben megjelent cikkben megjelent, hogy egy a Mesterséges Intelligencia és Digitális Szabályozás Központ (Center for AI and Digital Policy, CAIDP) egyenesen az USA Szövetségi Kereskedelmi Bizottsághoz (FTC) fordult, azzal vádolva a nemrég megjelent GPT-4-et, hogy „elfogult, hazug és kockázatos a magánszféra és a közbiztonság szempontjából”, számolt be a Gizmodo. Az FTC irányelvei szerint az MI rendszereknek „átláthatónak, megmagyarázhatónak, fairnek, empirikusan megalapozottnak és számonkérhetőnek” kellene lenniük.

A Microsoft eközben nem hajlandó lassítani, mindenbe beépíti a legújabb OpenAI nagy nyelvi modellt, a GPT-4-es generatív AI-t. A kiberbiztonsági szakembereknek például a Security Copilot AI-alapú eszközzel segítene azonosítani a szivárgásokat, támadásokat, fenyegetéseket, segíteni az elemzéseket.

Az MI rendszerek terjedése már a politikai színteret is elérte. Szinte minden országban készülnek már az MI szabályozások, és az EU is dolgozik az MI szabályozási javaslatán és új MI-hatóság felállításán. A jelentések szerint azonban annyira gyorsan változik a technológia, hogy problémát jelent ezek összeállítása.

Közben az Egyesült Királyságban is készülőben van az MI szabályozás, amely a döntéshozók és a szakemberek szerint „innovációpárti megközelítést” alkalmaz.

A brit kabinet elutasította, hogy általános érvényű definíciót adjon meg a technológiával kapcsolatban, ehelyett inkább a mesterséges intelligencia alapvető jellemzőire és képességeire összpontosított, amelyekre a szabályozók támaszkodhatnak, illetve létfontosságú volt, hogy az előírások egyértelműek legyenek.

Az Egyesült Királyság által felvázolt megközelítés azt jelenti, hogy a technológia fejlődésével párhuzamosan kiigazíthatja a vonatkozó előírásait. A következő 12 hónapban a meglévő szabályozók gyakorlati útmutatást adnak ki a szervezetek számára, valamint egyéb eszközöket és forrásokat, például kockázatértékelési sablonokat. Később pedig jogszabályokat lehet bevezetni annak biztosítására, hogy a szabályozó hatóságok következetesen alkalmazzák a meghatározott elveket.

Az olasz adatvédelmi hatóság múlt héten betiltotta az ingyenes és fizetős verzióban is elérhető ChatGPT chatbotját az országban. A Garante érvelése szerint az OpenAI semmiféle információt sem biztosít a felhasználók számára az adatgyűjtési praktikáiról, továbbá az sem világos, hogy milyen jogalapja van a rendszer tanítására szerzett információk internetről való begyűjtésének. A döntésre reagálva szombaton az OpenAI egy szimpla geoblokkolással elérhetetlenné tette az olaszok számára a ChatGPT-t. A szolgáltatás weblapját betöltve a szokásos honlap helyett egy tájékoztató oldal fogadja a felhasználókat a kialakult helyzetről, a fiókjaikból váratlanul kizárt fizetős ügyfeleknél a cég automatikusan letiltja a havidíj levonását.

A Garante döntésével Olaszországban sem ért mindenki egyet. Matteo Salvini olasz miniszterelnök-helyettes szerint túlzottnak tűnnek a magánélet védelmével kapcsolatos aggályok, azzal nem arányos a ChatGPT használatának megtiltása.

A tiltás nem vonatkozik automatikusan az összes olyan szolgáltatásra, amely integráltan tartalmazza a ChatGPT technológiát, így például a Microsoft Bing chatbotja is elérhető maradt az olaszoknál.

Az USA-ban már nemzetbiztonsági kockázatként értékelték az MI-t, és az oktatásra is veszélyesnek tartják. Az Europol pedig növekvő kiberbűnözésre, adathalászatra, tévinformációkra és propagandára figyelmeztet az MI rendszerek kapcsán.

Az MI rendszerekkel kapcsolatosan a katolikus egyház is megszólalt. A Kultúra és a Nevelés Dikasztériuma szervezésében tartották meg a Minerva Párbeszéd csoport éves találkozóját Rómában, amelyen Ferenc pápa támogatta az MI rendszerek alkalmazását, de leszögezte, hogy azok feltétlen kritériuma, hogy mindig álljanak az emberi méltóság szolgálatában.

Az új digitális technológiák és különösen is a mesterséges intelligencia jótékonyan hozzájárul az emberiség jövőjéhez, de ez feltétlenül „megkívánja a kutatóktól, hogy etikus és felelős módon járjanak el”. Sokan „elkötelezettek aziránt, hogy biztosítsák: a technológia az emberre összpontosítson”. A pápa örömének adott hangot, mivel a találkozó résztvevői egyetértettek abban, hogy a fejlődés folyamatainak tiszteletben kell tartania „a befogadás, az átláthatóság, a biztonság, a méltányosság és a megbízhatóság értékeit”. A Szentatya úgy látja, mégsem lesz könnyű elérni a célokat, mert a hatalmas technológiai növekedést nem kísérte az emberi felelősség, az emberi értékek és az emberi lelkiismeret fejlődése.

Egyetértek a szabályozókkal abban, hogy független szakértőkkel kell megvizsgálni az MI rendszerek etikusságát. Ehhez azonban egyelőre nem rendelkezünk megfelelő információkkal és a rendszerek különbözősége miatt nem is feltétlenül tudják a szakértők, hogy mit és hol keressenek. Ez lehetőséget teremt egy új szakma kialakulására, amelyben az MI rendszerekkel kapcsolatos tudományos anyagot az MI rendszerek ellenőrzésének gyakorlatában lehet alkalmazni, ötvözve a jogi, az informatikai és egyéb képességeket. A fejlődés azonban addig sem áll meg. A jogi szabályozásnak megmarad az sajátossága, hogy a szabályozás a már felmerült problémák alapján alakítható ki, illetve módosítható, ahogy történt például a GDPR vagy a digitális piacok eu-s szabályozása során.

Forrás

https://hirlevel.egov.hu/2023/04/02/ferenc-papa-a-mestersegesintelligencia-rendszerek-nem-sulyosbithatjak-az-egyenlotlenseget/

https://www.magyarkurir.hu/hirek/ferenc-papa-mesterseges-intelligencia-nem-sulyosbithatja-az-egyenlotlenseget

https://hirlevel.egov.hu/2023/04/03/a-keszitoi-szerint-rugalmas-lesz-angliaban-az-mi-rendszerek-keszulo-szabalyozasa/

https://sg.hu/cikkek/it-tech/153430/mesterseges-intelligencia-rugalmas-brit-szabalyozas-jon

https://www.reuters.com/world/uk/britain-opts-adaptable-ai-rules-with-no-single-regulator-2023-03-28/

https://www.gov.uk/government/news/uk-unveils-world-leading-approach-to-innovation-in-first-artificial-intelligence-white-paper-to-turbocharge-growth

https://hirlevel.egov.hu/2023/04/03/felevnyi-kenyszerszunetet-ker-a-gpt-4-nel-erosebb-mi-rendszerek-fejleszteseben-az-apple-alapitoja-es-elon-musk/

https://raketa.hu/fel-evnyi-kenyszerszunetet-ker-a-mesterseges-intelligenciak-fejleszteseben-az-apple-alapitoja-es-elon-musk

https://hirlevel.egov.hu/2023/04/03/elon-musk-es-tarsai-szerint-az-mi-rendszerek-veszelyesek-lehetnek-a-tarsadalomra-ezert-idolegesen-bizonyos-rendszerek-fejleszteset-le-kellene-allitani/

https://itcafe.hu/hir/musk_ai_veszelyes_emberisegre_ideje_leallni.html

https://hirlevel.egov.hu/2023/04/03/betiltottak-olaszorszagban-a-chatgpt-chatbotot/

https://www.vg.hu/kozelet/2023/04/salvini-tulzas-volt-lekapcsolni-a-chatgpt-t-olaszorszagban


Kapcsolódó cikkek

2024. november 5.

A jövő jogásza podcast: exluzív beszélgetés dr. Herczegh Zsolttal, a BÜK Jogtanácsosi Tagozat elnökével

A Jövő Jogásza Podcast Különkiadásában a jogász társadalom életében meghatározó szerepet betöltő jogászoktól, vezetőktől kapunk betekintést abba, hogyan viszonyulnak a jogi munka digitalizációjához. Dr. Megyeri Andrea és Dr. Ungváry Botond ezúttal Dr. Herczegh Zsolttal, a Budapesti Ügyvédi Kamara Jogtanácsosi Tagozat elnökével elnökével beszélget.