Zárttá válik az OpenAI


Ez a cikk több mint egy éve került publikálásra. A cikkben szereplő információk a megjelenéskor pontosak voltak, de mára elavultak lehetnek.

A kritikusok szerint az OpenAI zárttá tételének az fő oka, hogy a mesterséges intelligencia kutatók ne tudjanak rámutatni a nyilvánvaló problémákra, amely ezáltal veszélyessé teszi a technológiát.

Az OpenAI 98 oldalas technikai jelentést adott ki a GPT-4 legújabb nagy nyelvi modelljéről, amely akár a szakvizsgákat is sikeresen meg tudja oldani, de egyre több kritika fogalmazódik meg az AI-kutatók részéről, akik rámutatnak arra, hogy a jelentés nem átlátható vagy „nyitott” a korábbi értelemben.

Sokan szomorúan vették tudomásul ugyanis, hogy a GPT-4 zárt AI-modellen alapul. A GPT-4 eset semmilyen információt nem adtak meg a rendszer kiképzéséhez használt adatokról, az energiaköltségekről, illetve a létrehozásához használt konkrét hardverről vagy módszerekről.

Az OpenAI alapításakor arról döntöttek, hogy kutatószervezetként működnek, de a mostani zárt modell megnehezíti mások számára, hogy reprodukálják az eredményt és a hasonló MI-rendszerek által jelentett fenyegetésekkel szembeni védőintézkedések kidolgozását.

Ilya Sutskever, az OpenAI vezető szakértője és társalapítója szerint a versenytől való félelem és a biztonsággal kapcsolatos aggodalmak „maguktól értetődőek”. „A GPT-4-et nem könnyű fejleszteni. „A biztonsági szempontokról azt mondanám, hogy az ugyan még nem olyan kiemelkedő ok, mint a versenyképességi oldal, de ez változni fog, mert ezek a modellek nagyon erősek és egyre erősebbek lesznek. Egy bizonyos pont után ha valaki akar, akkor elég könnyen károkat tud okozni ezekkel a modellekkel. És ahogy a képességek nőnek, úgy egyre kevésbé akarja azokat az ember nyilvánosságra hozni. Szerinte tévedés volt a kutatások nyílt megosztása. Az OpenAI szakértője szerint néhány éven belül nyilvánvalóvá válik, hogy a mesterséges intelligencia nyílt elérhetősége egyszerűen nem bölcs dolog.”

Az MI közösségben megoszlanak a vélemények, de a GPT-4 zárt modelljét inkább negatívan fogadták. Mivel nem lehet látni, hogy milyen adatok alapján fejlesztették a GPT-4-et, nehéz tudni, hogy a rendszer hol használható biztonságosan, és nehéz javításokat eszközölni.

„Ahhoz, hogy az emberek megalapozott döntéseket hozhassanak arról, hogy hol nem fog működni ez a modell, jobban kell ismerniük, hogy mit csinál, és milyen feltételezések alapján programozták” – fogalmazott Ben Schmidt, a Nomic AI alelnöke. William Falcon, a Lightning AI vezérigazgatója és a PyTorch Lightning nyílt forráskódú eszköz megalkotója a VentureBeatnek elmondta, hogy üzleti szempontból megérti a döntést. „Minden joguk megvan ahhoz, hogy ezt tegyék, de ez a lépés rossz precedenst teremt a szélesebb közösség számára, és káros hatásai lehetnek.”

Egy másik ok, amiért az OpenAI elrejti a GPT-4 konstrukciójának részleteit, a jogi felelősségvállalás. A mesterséges intelligencia nyelvi modelleket hatalmas szöveges adathalmazokon képzik ki, és sokan (köztük a korábbi GPT-rendszerek is) a világhálóról töltenek le információkat. Tehát a forrás valószínűleg szerzői jogvédelem alatt álló anyagokat is tartalmaz. Az AI képgenerátorok, amelyeket szintén az internetről származó tartalmakkal képeztek ki, pontosan emiatt kerültek jogi kihívások elé. Már több céget is bepereltek független művészek és a Getty Images fotóoldal. Sutskever nem válaszolt arra a kérdésre, hogy az OpenAI határozottan kijelentheti-e, hogy a képzési adatai nem tartalmaznak kalózanyagokat.

A mesterséges intelligencia világában zajló gigantikus változások miatt a verseny több fronton is erősödik. A vállalati oldalon például a Google és a Microsoft az etikai aggályokat félretéve adnak hozzá mesterséges intelligencia funkciókat a saját termékeikhez. A kutatási oldalon tapasztalható rohamos fejlődés pedig félelmet kelthet és a mesterséges intelligencia komoly és közvetlen társadalmi fenyegetéssé válhat.

Jess Whittlestone, egy brit agytröszt MI részlegének vezetője szerint e különböző nyomások egyensúlyban tartása komoly jogalkotói kihívást jelent, és szerinte külső szabályozó hatóságokat is be kellene vonni a mesterséges intelligencia szabályozásába. „Nagyon gyorsan fejlődnek ezek az AI-képességek, és aggódom amiatt, hogy ezek a képességek gyorsabban fejlődnek, mint ahogyan a társadalom alkalmazkodni tud hozzájuk” – tette hozzá Whittlestone. Szerinte az OpenAI indokai megfelelőek, de aggodalmai vannak a hatalom központosításával kapcsolatban. „Ezeknek a döntéseknek nem szabadna az egyes vállalatokon múlnia. Ki kellene találni a helyes gyakorlatokat, és független harmadik feleknek nagyobb szerepet kellene játszaniuk abban, hogy megvizsgálják az egyes modellekkel kapcsolatos kockázatokat, és hogy van-e értelme nyilvánosságra hozni azokat.”

„Miután elolvastam a közel 100 oldalas jelentést és rendszerspecifikációt a GPT-4-ről, több kérdésem van, mint válaszom.Tudósként pedig nehéz olyan eredményekre hagyatkoznom, amelyeket nem tudok ellenőrizni vagy megismételni” – érvelt Sasha Luccioni, a Hugging Face kutatója a Motherboardnak.A Hugging Face egy olyan vállalat, amely nyílt forráskódú eszközöket kínál alkalmazások és oktatókészletek készítéséhez a gépi tanuláshoz.

„Igazán zavar, hogy ennek a kutatásnak az emberi költségeit (az emberi értékelők és annotátorok által eltöltött órákban), valamint a környezeti költségeket (az e modellek betanítása által generált kibocsátások tekintetében) egyszerűen a szőnyeg alá söpörjük,

és nem hozzák nyilvánosságra, ahogy kellene” – mondta Luccioni.

Emily M. Bender, a Washingtoni Egyetem nyelvtudományi professzora a Twitteren azt írta, hogy ez a titkolózás nem érte őt meglepetésként. „Szándékosan figyelmen kívül hagyják a legalapvetőbb kockázatcsökkentő stratégiákat, miközben azt hirdetik, hogy az emberiség javára dolgoznak” – írta a Twitteren.

Eddig a ChatGPT és a GPT-t használó Bing Chat problémákkal küzdött. A Microsoft Bing, amely 2022 novembere óta használta a GPT-4-et, tele volt félretájékoztatással és megbántott felhasználókkal. Az új GPT-4 látszólag több védelemmel rendelkezik, miután a Bing-teszt során kapott emberi visszajelzések alapján finomhangolták, de nagyon valószínűtlen, hogy ez minden lehetséges problémát megelőz. A kutatók például azt találták, hogy a ChatGPT könnyen feltörhető furcsa szavak beírásával, amelyek a counting nevű alreddit oldalról származnak.

A GPT-4 zárt forráskódú megőrzése több szempontból is az OpenAI érdekeit szolgálja: a versenytársak nem tudják lemásolni, de az etikus mesterségesintelligencia-kutatók és -felhasználók sem vizsgálhatják át, hogy rámutassanak a nyilvánvaló problémákra.

A zárt forráskód megőrzése nem jelenti azt, hogy ezek a problémák nem léteznek, csak azt jelenti, hogy rejtve maradnak mindaddig, amíg az emberek rá nem akadnak, vagy valami el nem romlik.

Forrás:

https://hirlevel.egov.hu/2023/03/20/nyiltrol-zartta-valtozik-az-openai/

https://sg.hu/cikkek/it-tech/153300/nyiltrol-zartta-valtozik-az-openai

https://www.vice.com/en/article/ak3w5a/openais-gpt-4-is-closed-source-and-shrouded-in-secrecy


Kapcsolódó cikkek

2024. május 27.

EUB-ítélet a gyanúsítottak jogaira vonatkozó tájékoztatásról

A gyanúsítottaknak vagy a megvádolt személyeknek a büntetőeljárás során biztosítandó, az eljárási jogaikra vonatkozó tájékoztatási kötelezettség értelmezésével kapcsolatos nemzeti és uniós szabályozás összevetését tette meg az EU Bírósága.

2024. május 22.

A releváns piac-meghatározás jelentősége az EU versenyjogának állami támogatási jogában

A releváns piac kifejezése a lehető legmindennapibb fordulat a versenyjogban, azonban leginkább az antitröszt területén taglalják, az állami támogatások joga vonatkozásában a legtöbb szakirodalom és gyakorló jogász adós és néma marad. Lássuk, hogyan szomszédosak egymással a versenyjog alterületei a releváns piac határai mentén, s hogyan válik a releváns piac meghatározása perdöntővé a versenyjog kevésbé ismert területén is.