A digitális társadalom olvasatai – IX.


Ez a cikk több mint egy éve került publikálásra. A cikkben szereplő információk a megjelenéskor pontosak voltak, de mára elavultak lehetnek.

Alábbi cikksorozatában a szerző a digitális társadalom különböző aspektusait tárja elénk, igyekezve lényegre törően bemutatni szerkezetének fontosabb csomópontjait, és összegezni a tudásrendszerek, az internet, a mesterséges intelligencia, a hálózati társadalmak fontosabb, a jogalakulás szempontjából releváns mozgásait. Ezúttal az algoritmus-választék kérdését veszi górcső alá.

Algoritmus-választék

A mesterséges intelligencia- (MI-) alapú algoritmusok[1] számos változatát rendszerezte Pedro Domingos, a jövő alakítására képes algoritmusok problémáját pedig – többek között – Alessandro Vespignani és Barabási Albert László tárták fel.[2] A jogászok vitáiban, ahol kiindulópontként a döntést, a magatartást, a cselekvést keresik – mint a jogi felelősség alapját –, talán először tisztázni kellene, milyen típusú algoritmusról beszélünk. Működési rendjük, alkalmazási közegük – a közös MI-platformok ellenére – ugyanis egymástól eltérő, amint erre a Bayes-i valószínűségelméletet esetében már utaltunk.

Domingos az MI-alapú algoritmus-modellek öt nagy típusát sorolja fel. Az analógiás, a szimbolikus, a kapcsolatközpontú, az evolucionista, és a bayesianus (helyesen: Bayes-algoritmus) típusát.[3] Közös találkozási pontjuk a szerző könyvének célkeresztjében álló mester-algoritmus, a formula, a képlet, ami első ránézésre olyannak tűnik, mint a Galaxis útikalauz stopposoknak című filmben a számítógép megoldása. De nem az.[4]

Az analógián nyugvó (vagy analógiás) rendszer működésének kulcsa egy adott szituáció és egy másik, az elsővel valami módon összefüggésben álló szituáció közötti azonosságok felismerésének megtanulása. Például, ha két beteg ugyanolyan tünetekkel fordul az orvoshoz, feltehetően ugyanolyan betegségük van. A legfontosabb elem annak a megtalálása, hogyan, mi módon azonos két dolog (jelenség) egymással? Az analógián nyugvó algoritmus egy úgynevezett tartóvektor (Support Vector Machina/SVM), osztályozásra épülő számítási módszer, amely kiszámítja, a tapasztalati észlelések közül melyikre kell emlékeznie, és az észlelt tapasztalatokat miként lehet kombinálni egy új következtetés előállításához.[5]

A szimbolikus modell számára valamennyi értesülés (információ) szimbólumokkal végzett műveletekre (manipuláció) redukálható. E redukció hasonlítható ahhoz, amikor a matematikai egyenletekben az egyik változót kicserélik egy másik, vele azonos értékű (és értelmű) változóra. A szimbolisták megértik, hogy a tanulás nem felületi benyomásokból áll, hanem a tudáshoz szükséges az adatokkal (data) együtt járó eredeti tudáselemek megszerzése. Rájöttek arra, miként inkorporálható a célként kitűzött tudás megszerzésének folyamatába a korábban létező ismeret, avagy a tudás különböző elemei miként kombinálhatók egy új probléma megoldásához. Alapalgoritmusa az úgynevezett inverz dedukció, amely pontosan kiszámítja, melyik tudáselem hiányzik a deduktív módszer szerint átvizsgált adatrendszerben, és ezt, mihelyst lehetséges, generalizálva pótolja.

A kapcsolatközpontú algoritmus-képzés számára a gépi tanulás folyamata az emberi agy működésével azonos módon mehet végbe, így szükséges hozzá az emberi agy működésének visszafejtése, megértése. Az agy a neuronok közötti kapcsolatok erősségének szabályozásával tanul, ezért a döntő, kritikus (crucial) probléma kiszámítani, melyik kapcsolat melyik hibáért felelős, majd az eredménynek megfelelően megváltoztatni a kapcsolódási erősséget. A kapcsolatközpontú mester-algoritmus egy „varázsló eljárás” (visszapropagálás – backpropagation), amely összehasonlítja a rendszer outputját az elérni kívánat eredménnyel, és neuron rétegről, neuron rétegre haladva sikeresen megváltoztatja a kapcsolódásokat, ezzel hozva minél közelebb a rendszer outputját a kívánatos eredményhez.

Az evolucionista gondolkodás követői szerint minden tudás forrása a természetes kiválasztódás. Amennyiben ezt az elvet az algoritmusok szintjén érvényesíteni szeretnénk, magát a természetes szelekció folyamatát kell a számítógépen szimulálnunk. A probléma azonban abból fakad, hogy az evolucionista megoldás lényegében magának a tanulás szerkezetének a kiépítése. Nem pusztán a különböző paraméterek kezelésére adnak meg különféle szabályokat – amint ezt a „varázslat algoritmusa” (visszapropagálás – backpropagation) teszi –, hanem magát az emberi elmét építik fel, amely ezután a különböző szabályokat csak finomra hangolni tudja. Az evolucionista mester-algoritmusai a genetikus programok, amelyek a számítógép programjait ugyanazon az úton (módon) fejlesztik és párosítják, miként a természet párosította és hozta létre a maga organizmusait.

A bayesianus algoritmusokat (Bayes-algoritmus) sorozatunk előző részeiben bemutattuk. Leírásunkból kiemelnénk, hogy e gondolkodási modell lényege a bizonytalanság kezelése. Minden tanult tudás bizonytalansággal terhes, és a tanulás maga a bizonytalan megállapítás egy formája. A probléma akkor keletkezik, ha a tudásrendszer szétesése nélkül össze akarjuk kapcsolni egymással a feltűnő, hiányos, és gyakran ellentmondásos információkat. A megoldás magas valószínűséget tartalmazó megállapítás, ennek kifejezése a Bayes-i elmélet és statisztikai módszer. Bayes arra világított rá, miképpen inkorporálható az új bizonyíték a már kialakult meggyőződésünkbe, az e célra alkotott algoritmus pedig – amennyire ez lehetséges – e változás lehetőségét váltja valóra. Nem véletlen – tesszük hozzá –, közkedvelt a bayes-i módszer (láttuk) a jogászoknál, talán még azok között is, akik statisztikából nem voltak évfolyamelsők az egyetemen.

Az algoritmusok felé forduló figyelem mögött természetesen a döntés modellizálásának, valamint a jövő előrejelzésének ígérete áll. E törekvések attól az időponttól teljesedhettek ki igazán, amikor már nagyszámú adat (Big Data-korszak), és erőteljes számítási kapacitás állt a rendelkezésünkre. Az algoritmusok ekkor váltak a digitális társadalom adatgazdaságának és mesterségesintelligencia-platformjának részévé, e három tényező (algoritmus+adat+MI) napjainkban már elválaszthatatlan egymástól. A datifikáció lehetőséget ad a digitális elemzési eszköztár bevetéséhez.

Az algoritmus-modellek nem egymást behelyettesítő modellek, hanem mindegyik mást és mást tud, egymástól eltérő elemzésekre képesek. A legújabb prediktív eljárások a klasszikus statisztika-központúságon is túllépnek.[6] Az új módszertan azt vetíti előre, hogy a jövő folyamatai (eseményei, történései) nem a múltból jelezhetők előre, hanem a jelenből. A matematikai modellek és a mesterséges intelligencia „fúziója” (Vespignani) lehetővé teszi olyan szimulációs modellek kidolgozását, melyek nagy valószínűséggel rajzolják meg egy-egy komplex rendszer interakciós mintáinak jövőbeli változásait. Akkor is, ha nem tudjuk a múlt eseményeit számba venni, vagy nincs ismeretünk róla. A napjainkat beárnyékoló koronavírus-járvány főbb interakciós mintáit már akkor meg tudták rajzolni a kutatók, amikor Európa és az amerikai kontinens nagy államainak vezetői még el sem akarták hinni a vírus létezését.[7] Hozzátehetjük, akár az önmagukat irányító járművek, akár egy adott természeti, vagy társadalmi komplex rendszer mozgását, létezését, vezérelhetőségét nem tudjuk elképzelni a jelen idejű adatelemzésekre épülő szimulációs modellek nélkül.

A különféle algoritmus-modellekkel kapcsolatosan a szakirodalom nem felejti el megjegyezni a „no free lunch”- (nincs ingyen ebéd-) elvének érvényesülését. Ez alatt azt értik, minden modellben van valamilyen veszteség (adatvesztés, elemzési korlát), ezért nem lehet kijelenteni, hogy az egyik abszolút tökéletes, a másik nem. Még Domingos mester algoritmusa is inkább esszenciája, összefoglalása a kidolgozott modelleknek, mintsem egy végső győztes a nem létező versenypályán.

Az optimális döntések megtalálása és a jövő előrejelzése szorosan egymáshoz kapcsolódik, az előfeltételek feltárása és az optimalizálás kidolgozása pedig egyidős a matematikai, a statisztikai, valamint a természet-, és társadalomtudományi modellalkotási törekvésekkel. A hosszú és gazdag múltra visszatekintő történetből két mozzanatot emelnénk ki, a hálózatelemzések robbanásszerű elterjedését és a döntéselemzés módszertanának átalakulását.

A hálózatokról szóló tudás mindig jelen volt a társadalmi és a természettudományi gondolkodás történetében. A szociálpszichológiában a közösségek rejtett hálózatának feltárása, a politika tudományban a hatalmi elitek, a munkaszociológiában a munkaerő-piaci folyamatok hálózatközpontú vizsgálatai jelezték e kutatások eredményességét.[8] A természettudományokban a matematika, a fizika, a biológia járt élen a gráfok, hálózatok és kapcsolódási minták, kollektív alakzatok leírásában.[9] A modern hálózatelemzés azonban más – emlékeztet Vespignani –, mert lebontotta a határokat és a rendelkezésre álló adattömeg alapján láthatóvá tette a hálózatok belső dinamikáját, a csomópontok szerepét, előkészítve, majd elvégezve az internet és a digitális tér működésének valósághű bemutatását. Komplexitás, Big Data, datifikáció[10], skálafüggetlen hálózatok váltak az új elemzési módszer kulcsfogalmaivá. Egy algoritmikus-modellnek már ebben a közegben kell érvényesülnie, még akkor is, ha az algoritmusok maguk is hozzájárultak a fejlődéshez.

E kutatási innováció az egyéni magatartások előre jelezhetőségének új útjait is megteremtette. Le kell szögezni, amikor az egyén magatartásának, viselkedésének kiszámíthatóságát vizsgáljuk, nem az egyén racionalitásáról (arról, hogy, mit teszünk logikusan) alkotunk véleményt. A viselkedés alakulása elegendő számú információt figyelembe véve modellizálható még akkor is, ha – amint ezt Barabási bebizonyította – a vizsgálat fókuszában egy meglehetősen (hétköznapi nyelven szólva) kiszámíthatatlan alak áll.[11] A hálózatelemzések szerint más matematikai modell érvényes cselekedeteink előreláthatóságára és más magára a cselekedeteinkre. Döntéseink megértéséhez, és a döntés következményeinek feltárásához ezért összetett, komplex és sokrétű elemzésekre van szükség. Jóllehet a különböző adatvédelmi rendelkezések a nevesíthető és beazonosítható, egyénre visszavezethető elemzéseket tiltják – amiből a személyre szabott reklámokat másodpercenként fogadni kényszerülő felhasználó semmit sem lát –, azonban összerakható egy anonim „person/a” karaktere. Viselkedése, kapcsolatrendszere, hálózati pozíciója – akár a digitális, akár a valóságos, akár az onlife térben – jó eséllyel modellizálható valamelyik digitális platform adatainak feldolgozásából.[12]

A döntéselemzés mindezek után még változatlanul nyitott könyv. Tallózva az erről szóló szakirodalomban, a megoldatlan problémák szinte végtelen sorát látjuk. A kutatók az elemzendő döntés környezeti bizonytalanságára fókuszálnak, a decentralizált (centrális modellben nem értelmezhető) döntéseket vizsgálják, megkísérlik értelmezni a hálózatba kötött, egymástól nem független döntési aktorok viselkedését és jövőbeli magatartását. Nem a senki földjén játszanak, mivel a társadalomtudományokban (közgazdaságtan, vezetéselmélet, pszichológia) szinte végtelen azoknak a modelleknek a száma, melyek eredményesen és hatékonyan igyekeztek megoldani e feladatot. [13]

A jogi élet résztvevőinek, alakítóinak, aktorainak a leírtakból számos fontos következmény adódik. A legfontosabb talán az, hogy nincs ingyen ebéd, azaz nincs egyszerre és mindenkorra adott, valamennyi felmerülő feladatot elvégző, kiválóan műkő algoritmus. Egy-egy modell melletti elköteleződés azt is jelenti, vállalni – majd korrigálni – kell annak hibáit, fogyatékosságait. Kétségtelen, a módszertani, tárgyi, szabályozási, számítási sokszínűség némileg ellentmond a jog homogenitásra törő gondolkodásmódjának, szabályozási megoldásainak. Nem vitathatóan a több algoritmus-modell együttes és komplex alkalmazásánál (robotok esetében, önirányító autóknál) a szabályozó jogi akarat nehéz helyzetbe kerül. Ám nem elhanyagolható szempont az sem, vajon a múlt tényeiből (információiból) következtetünk bizonyos valószínűséggel a jövőre (a várhatóan tanúsítandó magatartásra), avagy a múlt ismerete nélkül a jelen (nagyrészt strukturálatlan) adataiból igyekszünk valamilyen, a jövőre vonatkozó megállapításokat tenni (szimulációs modellek). Hozzátesszük: mindennek más és más az etikai követelményrendszere is.

A dilemmák feloldására a következő részben szemügyre vesszük a már működő és a jogi életben alkalmazott algoritmus-modellek – témánk szempontjából fontos – típusait, levonva így a tapasztalatokból eredő legvalószínűbb következtetéseket.

A cikksorozat első részét itt, a másodikat itt, a harmadikat itt, a negyediket itt , az ötödiket itt, a hatodikat itt, a hetediket itt, a nyolcadikat pedig itt olvashatja el.

Lábjegyzetek:

[1] „Leegyszerűsítve algoritmusoknak nevezzük pontos utasítások és matematikai képletek egy sorát, amelyet arra használunk, hogy kapcsolódásokat találjunk, azonosítsunk tendenciákat, hogy kinyerjük a törvényszerűségeket és a dinamikát olyan jelenségek alapján, mint a fertőzés, a gondolatok terjedése, vagy a pénzpiacok alakulása.” Alessandro Vespignani: A jóslás algoritmusa. Hogyan befolyásolható a jövő a tudomány segítségével. Libri, Budapest, 2020., 19.

[2] Pedro Domingos: The Master Algorithm. How the Quest for the Ultimate Learning Machine Will Remake Our World. Penguins Books, 2015. Alessandro Vespignani: A jóslás algoritmusa. Hogyan befolyásolható a jövő a tudomány segítségével. Id. mű. Barabási Albert László: Villanások. A jövő kiszámítható. Libri, Budapest, 2010

[3] Pedro Domingos: The Master Algorithm. How the Quest for the Ultimate Learning Machine Will Remake Our World. Id. mű. 240.

[4] A szuperszámítógép a filmben a „meg az élet, meg minden” értelmét firtató kérdésre több millió éves gondolkodás után annyit tudott válaszolni: „42”.

[5] Az osztályozások leírása: Pedro Domingos: The Master Algorithm. How the Quest for the Ultimate Learning Machine Will Remake Our World. Id. mű. 53.

[6]„A jövő feletti ellenőrzés megszerzése miatti aggodalmunkban azonban túlléptünk a statisztikai modelleken. Olyan algoritmusokat hoztunk létre, amelyek az egyéneket és interakcióikat szimuláló egyenleteken és szabályokon alapulnak.” Alessandro Vespignani: A jóslás algoritmusa. Id. mű.19.

[7] Vespignani és munkatársai erről több publikációt tettek közzé: Vespignani et. all: The effect of travel restrictions on the spread of the 2019 novel coronavirus (COVID-19) outbreak. Science 368, 395–400 (2020) 24 April 2020. http://science.sciencemag.org/ on May 19, 2020. A Zika vírus terjedésének megállítása a Ríoi Olimpia előtt szintén a kutatócsoport eredményeihez tartozik. Erről: „A jóslás algoritmusa” c. könyvében részletesen beszámol

[8] Pl. Pataki Ferenc – Hunyadi György: A csoportkohézió, Akadémiai Kiadó, Budapest, 1972. Mérey Ferenc: Közösségek rejtett hálózata. A szociometriai értelmezés, Tömegkommunikációs Kutató Központ, Budapest, 1988. Társas kapcsolatok (Tanulmánykötet, Szerk.: Utasí Ágnes), Gondolat, Budapest, 1991. Sík Endre: Az „örök” kaláka – Kelen András: A társadalmi munka szociológiája. Gondolat, Budapest, 1988

[9] A történeti trendek összefoglalása: Barabási Albert-László: Behálózva. A hálózatok új tudománya, Libri, Budapest, 2003

[10] „Napjainkban az életünkkel kapcsolatos összes információ digitális adat lett, amelyet tárolni, mindenek előtt azonban elemezni lehet, lehetővé téve ezzel, hogy a társadalmat a legkülönfélébb szempontokból mikroszkóp alatt vizsgáljuk.” Alessandro Vespignani: A jóslás algoritmusa, Id. mű.61.

[11] Barabási Albert László: Villanások. Id. mű. 216.

[12] A szociológia ennek a megközelítési módnak rendkívül nagy hasznát veszi. Lásd: Dessewffy Tibor – Gulyás Sára – Mezei Mikes: Veszedelmes viszonyok? Egy onlife botrány elemzése, Im: Dessewffy Tibor: Digitális Szociológia. Szociológiai képzelet a digitális korban, Typotex, Budapest, 2019. 119.-144. Az onlife kifejezés egy olyan teret takar, ahol az online és az offline jelenségek közötti határvonal elmosódik. A fogalom kifejtése: Luciano Floridi: The Onlife Manifesto. Being Human in a Hyperconnected Era, Springer Verlag, 2015

[13] Kiváló összefoglaló minderre: Janky Béla: Összjáték. Erkölcs és racionalitás. Egy kutatási program regénye, Gondolat Kiadó, Budapest, 2019


Kapcsolódó cikkek