Lehet egy algoritmus rasszista?


Ez a cikk több mint egy éve került publikálásra. A cikkben szereplő információk a megjelenéskor pontosak voltak, de mára elavultak lehetnek.

Ügyvédek arra figyelmeztettek, hogy körültekintően használjuk a különböző algoritmusokat, mert könnyen előfordulhat, hogy elfogultan lettek megírva, ezért mindig ellenőrizzük az eredményeket.

Egy 2018-as kutatásban azt vizsgálták, hogy hogyan döntenek az algoritmusok egy hitelkérelem ügyében. A kutatásban résztvevő Cornell Egyetem kutatói felfedezték, hogy rossz döntések születhetnek, ha a védett tulajdonságukat (nem, rassz) nem adják meg a hitelkérelmezők.

Ezekben az esetekben az algoritmus lakóhely, vagy név, illetve egyéb tényező alapján értékelte, hogy a kérelmező milyen tulajdonságokkal (elsősorban faji hovatartozással) rendelkezhet..

A kutatást vezető Kallus professzor elmondta: „Alaposan a dolog végére akartunk járni, mert fontos ügyekben biztosnak kell lennünk, hogy jó dolgot teszünk, ezért hát mélyebbre ástunk az algoritmusokban.”

Több algoritmus vizsgálatát követően azt állapították meg, hogy ha a kérelmező nem tünteti fel a faji hovatartozását, akkor bizonyos algoritmusok alul mások pedig túlértékelik a megadott adatokból levont saját következtetéseiket.

Kallus professzor szerint az lenne a legegyszerűbb, ha a kérelmen feltüntethető lenne, hogy a kérelmező védett tulajdonsággal rendelkezik, ezzel lenne a legkönnyebben kiszűrhető a diszkrimináció.

[box title=”Magyarázat az elektronikus ügyintézésről” style=”soft” box_color=”#007ac3″ radius=”0″]

Az infokommunikációs eszközök fejlődése és elterjedése eredményeként az állam és állampolgár kapcsolata, a kapcsolattartás formája változni kezdett az elmúlt évtizedben. A központi közigazgatásban és egyes bírósági és egyéb eljárásokban az elektronikus ügyintézés ma már nem számít speciális területnek, egyre inkább a mindennapok szerves része. Ez kihívást jelent úgy az ügyfelek, mint a jogalkalmazók vagy akár a jogi képviselők számára is.

További információ >>[/box]

A professzor figyelmeztetett, „ha megfelelően akarunk eljárni, tudnunk kell, hogy kik az érintettek, mivel, ha nem figyelünk oda könnyen téves következtetésekre juthatunk és adatvédelmi aggályok is felmerülhetnek.”

Az ilyen jellegű tévedések, hátrányos megkülönböztetések a bíróságok, pénzügyi intézmények és jogalkotók által favorizált mesterséges intelligencia és gépi tanulási szoftverekben is jelen lehetnek, amelynek beláthatatlanok a következményei.

Andrea Freeman a Denveri Egyetem jogi professzora felhívta a figyelmet, hogy az algoritmusokat emberek írják. Ha ezek az emberek rasszista környezetben, vagy rendszerszintű diszkriminációban élnek, az a programkódban is meg fog jelenni.

Kevin Petrasic a White & Case Ügyvédi Iroda globális pénzügyi intézmények tanácsadási részlegét vezető ügyvéd szerint az algoritmusok alkalmazóinak elszámoltathatónak kell lenniük, ha diszkriminatívan működő szoftvert alkalmaznak, amely hátrányosan megkülönbözteti a védett tulajdonsággal rendelkezőket.

„A jogalkotó intézkedéseket vezethet be az ilyen szoftverek vásárlói vagy olyan szervezetek ellen, akik nyilvánvalóan diszkriminálnak. Azonban, ha az ilyen szoftvert használó cégek nem fordítanak figyelmet az algoritmusok eredményeinek ellenőrzésére, nem sokat fognak törődni a diszkriminációellenes jogszabályokkal sem.”

„A pénzügyi intézményeknek ki kell dolgozniuk egy magyarázatot, amelyen keresztül be tudják mutatni, hogy az adott algoritmus hogyan működik, és milyen intézkedéseket alkalmaznak az eredmények felülvizsgálatára.

(law.com)


Kapcsolódó cikkek

2024. október 30.

Parlament előtt a 2025-ös adócsomag

A kormány két lépésben megduplázná a családi adókedvezményt, 2 évvel meghosszabbítaná a kedvezményes, 5 százalékos lakásáfát, és kivezetni készül több különadót is. Parlament előtt az adócsomag.

2024. október 30.

NMHH: Ismerik, sokszor mégsem védekeznek a közösségi média veszélyei ellen a fiatalok

A serdülő lányok mintegy fele érzi magát kevésbé szépnek a közösségi médiafelületeken látottak hatására, mert sokukban nem tudatosul, hogy az online tér gyakran hamis valóságképet tár eléjük – egyebek mellett erre mutatott rá a Nemzeti Média- és Hírközlési Hatóság (NMHH) kutatása, amely a 13–16 éves kamaszok közösségimédia-használati szokásait vette górcső alá.