Lehet egy algoritmus rasszista?


Ez a cikk több mint egy éve került publikálásra. A cikkben szereplő információk a megjelenéskor pontosak voltak, de mára elavultak lehetnek.

Ügyvédek arra figyelmeztettek, hogy körültekintően használjuk a különböző algoritmusokat, mert könnyen előfordulhat, hogy elfogultan lettek megírva, ezért mindig ellenőrizzük az eredményeket.

Egy 2018-as kutatásban azt vizsgálták, hogy hogyan döntenek az algoritmusok egy hitelkérelem ügyében. A kutatásban résztvevő Cornell Egyetem kutatói felfedezték, hogy rossz döntések születhetnek, ha a védett tulajdonságukat (nem, rassz) nem adják meg a hitelkérelmezők.

Ezekben az esetekben az algoritmus lakóhely, vagy név, illetve egyéb tényező alapján értékelte, hogy a kérelmező milyen tulajdonságokkal (elsősorban faji hovatartozással) rendelkezhet..

A kutatást vezető Kallus professzor elmondta: „Alaposan a dolog végére akartunk járni, mert fontos ügyekben biztosnak kell lennünk, hogy jó dolgot teszünk, ezért hát mélyebbre ástunk az algoritmusokban.”

Több algoritmus vizsgálatát követően azt állapították meg, hogy ha a kérelmező nem tünteti fel a faji hovatartozását, akkor bizonyos algoritmusok alul mások pedig túlértékelik a megadott adatokból levont saját következtetéseiket.

Kallus professzor szerint az lenne a legegyszerűbb, ha a kérelmen feltüntethető lenne, hogy a kérelmező védett tulajdonsággal rendelkezik, ezzel lenne a legkönnyebben kiszűrhető a diszkrimináció.

[box title=”Magyarázat az elektronikus ügyintézésről” style=”soft” box_color=”#007ac3″ radius=”0″]

Az infokommunikációs eszközök fejlődése és elterjedése eredményeként az állam és állampolgár kapcsolata, a kapcsolattartás formája változni kezdett az elmúlt évtizedben. A központi közigazgatásban és egyes bírósági és egyéb eljárásokban az elektronikus ügyintézés ma már nem számít speciális területnek, egyre inkább a mindennapok szerves része. Ez kihívást jelent úgy az ügyfelek, mint a jogalkalmazók vagy akár a jogi képviselők számára is.

További információ >>[/box]

A professzor figyelmeztetett, „ha megfelelően akarunk eljárni, tudnunk kell, hogy kik az érintettek, mivel, ha nem figyelünk oda könnyen téves következtetésekre juthatunk és adatvédelmi aggályok is felmerülhetnek.”

Az ilyen jellegű tévedések, hátrányos megkülönböztetések a bíróságok, pénzügyi intézmények és jogalkotók által favorizált mesterséges intelligencia és gépi tanulási szoftverekben is jelen lehetnek, amelynek beláthatatlanok a következményei.

Andrea Freeman a Denveri Egyetem jogi professzora felhívta a figyelmet, hogy az algoritmusokat emberek írják. Ha ezek az emberek rasszista környezetben, vagy rendszerszintű diszkriminációban élnek, az a programkódban is meg fog jelenni.

Kevin Petrasic a White & Case Ügyvédi Iroda globális pénzügyi intézmények tanácsadási részlegét vezető ügyvéd szerint az algoritmusok alkalmazóinak elszámoltathatónak kell lenniük, ha diszkriminatívan működő szoftvert alkalmaznak, amely hátrányosan megkülönbözteti a védett tulajdonsággal rendelkezőket.

„A jogalkotó intézkedéseket vezethet be az ilyen szoftverek vásárlói vagy olyan szervezetek ellen, akik nyilvánvalóan diszkriminálnak. Azonban, ha az ilyen szoftvert használó cégek nem fordítanak figyelmet az algoritmusok eredményeinek ellenőrzésére, nem sokat fognak törődni a diszkriminációellenes jogszabályokkal sem.”

„A pénzügyi intézményeknek ki kell dolgozniuk egy magyarázatot, amelyen keresztül be tudják mutatni, hogy az adott algoritmus hogyan működik, és milyen intézkedéseket alkalmaznak az eredmények felülvizsgálatára.

(law.com)


Kapcsolódó cikkek

2024. április 25.

NMHH: reklámriport miatt bírságolt a médiatanács

Túlmutatott a támogatás megengedett keretein a Trendmánia című műsorszám december 16-án sugárzott adása, ezzel a TV2 megsértette a törvényi rendelkezést, a médiatanács emiatt megbírságolta a médiaszolgáltatót – közölte a Nemzeti Média- és Hírközlési Hatóság (NMHH) kommunikációs igazgatósága

2024. április 24.

Jöhet a személyre szabott reklámoktól mentes ingyenes Facebook és Instagram?

Nagy várakozás előzte meg az uniós adatvédelmi testület (EDPB) állásfoglalását az egyelőre leginkább a Meta által használt „consent or pay” (hozzájárulás vagy fizetés) üzleti modell adatvédelmi vonatkozásaival kapcsolatban. Várhatóan mi lesz a hatása a véleménynek a közösségi médiumok és platformok működésére, mit jelenthet mindez a piaci szereplők és a felhasználók számára? A fenti kérdéseket Bartal Ivánnal, az Oppenheim Ügyvédi Iroda adatvédelmi jogi praxisának vezetőjével jártuk körbe.