Lehet egy algoritmus rasszista?


Ez a cikk több mint egy éve került publikálásra. A cikkben szereplő információk a megjelenéskor pontosak voltak, de mára elavultak lehetnek.

Ügyvédek arra figyelmeztettek, hogy körültekintően használjuk a különböző algoritmusokat, mert könnyen előfordulhat, hogy elfogultan lettek megírva, ezért mindig ellenőrizzük az eredményeket.

Egy 2018-as kutatásban azt vizsgálták, hogy hogyan döntenek az algoritmusok egy hitelkérelem ügyében. A kutatásban résztvevő Cornell Egyetem kutatói felfedezték, hogy rossz döntések születhetnek, ha a védett tulajdonságukat (nem, rassz) nem adják meg a hitelkérelmezők.

Ezekben az esetekben az algoritmus lakóhely, vagy név, illetve egyéb tényező alapján értékelte, hogy a kérelmező milyen tulajdonságokkal (elsősorban faji hovatartozással) rendelkezhet..

A kutatást vezető Kallus professzor elmondta: „Alaposan a dolog végére akartunk járni, mert fontos ügyekben biztosnak kell lennünk, hogy jó dolgot teszünk, ezért hát mélyebbre ástunk az algoritmusokban.”

Több algoritmus vizsgálatát követően azt állapították meg, hogy ha a kérelmező nem tünteti fel a faji hovatartozását, akkor bizonyos algoritmusok alul mások pedig túlértékelik a megadott adatokból levont saját következtetéseiket.

Kallus professzor szerint az lenne a legegyszerűbb, ha a kérelmen feltüntethető lenne, hogy a kérelmező védett tulajdonsággal rendelkezik, ezzel lenne a legkönnyebben kiszűrhető a diszkrimináció.

[box title=”Magyarázat az elektronikus ügyintézésről” style=”soft” box_color=”#007ac3″ radius=”0″]

Az infokommunikációs eszközök fejlődése és elterjedése eredményeként az állam és állampolgár kapcsolata, a kapcsolattartás formája változni kezdett az elmúlt évtizedben. A központi közigazgatásban és egyes bírósági és egyéb eljárásokban az elektronikus ügyintézés ma már nem számít speciális területnek, egyre inkább a mindennapok szerves része. Ez kihívást jelent úgy az ügyfelek, mint a jogalkalmazók vagy akár a jogi képviselők számára is.

További információ >>[/box]

A professzor figyelmeztetett, „ha megfelelően akarunk eljárni, tudnunk kell, hogy kik az érintettek, mivel, ha nem figyelünk oda könnyen téves következtetésekre juthatunk és adatvédelmi aggályok is felmerülhetnek.”

Az ilyen jellegű tévedések, hátrányos megkülönböztetések a bíróságok, pénzügyi intézmények és jogalkotók által favorizált mesterséges intelligencia és gépi tanulási szoftverekben is jelen lehetnek, amelynek beláthatatlanok a következményei.

Andrea Freeman a Denveri Egyetem jogi professzora felhívta a figyelmet, hogy az algoritmusokat emberek írják. Ha ezek az emberek rasszista környezetben, vagy rendszerszintű diszkriminációban élnek, az a programkódban is meg fog jelenni.

Kevin Petrasic a White & Case Ügyvédi Iroda globális pénzügyi intézmények tanácsadási részlegét vezető ügyvéd szerint az algoritmusok alkalmazóinak elszámoltathatónak kell lenniük, ha diszkriminatívan működő szoftvert alkalmaznak, amely hátrányosan megkülönbözteti a védett tulajdonsággal rendelkezőket.

„A jogalkotó intézkedéseket vezethet be az ilyen szoftverek vásárlói vagy olyan szervezetek ellen, akik nyilvánvalóan diszkriminálnak. Azonban, ha az ilyen szoftvert használó cégek nem fordítanak figyelmet az algoritmusok eredményeinek ellenőrzésére, nem sokat fognak törődni a diszkriminációellenes jogszabályokkal sem.”

„A pénzügyi intézményeknek ki kell dolgozniuk egy magyarázatot, amelyen keresztül be tudják mutatni, hogy az adott algoritmus hogyan működik, és milyen intézkedéseket alkalmaznak az eredmények felülvizsgálatára.

(law.com)


Kapcsolódó cikkek

2021. október 26.

Nemzetközi darknetes hálózatra csaptak le

Több mint száz embert őrizetbe vettek, készpénzt, kábítószert, kriptovalutát és fegyvereket is lefoglaltak az úgynevezett darkneten, az internet különleges titkosító technológiákkal működő, főleg bűnözők által használt részén működő piactéren végzett Dark HunTOR nevű művelet során – közölte az Európai Unió rendőrségi együttműködési szervezete (Europol).

2021. október 26.

Megállapodott a Facebook a francia kiadókkal

Franciaország a techcégek méltányosabb juttatásokra irányuló régóta tartó törekvésében áttörő sikert ért el, miután a Facebook megállapodott országos és regionális újságok egy csoportját képviselő országos és regionális újságok szövetségével (APIG), hogy fizet a felhasználók által megosztott tartalmakért.