Fairness problémák gépi tanulásban

Topics: Privacy, Machine Learning, Fairness

A mesterséges intelligencia és gépi tanulás térnyerése vitathatatlan. Az automatizált döntéseket alkalmazó rendszerek száma rohamosan növekszik (önjáró autók, egészségügyi alkalmazások, felhasználói hitelesítés, döntéstámogatás, profilozás, stb.). Ugyanakkor az ilyen rendszerek adatvédelmi és biztonsági problémái jelentősek, szerteágazók, és megoldatlanok.
A fairness problémák többnyire a tanulási halmazokban már jelenlevő alulreprezentáltság és előítéletek (bias) okozzák [1][2]. Például sok tanulási adatban felülreprezentáltak bizonyos embercsoportok, rasszok, ami miatt a modell emberek bizonyos csoportjára pontosabban működik mint másokra. Valóban, sok arcfelismerő rendszer színesbőrűekre pontatlanabb mint fehérekre, hasonlóan a hitelképesség automatikus felmérése során hátrányba kerülhetnek a színesbőrűek ha a tanulási adat szerint sok színesbőrű nem fizette vissza a hitelét a múltban. Kérdés, hogy építhető-e olyan modell, ami "immunis" a tanulási adathalmazban található alulreprezentáltságra és előítéletekre.
A hallgató feladata a különböző fairness fogalmak áttekintése és rendszerezése, illetve egy választott tanulási algoritmus implementálása valamely fairness garanciával.
Elvárás: irodalomkutatás és/vagy programozási hajlandóság
[1] www.bbc.com/news/technology-39533308
[2] www.theguardian.com/technology/2017/apr/13/ai-programs-exhibit-racist-and-sexist-biases-research-reveals

Maximum number of students: 1 student

Contact: Gergely Ács (CrySyS Lab)