Önálló labor témák 2019

Kategóriák

All, ICS/SCADA, Intrusion Detection, SoC, Forensics, Cars, Internet of Things, Embedded systems, Ethical hacking, Machine Learning, Privacy, Anonymization, Economics, Risk management, Security Education

A laborban több aktív kutatási területeken lehet önálló labor, szakdolgozat, és diplomaterv témát választani. Ezeknek a területeknek a leírása található alább, illetve ebben a diasorban. Ha valamelyik tématerület érdekel, keresd meg a tématerületért felelős kollégánkat, és beszéljetek lehetséges konkrét feladatokról a területen belül. Ne feledjétek, hogy egy-egy feladaton kisebb csoportban (team-ben) is lehet dolgozni.

Adatvédelem és biztonság gépi tanulásban

Kategória: Machine Learning, Privacy, Anonymization

A mesterséges intelligencia és gépi tanulás térnyerése vitathatatlan. Az automatizált döntéseket alkalmazó rendszerek száma rohamosan növekszik (önjáró autók, egészségügyi alkalmazások, felhasználói hitelesítés, döntéstámogatás, profilozás, stb.). Például egy ilyen gépi modell megjósolhatja betegek halálozását a tünetegyüttesből, vagy a hitelképességet demográfiai és egyéb személyes adatokból, vagy fehérjék és kémiai anyagok reakcióképességét gyógyszerfejlesztés céljából korábbi adatokból. Ugyanakkor az ilyen rendszerek adatvédelmi és biztonsági problémái jelentősek, szerteágazóak, és megoldatlanok [1]. A hallgatók az alábbi témákon dolgozhatnak.

  • Tanuló adatok visszafejtése: A támadás során egy gépi modellból a támadó érzékeny adatokat próbál visszafejteni, amin a modellt betanították. Például a támadó képes lehet egy arcfelismerő rendszerből a felismerendő személy arcának a rekonstrukciójára csupán a modellt felhasználva [2][8]. Vagy akár egy kórházi adatbázisból épített modellból a betegek adatainak a visszafejtésére [3]. A hallgatók feladata a tanulási folyamat olyan módosítása, amely eredményeképpen a megtanult modell érzékeny adatot szívárogtat ki a tanuló adatokról (pl. a tanuló adatoknak a modell paraméterekben - mint "covert channel" - történő kódolásával [8]). Másik lehetséges feladat a tagsági támadás [7] és modell inverzió [2] implementációja.
  • Védekezés tanuló adatok visszafejtése ellen: Neurális hálókból ill. azok paramétereiből konkrét személyek adatai sokszor visszafejthetőek [1] [7], ha a hálót személyes adatokon tanították (pl. betegek tünetei, hitelért folyamodók demográfiai adatai, stb.). A hallgató feladata olyan neurális hálók éptése, amely használható az eredeti céljára (pl. halálozás jóslása tünetegyüttesből) úgy, hogy a tanításhoz használt személyek (pl. betegek) adatai nem visszafejthetőek a háló paramétereiből.
  • Személyes adatok anonimizációja gépi tanulással: Számos cég/szervezet/kormány oszt meg egymással adatokat, amelyek "anonimizáltak" vagy aggregált (statisztikai) adatok. Sajnos az adatok megfelelő anonimizációja nehéz, és gyakran anonimnak vélt adatokból konkrét személyek érzékeny adatai visszafejthetők [4] [5] [6]. A hallgató feladata szekvenciális adatok (pl. GPS, áramfogyasztás, autos szenzorok) anonimizációja gépi tanulással.

Elvárás: munkára való hajlandóság, gépi tanulás ismerete előny de nem feltétel
[1] Attacks against machine learning — an overview
[2] Model Inversion Attacks
[3] Deep Models Under the GAN: Information Leakage from Collaborative Deep Learning
[4] Unique in the Crowd: The privacy bounds of human mobility
[5] A személyes adat és a GDPR
[6] Az aggregált adat és a GDPR
[7] Membership Inference Attacks Against Machine Learning Models
[8] Machine Learning Models that Remember Too Much

Létszám: 3 hallgató

Kapcsolat: Ács Gergely (CrySyS Lab)