Önálló labor témák 2019

Kategóriák

All, ICS/SCADA, Intrusion Detection, SoC, Forensics, Cars, Internet of Things, Embedded systems, Ethical hacking, Machine Learning, Privacy, Anonymization, Economics, Risk management, Security Education

A laborban több aktív kutatási területeken lehet önálló labor, szakdolgozat, és diplomaterv témát választani. Ezeknek a területeknek a leírása található alább, illetve ebben a diasorban. Ha valamelyik tématerület érdekel, keresd meg a tématerületért felelős kollégánkat, és beszéljetek lehetséges konkrét feladatokról a területen belül. Ne feledjétek, hogy egy-egy feladaton kisebb csoportban (team-ben) is lehet dolgozni.

Adatvédelem és biztonság gépi tanulásban

Kategória: Machine Learning, Privacy, Anonymization

A mesterséges intelligencia és gépi tanulás térnyerése vitathatatlan. Az automatizált döntéseket alkalmazó rendszerek száma rohamosan növekszik (önjáró autók, egészségügyi alkalmazások, felhasználói hitelesítés, döntéstámogatás, profilozás, stb.). Például egy ilyen gépi modell megjósolhatja betegek halálozását a tünetegyüttesből, vagy a hitelképességet demográfiai és egyéb személyes adatokból, vagy fehérjék és kémiai anyagok reakcióképességét gyógyszerfejlesztés céljából korábbi adatokból. Ugyanakkor az ilyen rendszerek adatvédelmi és biztonsági problémái jelentősek, szerteágazóak, és megoldatlanok [1]. A hallgatók az alábbi témákon dolgozhatnak.

  • Tanuló adatok visszafejtése: A támadás során egy gépi modellból a támadó érzékeny adatokat próbál visszafejteni, amin a modellt betanították. Például a támadó képes lehet egy arcfelismerő rendszerből a felismerendő személy arcának a rekonstrukciójára csupán a modellt felhasználva [2][8]. Vagy akár egy kórházi adatbázisból épített modellból a betegek adatainak a visszafejtésére [3]. A hallgatók feladata a tanulási folyamat olyan módosítása, amely eredményeképpen a megtanult modell érzékeny adatot szívárogtat ki a tanuló adatokról (pl. a tanuló adatoknak a modell paraméterekben - mint "covert channel" - történő kódolásával [8]). Másik lehetséges feladat a kész modellból tanuló adatok közvetlen visszafejtése ([11], [7], [2]).
  • Védekezés tanuló adatok visszafejtése ellen: Neurális hálókból ill. azok paramétereiből konkrét személyek adatai sokszor visszafejthetőek [1] [7], ha a hálót személyes adatokon tanították (pl. betegek tünetei, hitelért folyamodók demográfiai adatai, stb.). A hallgató feladata olyan neurális hálók éptése, amely használható az eredeti céljára (pl. halálozás jóslása tünetegyüttesből) úgy, hogy a tanításhoz használt személyek (pl. betegek) adatai nem visszafejthetőek a háló paramétereiből.
  • Személyes adatok anonimizációja gépi tanulással: Számos cég/szervezet/kormány oszt meg egymással adatokat, amelyek "anonimizáltak" vagy aggregált (statisztikai) adatok. Sajnos az adatok megfelelő anonimizációja nehéz, és gyakran anonimnak vélt adatokból konkrét személyek érzékeny adatai visszafejthetők [4] [5] [6]. A hallgató feladata szekvenciális adatok (pl. GPS, áramfogyasztás, autos szenzorok) anonimizációja gépi tanulással.
  • Jelszavak osztályozása gépi tanulással: Vajon mi alapján választunk magunknak jelszavakat? Van e meghatározható különbség nők és férfiak jelszóválasztásai között? Ilyen és ehhez hasonló kérdésekre keressük a választ NLP (Natural Language Processing) algoritmusok segítségével [9], valamint egy érdekes tulajdonságokkal rendelkező új távolság függvény alkalmazásával [10], amit kifejezetten szavak közötti távolság definiálására alkottak meg.

Elvárás: munkára való hajlandóság, gépi tanulás ismerete előny de nem feltétel
[1] Attacks against machine learning — an overview
[2] Model Inversion Attacks
[3] Deep Models Under the GAN: Information Leakage from Collaborative Deep Learning
[4] Unique in the Crowd: The privacy bounds of human mobility
[5] A személyes adat és a GDPR
[6] Az aggregált adat és a GDPR
[7] Membership Inference Attacks Against Machine Learning Models
[8] Machine Learning Models that Remember Too Much
[9] Natural Language Processing
[10] Vector Representations of Words
[11] The Secret Sharer: Measuring Unintended Neural Network Memorization & Extracting Secrets

Létszám: 4 hallgató

Kapcsolat: Ács Gergely (CrySyS Lab)

Economics of cybersecurity and data privacy

Kategória: Economics, Risk management, Privacy

As evidenced in the last 10-15 years, cybersecurity is not a purely technical discipline. Decision-makers, whether sitting at security providers (IT companies), security demanders (everyone using IT) or the security industry, are mostly driven by economic incentives. Understanding these incentives are vital for designing systems that are secure in real-life scenarios [1]. Parallel to this, data privacy has also shown the same characteristics: proper economic incentives and controls are needed to design systems where sharing data is beneficial to both data subject and data controller. An extreme example to a flawed attempt at such a design is the Cambridge Analytica case [2].
The prospective student will identify a cybersecurity or data privacy economics problem, and use elements of game theory and other domain-specific techniques and software tools to transform the problem into a model and to propose a solution. Potential topics include:

  • data markets
  • cyber-warfare
  • interdependent privacy
  • economics and privacy in collaborative ML

Required skills: analytic thinking, good command of English
Preferred skills: basic knowledge of game theory, basic programming skills (e.g., python, matlab, NetLogo)
[1] Anderson, Ross, and Moore, Tyler. "The Economics of Information Security." Science 314.5799(2006):610-613.
[2] Symeonidis, Iraklis and Biczók, Gergely. " Interdependent privacy in effect: the collateral damage of third-party apps on Facebook. CrySyS Blog.

Létszám: 3 students

Kapcsolat: Gergely Biczók (CrySyS Lab)