Sikkerhet i maskinlæringsmodeller

Det er for tiden stor interesse for bruk av kunstig intelligens og spesielt maskinlæring (ML) innenfor informasjonssikkerhetsområdet. Vi kan se tre ulike former for slik bruk av ML: ML for å forsvare mot cyberangrep, offensiv bruk av ML for angrep (inkludert etisk hacking/pentesting) og angrep på selve ML-systemet. 

Denne oppgaven vil utforske angrep på selve ML-systemet. Ønsket fokus vil være på ML-modeller som brukes for forsvar mot cyberangrep men andre områder kan også vurderes. Det er flere ulike retninger oppgaven kan ta. Dette inkluderer: forgiftningsangrep på treningsdata, unngåelser av deteksjon, robusthet gjennom adverserial maskinlæring (f.eks. generative adverseriale nettverk (GAN)) og formell verifisering av egenskaper til modeller (f.eks. ved bruk av Marabou-rammeverket).

Oppgaven vil være i samarbeid med Forsvarets forkningsinstitutt som betyr at studenten må kunne sikkerhetsklareres (Nivå konfidensielt; merk at det ikke er noe krav på at studenten allerede har klarering, men må kunne bli klarert)

Emneord: ML, sikkerhet, adversarial ML
Publisert 28. sep. 2023 13:34 - Sist endret 20. nov. 2023 12:05

Veileder(e)

Omfang (studiepoeng)

60