Det er for tiden stor interesse for bruk av kunstig intelligens og spesielt maskinlæring (ML) innenfor informasjonssikkerhetsområdet. Vi kan se tre ulike former for slik bruk av ML: ML for å forsvare mot cyberangrep, offensiv bruk av ML for angrep (inkludert etisk hacking/pentesting) og angrep på selve ML-systemet.
Denne oppgaven vil utforske angrep på selve ML-systemet. Ønsket fokus vil være på ML-modeller som brukes for forsvar mot cyberangrep men andre områder kan også vurderes. Det er flere ulike retninger oppgaven kan ta. Dette inkluderer: forgiftningsangrep på treningsdata, unngåelser av deteksjon, robusthet gjennom adverserial maskinlæring (f.eks. generative adverseriale nettverk (GAN)) og formell verifisering av egenskaper til modeller (f.eks. ved bruk av Marabou-rammeverket).
Oppgaven vil være i samarbeid med Forsvarets forkningsinstitutt som betyr at studenten må kunne sikkerhetsklareres (Nivå konfidensielt; merk at det ikke er noe krav på at studenten allerede har klarering, men må kunne bli klarert)