Threat Research

Hur kan cyberkriminella utnyttja AI som GPT?

Artificiell intelligens används idag för att skapa effektivare skydd men även cyberkriminella kan dra nytta av AI som ChatGPT för att bygga egna verktyg.


I en forskningsrapport från WithSecure Labs diskuteras den potentiella användningen av autoregressiva språkmodeller som GPT-3 och GPT-3.5 av cyberkriminella för att snabbt och enkelt generera människolikt språk. Det betonar också vikten av att studera dessa modeller och deras resultat för att förstå deras kapacitet och potentiella missbruk, samt att utveckla metoder för att upptäcka skadligt innehåll och skapa säkrare modeller i framtiden.

Artificiell intelligens används idag för att skapa effektivare skydd men även cyberkriminella kan dra nytta av AI som ChatGPT för att bygga egna verktyg.Olika användningsområden undersöktes som:

  • nätfiskeinnehåll
  • socialt motstånd
  • social validering
  • stilöverföring
  • åsiktsöverföring
  • skapande av s.k. promtar
  • falska nyheter

Experimenten visade att dessa modeller kan användas för att skapa övertygande nätfiskeattacker och falska nyhetsartiklar, och att de är potentiella drivkrafter för cyberbrottslighet och attacker.

Läs forskningsrapporten här

Liknande artiklar

Missa inget på bloggen

Prenumera på veckovisa uppdateringar om cybersäkerhetsläget samt tips & tricks och nyheter från WithSecure.

Prenumerera på bloggen