Hur kan cyberkriminella utnyttja AI som GPT?

I en forskningsrapport från WithSecure Labs diskuteras den potentiella användningen av autoregressiva språkmodeller som GPT-3 och GPT-3.5 av cyberkriminella för att snabbt och enkelt generera människolikt språk. Det betonar också vikten av att studera dessa modeller och deras resultat för att förstå deras kapacitet och potentiella missbruk, samt att utveckla metoder för att upptäcka skadligt innehåll och skapa säkrare modeller i framtiden.

Artificiell intelligens används idag för att skapa effektivare skydd men även cyberkriminella kan dra nytta av AI som ChatGPT för att bygga egna verktyg.Olika användningsområden undersöktes som:

  • nätfiskeinnehåll
  • socialt motstånd
  • social validering
  • stilöverföring
  • åsiktsöverföring
  • skapande av s.k. promtar
  • falska nyheter

Experimenten visade att dessa modeller kan användas för att skapa övertygande nätfiskeattacker och falska nyhetsartiklar, och att de är potentiella drivkrafter för cyberbrottslighet och attacker.

Läs forskningsrapporten här

Subscription Icon Illustrations

Prenumerera på bloggen

Håll koll på senaste nytt genom att prenumerera.
Vi levererar nyheterna direkt i din inkorg!