I en forskningsrapport från WithSecure Labs diskuteras den potentiella användningen av autoregressiva språkmodeller som GPT-3 och GPT-3.5 av cyberkriminella för att snabbt och enkelt generera människolikt språk. Det betonar också vikten av att studera dessa modeller och deras resultat för att förstå deras kapacitet och potentiella missbruk, samt att utveckla metoder för att upptäcka skadligt innehåll och skapa säkrare modeller i framtiden.
Experimenten visade att dessa modeller kan användas för att skapa övertygande nätfiskeattacker och falska nyhetsartiklar, och att de är potentiella drivkrafter för cyberbrottslighet och attacker.