Chat GPT är redan en succé och nu varnar WithSecure för att det bara är en tidsfråga innan mer hotaktörer börjar använda sig av avancerade AI-baserade språkmodeller för att skapa nya hot.
I en artikel i Computer Sweden utvecklar Andy Patel, AI-forskare på WithSecure, detta resonemang och pekar på risken för att det kommer en stor mängd avancerat nätfiske, spearphishing, fake news, trakasserier och påverkanskampanjer i sociala medier.
– Det finns risker med det här, eftersom de här teknikerna är tillgängliga nu och de tekniker som behövs för att förhindra missbruk inte är det. Människor inser hur effektiva de här verktygen är och användandet ökar, säger Andy Patel.
– Du kan skapa en bot som svarar på poster på ett toxiskt (förgiftat) sätt, för trakasserier till exempel. Du kan skapa en bot för att stödja eller göra motstånd i vissa frågor och som spammas över politiska hashtags.
I en tidigare artikel kan du ta del av en rapport om olika användningsområden cyberkriminella kan utnyttja GPT-3 och GPT-3.
Missa inte webinaret den 2 februari om hur hotlandskapet mot Sveriges organisationer ser ut.