AI-forskare varnar för våg av nätfiske och påverkanskampanjer

Chat GPT är redan en succé och nu varnar WithSecure för att det bara är en tidsfråga innan mer hotaktörer börjar använda sig av avancerade AI-baserade språkmodeller för att skapa nya hot.

I en artikel i Computer Sweden utvecklar Andy Patel, AI-forskare på WithSecure, detta resonemang och pekar på risken för att det kommer en stor mängd avancerat nätfiske, spearphishing, fake news, trakasserier och påverkanskampanjer i sociala medier.

– Det finns risker med det här, eftersom de här teknikerna är tillgängliga nu och de tekniker som behövs för att förhindra missbruk inte är det. Människor inser hur effektiva de här verktygen är och användandet ökar, säger Andy Patel.

AI-forskaren Andy Patel på WithSecure uttalar sig i Computer Sweden om vad vi kan förvänta oss när cyberkriminella börjar AI i större skala.Han varnar vidare för vad som han tror vi kommer se först:

– Du kan skapa en bot som svarar på poster på ett toxiskt (förgiftat) sätt, för trakasserier till exempel. Du kan skapa en bot för att stödja eller göra motstånd i vissa frågor och som spammas över politiska hashtags.

I en tidigare artikel kan du ta del av en rapport om olika användningsområden cyberkriminella kan utnyttja GPT-3 och GPT-3.

Missa inte webinaret den 2 februari om hur hotlandskapet mot Sveriges organisationer ser ut.

Markus Arvidsson

Markus brinner för teknik som skapar värde för verksamheten. Han delar med sig av intressanta artiklar, lyfter fram specialister inom olika områden samt reflekterar om säkerhet och smarta IT-system.
Subscription Icon Illustrations

Prenumerera på bloggen

Håll koll på senaste nytt genom att prenumerera.
Vi levererar nyheterna direkt i din inkorg!