Cybersäkerhetsbloggen | Inuit WithSecure

Mikko Hyppönens 5 största AI-hot för 2024

Skriven av Markus Arvidsson | 2024-01-02 13:33

"AI förändrar allt", säger Mikko Hyppönen till TNW där denna artikel är hämtad ifrån. "AI-revolutionen kommer att bli större än internetrevolutionen."

Som en självskriven optimist förväntar sig Mikko att revolutionen kommer att ge positiva effekter, men han är också orolig för de cyberhot det kommer att släppa lös.

Nu i inledningen av 2024 avslöjar Mikko sina fem mest angelägna bekymmer för det kommande året. 

1. Deepfakes

Deepfake-bedrägeriförsök har ökat med 3 000% under 2023 enligt forskning från Onfido, ett ID-verifieringsföretag baserat i London. Även om bedrägerier som utnyttjar övertygande deepfakes fortfarande är ovanliga, förväntas deras omfattning snabbt öka.

Det händer inte i stor skala än, men det kommer att bli ett problem inom en mycket kort tid.

För att minska risken föreslår han att man använder "säkra ord" under videokonferenser för att verifiera information och undvika bedrägeri.

2. Deep scams

Deep scams utnyttjar automatisering för att expandera måltalen för olika typer av bedrägerier, inklusive investeringsbedrägerier, phishingbedrägerier och romansbedrägerier. Genom att använda stora språkmodeller kan bedragare nå tusentals offer samtidigt.

Till exempel kan Airbnb-bedragare generera oändliga mängder trovärdiga annonser som är svåra att upptäcka med hjälp av GenAI-teknik.

3. LLM-aktiverad skadlig kod

Med hjälp av ett OpenAI API utnyttjar maskarna GPT för att generera olika kod för varje mål den infekterar. Det gör dem svåra att upptäcka. OpenAI kan dock svartlista beteendet hos skadlig programvara.

Detta är möjligt med de mest kraftfulla kodskrivande generativa AI-systemen eftersom de är sluten källkod.

Mikko varnar för att om hela språkmodeller laddas ner och körs lokalt kan det bli svårare att svartlista och begränsa våldsamma, pornografiska och vilseledande material som genereras av AI-system.

4. Upptäckt av zero-day-sårbarheter

Ett växande hot är zero-day-sårbarheter, som upptäcks av angripare innan utvecklare har skapat en lösning för problemet. AI kan användas för att upptäcka och även skapa sådana sårbarheter. Det är viktigt att ha en förståelse för hur AI kan användas för att hitta dessa sårbarheter för att kunna skydda systemen mot attacker.

5. Automatiserad skadlig kod

Automatisering är ett kraftfullt verktyg för att försvara sig mot attacker, men förbättrad automatisering kan också användas av skadlig kod. Automatiserade skadlig kod-kampanjer kan bli verklighet snart och utgör en allvarlig säkerhetsrisk. För att bekämpa detta hot måste företag och organisationer fokusera på att utveckla starka AI-baserade försvarssystem.

Hotet om artificial general intelligence (AGI)

Mikko Hyppönen har en uppmärksammad hypotes om IoT-säkerhet. Känd som Hyppönen Law, säger teorin att närhelst en apparat beskrivs som "smart" är den sårbar. Om den lagen gäller superintelligenta maskiner kan vi hamna i allvarliga problem.

Jag tror att vi kommer att bli den näst mest intelligenta varelsen på planeten under min livstid. Jag tror inte att det kommer att hända 2024. Men jag tror att det kommer att hända under min livstid.

Det skulle öka rädslan för artificiell allmän intelligens. För att upprätthålla mänsklig kontroll över AGI, förespråkar Mikko stark anpassning till våra mål och behov.

De saker vi bygger måste ha en förståelse för mänskligheten och dela dess långsiktiga intressen med människor... Uppsidan är enorm - större än någonsin - men nackdelen är också större än någonsin.

 

Kommentarer