Säkerhetsexperten varnar för virtuella kidnappningar – så kan du skydda dig
Hem SÄKERHETSEXPERTEN LEIF TALAR Säkerhetsexperten varnar för virtuella kidnappningar – så kan du skydda dig

Säkerhetsexperten varnar för virtuella kidnappningar – så kan du skydda dig

Publicerat av: Sandra Kassman

Teknik för deepfakes används redan av cyberkriminella för bedrägerier eller för att skapa fake news.

I USA har det dykt upp fall där deepfakes till och med används för virtuella kidnappningar.

Säkerhetsexperten Leif Jensen på ESET varnar för att den här typen av cyberkriminalitet kommer att bli vanligare.

Den snabba AI-utvecklingen öppnar inte bara upp möjligheter för goda krafter i samhället, utan också för illasinnade. Allt mer avancerade verktyg för deepfakes – det vill säga teknik som använder AI för att skapa realistiska förändringar i bilder eller videor – nyttjas redan för att genomföra bedrägerier eller skapa fake news.

I USA har det till och med dykt upp exempel på att deepfakes-teknik används för virtuella kidnappningar. Det säger säkerhetsexperten Leif Jensen på ESET – och han vill nu varna för att den här metoden kommer att bli vanligare och sprida sig.

– Hittills har vi inte sett särskilt många case, men det finns exempel från USA, där föräldrar fått telefonsamtal från några som påstod att de hade kidnappat deras dotter. De hade sedan en klonad röst från dottern, som skulle utgöra bevis för detta eller ett livstecken.

Skälen till att Leif Jensen tror att den här typen av cyberkriminalitet kan bli vanligare i framtiden är flera: Den snabba teknikutveklingen, att det är förhållandevis låg risk för de som genomför brotten, men också att själva ”affärsmodellen” som bygger på utpressning redan finns där, som en följd av ransomware-attackerna.

– Det har hänt så oerhört mycket inom AI och maskininlärning på bara ett år. Tekniken rör sig framåt så fort att det är svårt att hänga med.

Leif Jensen säger att deepfakes hittills använts mest för att skapa fake news, men också för bedrägerier.

– Där går det också att se att tekniken och videofilmerna blir bättre och bättre, och att det blir svårare att se skillnad på vad som är verkligt och inte är det.

Säkerhetsexperten varnar för virtuella kidnappningar – så kan du skydda dig

Leif Jensen, Säkerhetsexpert på ESET

Har det varit några fall av virtuella kidnappningar i de nordiska länderna?

– Vi har inte haft några fall hittills i Danmark och jag skulle bli förvånad om ni haft det i Sverige, men det innebär inte att vi inte kommer att få se det.

– Vi kommer kanske inte att se det de närmaste tre månaderna, men vid någon punkt kommer vi att se det. Jag skulle tippa inom två till tre år. Tekniken finns där redan.

Leif Jensen säger att virtuell kidnappning passar väldigt väl in i finansieringsmodellen som cyberkriminella ofta använder sig av.

– De kriminella har kommit underfull med att om de tar någonting som gisslan, hittills har det oftast varit data, då är människor ofta beredda att betala för det. Det är samma koncept här. De har tagit något från dig och det är bråttom att betala om du vill ha tillbaka det.

Leif Jensen fortsätter:

– Då kan man invända att det är ett stort steg att gå från att ta data som gisslan och att kidnappa en människa. Men då ska man komma ihåg att de faktiskt inte kidnappar någon, utan det är ju bara fejk.

Några moraliska betänkligheter för att genomföra den här typen av brott lär inte ransomware-gängen ha heller, tillägger Leif Jensen.

– För ett par år sedan hävdade de att de inte skulle attackera sjukhus. Nu bryr de sig inte om vad de attackerar, om det är sjukhus eller inte.

– Om man sedan ser på risken de tar så är den betydligt mindre, både vad gäller att åka fast och att de skulle få kännbara straff, eftersom de faktiskt inte kidnappar någon fysiskt. Det handlar om pengar och om att återanvända en affärsmodell de redan arbetat fram.

Vad använder de för verktyg för att genomföra sådana här deepfakes?

– Det är faktiskt ganska enkelt att söka på webben efter verktyg som de kan använda, både gratis och sådana som kostar. Det är lätt att hitta verktyg som inte bara kan skapa text, utan också bilder och video.

– De behöver tio minuters ljud av en persons röst för att kunna klona den. Därför går de till de stora sociala medierna där människor postar videos med ljud. När de hittar någon kan de kolla upp den personens andra sociala medier och skapa sig en bild av personen.

Leif Jensen säger att det finns saker människor kan göra för att skydda sig från att falla offer för deepfakes. Till stor del handlar det om att tänka på vilken information man delar med sig av i sociala medier.

– Försök att begränsa vad du postar i sociala medier. Dela inte mer än du behöver. Om du inte är en content-skapare, ha som standardinställning att det bara är dina vänner som kan se dina poster. Om du skapar content, se till att det är svårt att identifiera saker som var du bor, vad du har för privat telefonnummer, uppgifter om din familj och så vidare.

– I familjerna sedan rekommenderar jag att prata med barnen om vad som kan hända på internet. Ett råd är att komma överens om ett ”safe word”. Om ett barn i familjen hör av sig och vill ha pengar, så kan man använda sig av ett sådant ord för att säkerställa att det är rätt person man pratar om.

Relaterade Artiklar

Vi använder cookies och andra identifierare för att förbättra din upplevelse. Detta gör att vi kan säkerställa din åtkomst, analysera ditt besök på vår webbplats. Det hjälper oss att erbjuda dig ett personligt anpassat innehåll och smidig åtkomst till användbar information. Klicka på ”Jag godkänner” för att acceptera vår användning av cookies och andra identifierare eller klicka ”Mer information” för att justera dina val. Jag Godkänner Mer Information >>

-
00:00
00:00
Update Required Flash plugin
-
00:00
00:00