KnowBe4

Slik beskytter du deg mot deepfake

Del
Svindlere bruker i økende grad deepfake-teknologi for å lure oss. – Avanserte metoder lykkes ofte i å lure oss, men det er flere tegn du kan se etter for å avsløre deepfake, sier sikkerhetsekspert Jelle Wieringa.
RISIKO: For å lage deepfake, tar kriminelle utgangspunkt i virkelige bilder, videoer og stemmeopptak. Ledere, influensere og andre som deler mye i sosiale medier, må være klar over risikoen de utsetter seg for ved å dele bilder, stemmeopptak og videoer. Foto: iStock
RISIKO: For å lage deepfake, tar kriminelle utgangspunkt i virkelige bilder, videoer og stemmeopptak. Ledere, influensere og andre som deler mye i sosiale medier, må være klar over risikoen de utsetter seg for ved å dele bilder, stemmeopptak og videoer. Foto: iStock

Deepfake lages ved bruk av kunstig intelligens og komplekse maskinlæringsalgoritmer. Navnet kommer av ordene «deep learning» og «fake». Som følge av bedre teknologi, blir deepfake-video, -bilde og -lyd stadig mer realistisk og overbevisende. Dette utnyttes av kriminelle i cyberangrep, svindel og utpressing.

– Tidligere var det komplisert å lage en deepfake, men nå har teknologien blitt så avansert at selv folk med lite teknisk kunnskap kan bruke den. Det finnes også programmer du kan bruke for å forfalske identiteten din i sanntid, slik at du kan delta i et Teams-møte og både se og høres ut som nesten hvem som helst, forklarer sikkerhetsekspert Jelle Wieringa i det globale IT-sikkerhetskonsernet KnowBe4.

Over halvparten tror de oppdager deepfake

I en undersøkelse gjennomført for KnowBe4 svarte 1 000 nordmenn på hvor sikre de er på at de vil oppdage nettsvindel i form av en deepfake-video. 53 prosent er helt eller ganske sikre på at de vil greie å oppdage det.

– For å bli bedre rustet til å oppdage deepfake, er det viktigste du kan gjøre å bli mer bevisst på at dette skjer, og at det utgjør en trussel. Oktober er Nasjonal sikkerhetsmåned og en fin anledning til å sette deg inn i hva du bør se etter, sier Wieringa.

Øyne og hår kan avsløre

Teknologien som utnyttes i deepfake-svindel utvikles raskt og blir stadig vanskeligere å gjennomskue, men det er noen tegn du kan se etter.

– Selv om teknologien etter hvert er blitt veldig bra, er det fortsatt ofte noen defekter eller forvrengninger. Dette vises ofte på øynene eller håret, som det er vanskelig å få til bra i deepfake. Du kan også se etter uoverensstemmelser mellom leppe-, lyd- og ansiktsbevegelser, og se på om belysning og skygger ser realistiske ut, råder Wieringa.

– En annen måte å sjekke om en video kan være en deepfake, er å vurdere om kilden som publiserte den er en pålitelig kilde. Hvis du er usikker på om noen du snakker med på telefon eller over Teams utnytter deepfake, bør du stille kontrollspørsmål til personen, sier Wieringa.

Influensere særlig utsatt

Sikkerhetsekspertens siste råd er å unngå å «gi ammunisjon» til svindlere som ønsker å utnytte deepfake. For å kunne lage det, må de ta utgangspunkt i virkelige bilder, videoer eller stemmeopptak.

– Vi lever i en tid der mange deler mye fra livet i sosiale medier, både ledere og influensere. Vi ser også at sosiale medier-kanaler belønner videoer. Det gjør jobben enklere for svindlere, sier Wieringa. 

– Det dukker stadig opp nye influensere, som ønsker å få flest mulig følgere, men også ledere som bruker sosiale medier for å kommunisere med omverdenen. De bør være klar over risikoen de utsetter seg for ved å dele bilder, opptak av stemmen sin og videoer. For å unngå å bli etterlignet i en deepfake bør du begrense tilstedeværelsen din på sosiale medier, råder sikkerhetseksperten. 

Nøkkelord

Kontakter

Bilder

RISIKO: For å lage deepfake, tar kriminelle utgangspunkt i virkelige bilder, videoer og stemmeopptak. Ledere, influensere og andre som deler mye i sosiale medier, må være klar over risikoen de utsetter seg for ved å dele bilder, stemmeopptak og videoer. Foto: iStock
RISIKO: For å lage deepfake, tar kriminelle utgangspunkt i virkelige bilder, videoer og stemmeopptak. Ledere, influensere og andre som deler mye i sosiale medier, må være klar over risikoen de utsetter seg for ved å dele bilder, stemmeopptak og videoer. Foto: iStock
Last ned bilde
RUSTET: – For å bli bedre rustet til å kunne oppdage deepfake, er det viktigste du kan gjøre å bli mer bevisst på at dette skjer, og at det utgjør en trussel. Oktober er Nasjonal sikkerhetsmåned og en fin anledning til å sette deg inn i hva du bør se etter, sier sikkerhetsekspert Jelle Wieringa i KnowBe4. Foto: KnowBe4
RUSTET: – For å bli bedre rustet til å kunne oppdage deepfake, er det viktigste du kan gjøre å bli mer bevisst på at dette skjer, og at det utgjør en trussel. Oktober er Nasjonal sikkerhetsmåned og en fin anledning til å sette deg inn i hva du bør se etter, sier sikkerhetsekspert Jelle Wieringa i KnowBe4. Foto: KnowBe4
Last ned bilde

Om KnowBe4

KnowBe4
KnowBe4
Kristian Augusts gate 13
0164 Oslo

https://www.knowbe4.com/

KnowBe4 er en ledende leverandør av opplæring i IT-sikkerhet, og brukes av mer enn 54 000 organisasjoner over hele verden. 

Våren 2019 kjøpte KnowBe4 det norske selskapet CLTRe, som forsker på sikkerhetskultur. CLTRe ble senere til KnowBe4 Research og det er KnowBe4s forskningssenter, som er lokalisert i Oslo. 

Knowbe4 Research forsker på sikkerhetskultur, risiko, menneskelig atferd og hvordan atferd påvirker sikkerheten. Målet  er å finne ut mer om hva som må til for å redusere sikkerhetsrisikoen mennesker utgjør i en organisasjon.
 
Forskningssenteret i Oslo jobber uavhengig av KnowBe4s andre enheter og har som mål at forskningsfunnene skal komme hele IT-sikkerhetsbransjen til gode, ikke kun KnowBe4 og selskapets kunder.

Følg pressemeldinger fra KnowBe4

Registrer deg med din e-postadresse under for å få de nyeste sakene fra KnowBe4 på e-post fortløpende. Du kan melde deg av når som helst.

Siste pressemeldinger fra KnowBe4

I vårt presserom finner du alle våre siste pressemeldinger, kontaktpersoner, bilder, dokumenter og annen relevant informasjon om oss.

Besøk vårt presserom
World GlobeA line styled icon from Orion Icon Library.HiddenA line styled icon from Orion Icon Library.Eye