KnowBe4

Over halvparten tror de vil gjennomskue deepfake

Del
En undersøkelse viser at 53 prosent av nordmenn tror de vil gjennomskue deepfake-videoer. – Teknologien som utnyttes i deepfake-svindel utvikles raskt og blir stadig vanskeligere å gjennomskue, advarer sikkerhetsekspert.
TRENE:  – Vi må huske på at ikke alt vi kan se stemmer, og trene oss selv i å bli mer skeptisk til både lydsamtaler og videoer, sier sikkerhetsekspert Jelle Wieringa i IT-sikkerhetskonsernet KnowBe4. Foto: KnowBe4
TRENE: – Vi må huske på at ikke alt vi kan se stemmer, og trene oss selv i å bli mer skeptisk til både lydsamtaler og videoer, sier sikkerhetsekspert Jelle Wieringa i IT-sikkerhetskonsernet KnowBe4. Foto: KnowBe4

Deepfake-svindel er en svindelmetode der kriminelle etterligner og gjenskaper en persons stemme gjennom lyd, eller fremstiller en person med både stemme og bilde i en video eller videosamtale. I en undersøkelse gjennomført for IT-sikkerhetskonsernet KnowBe4 har 1 000 nordmenn svart på hvor sikre de er på at de vil oppdage nettsvindel i form av en deepfake-video. 53 prosent er helt eller ganske sikre på at de vil greie å oppdage det.

– Nordmenn har sovet i timen. Mens man i mange andre europeiske land har advart mot deepfake-teknologien og misbruk av den i flere år, er man i Norge i liten grad blitt svindlet med denne teknologien. Det har endret seg og Økokrim bekreftet nylig at flere selskaper er blitt svindlet på denne måten og advarte mot deepfake. Hvis det ikke allerede har skjedd, vil vi snart få de første sakene med privatpersoner som svindles. For mange har allerede blitt lurt, for eksempel av videoer på YouTube og Facebook, sier sikkerhetsekspert Jelle Wieringa i KnowBe4. 

Kan forfalske sjefens stemme

Sikkerhetseksperten mener deepfake-teknologien for lyd har blitt så bra at det for det utrente øret er vanskelig å skille mellom det som er falskt og det som er ekte. Teknologien som brukes for videoer blir også stadig bedre og vanskeligere å gjennomskue.

Deepfake lages ved hjelp av kunstig intelligens og brukes også til gode formål, for eksempel til å gjenskape stemmen til noen som ha mistet taleevnen. Men effektiv teknologi blir utnyttet av svindlere.

– Stemmeforfalskning fungerer bra når svindlernes mål er å få noen til å utføre en handling, fordi med lyd er det færre elementer som kan avsløre at det er falskt. I jobbsammenheng er telefonsamtaler ofte korte, derfor benyttes lyd-deepfake i forbindelse med direktørsvindel, der målet er å lure ansatte til å tro at det er sjefen som ber dem overføre penger eller betale en faktura, forklarer Wieringa.

Sprer desinformasjon i videoer

– Hvis målet er å spre feil- eller desinformasjon brukes deepfake-videoer. Når noe vises på video har folk en tendens til å akseptere det som ekte. Hjernen vår er ganske enkelt koblet til å tenke at hvis vi kan se noe, må det være ekte. Et ferskt eksempel på bruk av deepfake-video for å spre desinformasjon, er den falske videoen med Ukrainas president Volodymyr Zelenskyj som ble spredt i sosiale medier i mars, sier sikkerhetseksperten.

– Deepfake-teknologi brukes allerede mye til å spre desinformasjon. Derfor er det viktig at organisasjoner starter å trene sine ansatte i å kunne gjenkjenne det. Vi må huske på at ikke alt vi kan se stemmer, og trene oss selv i å bli mer skeptisk til både lydsamtaler og videoer, råder Wieringa.

Nøkkelord

Kontakter

Bilder

TRENE:  – Vi må huske på at ikke alt vi kan se stemmer, og trene oss selv i å bli mer skeptisk til både lydsamtaler og videoer, sier sikkerhetsekspert Jelle Wieringa i IT-sikkerhetskonsernet KnowBe4. Foto: KnowBe4
TRENE: – Vi må huske på at ikke alt vi kan se stemmer, og trene oss selv i å bli mer skeptisk til både lydsamtaler og videoer, sier sikkerhetsekspert Jelle Wieringa i IT-sikkerhetskonsernet KnowBe4. Foto: KnowBe4
Last ned bilde
SOVET: – Nordmenn har sovet i timen. Mens man i mange andre europeiske land har advart mot deepfake-teknologien og misbruk av den i flere år, er man i Norge i liten grad blitt svindlet med denne teknologien, sier sikkerhetsekspert Jelle Wieringa i IT-sikkerhetskonsernet KnowBe4. Foto: KnowBe4
SOVET: – Nordmenn har sovet i timen. Mens man i mange andre europeiske land har advart mot deepfake-teknologien og misbruk av den i flere år, er man i Norge i liten grad blitt svindlet med denne teknologien, sier sikkerhetsekspert Jelle Wieringa i IT-sikkerhetskonsernet KnowBe4. Foto: KnowBe4
Last ned bilde

Om KnowBe4

KnowBe4
KnowBe4
Kristian Augusts gate 13
0164 Oslo

https://www.knowbe4.com/

KnowBe4 er en ledende leverandør av opplæring i IT-sikkerhet, og brukes av mer enn 54 000 organisasjoner over hele verden. 

Våren 2019 kjøpte KnowBe4 det norske selskapet CLTRe, som forsker på sikkerhetskultur. CLTRe ble senere til KnowBe4 Research og det er KnowBe4s forskningssenter, som er lokalisert i Oslo. 

Knowbe4 Research forsker på sikkerhetskultur, risiko, menneskelig atferd og hvordan atferd påvirker sikkerheten. Målet  er å finne ut mer om hva som må til for å redusere sikkerhetsrisikoen mennesker utgjør i en organisasjon.
 
Forskningssenteret i Oslo jobber uavhengig av KnowBe4s andre enheter og har som mål at forskningsfunnene skal komme hele IT-sikkerhetsbransjen til gode, ikke kun KnowBe4 og selskapets kunder.

Følg pressemeldinger fra KnowBe4

Registrer deg med din e-postadresse under for å få de nyeste sakene fra KnowBe4 på e-post fortløpende. Du kan melde deg av når som helst.

Siste pressemeldinger fra KnowBe4

I vårt presserom finner du alle våre siste pressemeldinger, kontaktpersoner, bilder, dokumenter og annen relevant informasjon om oss.

Besøk vårt presserom
World GlobeA line styled icon from Orion Icon Library.HiddenA line styled icon from Orion Icon Library.Eye