Medietilsynet

Barna skal ikke ta støyten med å fjerne skadelig innhold på sosiale medier

Del

Barn skal ikke bli utsatt for selvmordsvideoer på sosiale medier. For å få plattformene til å ta et større ansvar, og ikke skyve mediebrukerne foran seg, må vi styrke den nasjonale innsatsen for barns digitale trygghet.

Sosiale medier må selv ta mer ansvar:   – Vi vet at barn har vært vitner til henrettelser, terrorangrep og andre typer skremmende bilder og videoer i sosiale medier, sier Mari Velsand, direktør i Medietilsynet, i dette debattinnlegget. Foto Medietilsynet
Sosiale medier må selv ta mer ansvar: – Vi vet at barn har vært vitner til henrettelser, terrorangrep og andre typer skremmende bilder og videoer i sosiale medier, sier Mari Velsand, direktør i Medietilsynet, i dette debattinnlegget. Foto Medietilsynet

De siste ukene har det på det sosiale mediet TikTok vært delt en video av en mann som tar sitt eget liv. Videoen skal opprinnelig ha blitt streamet på Facebook live, før den ble delt videre på TikTok, som er særlig populært blant de yngste barna.

Plattformene må ta et større ansvar

Selv om det sjokkerende å høre at slike videoer finnes og spres, er det dessverre ikke siste gang, og det blir sikkert heller ikke siste. Vi vet at barn har vært vitner til henrettelser, terrorangrep og andre typer skremmende bilder og videoer i sosiale medier.

Men fortsatt er det opp til hver enkelt av oss som bruker tjenester på sosiale medier å varsle, blokkere og rapportere for å få fjernet slikt innhold. I kjølvannet av NRK-dokumentaren Trigger Warning, kom det for eksempel frem at Instagram lot bilder og videoer av selvmord og selvskading ligge på sine sider i over tre måneder, til tross for at plattformen kjente til at dette innholdet var publisert. Dette holder ikke. En annen utfordring er at skadelig innhold og kontoer med denne type innhold blir anbefalt videre til andre brukere med liknende profiler. Medietilsynet mener at plattformene som står bak sosiale medier, nå må ta et større ansvar for å stoppe skadelig innhold og forebygge skadelig bruk og adferd på sine plattformer.

I forbindelse med arbeidet med handlingsplanen om forebygging av selvmord, som nylig ble lagt frem, sendte Medietilsynet en henvendelse til flere sosiale medier hvor vi ba aktørene redegjøre for hvordan de håndterer potensielt skadelig innhhold. Vi spurte hva de gjør for å forhindre at barn og unge som står i fare for å skade seg selv blir eksponert for skadelig innhold, og hvilken strategi plattformene har for å håndtere skadelig innhold knyttet til selvmord- og selvskadingstematikk. Medietilsynet fikk svar fra Snapchat, samt en felles uttalelse fra Facebook og Instagram. TikTok svarte ikke.

I dag er plattformene avhengig av brukernes tilbakemeldinger

Svarene og en gjennomgang av informasjonssidene til de største sosiale mediene, viser etter Medietilsynets vurdering at aktørene har en for passiv holdning til problemstillingene rundt skadelig innhold. Facebook og Instagram viser til at de har strenge retningslinjer, at de henviser brukere til eksperthjelp der de kan og utvikler teknologi (kunstig intelligens) for å identifisere potensielt skadelig innhold raskere. Snapchat rapporterer nulltoleranse for ulovlig og skadelig innhold eller aktiviteter, og opplyser at brukerne kan rapportere denne type innhold i appen. Men svarene viser at aktørene fortsatt er helt avhengig av tilbakemeldinger fra brukerne sine. De viser også i all hovedsak til hva som gjøres dersom skadelig innhold blir oppdaget, og er mindre konkrete på hva de selv gjør for å lokalisere eller forhindre at denne type innhold spres på deres plattformer. Deaktivering av brukerkontorer eller fjerning av skadelig innhold skjer primært etter rapportering og varsling «utenfra».

Dermed er ansvaret for å oppdage og rapportere potensielt skadelig innhold i stor grad skjøvet over på brukerne. Slik bør det ikke være. Det er ikke barn og ungdom som skal måtte være moderatorer for å få fjernet skadelig eller voldelig innhold. Her må plattformene som står bak tjenester på sosiale medier ta et langt mer aktivt ansvar.

Vi må styrke den nasjonale innsatsen 

Aktører som står bak sosiale medier må ta et større og mer aktivt ansvar, men det er ikke noe enkelt svar på hvordan vi skal få det til. Et første viktig skritt på veien er å få på plass en nasjonal strategi for barns digitale trygghet, slik at vi både kan jobbe bedre med forebygging og ikke minst øke sjansen for gjennomslag overfor de globale gigantene. Under Barneombudets "Høynivåmøte for en trygg digital hverdag for barn og unge"  12. februar 2020, viste ombudet til at det i dag er over 20 statlige etater fra seks ulike sektorer og 50 organisasjoner som har til dels overlappende ansvar og tiltak rettet mot barns digitale liv. Før vi klarer å koordinere innsatsen bedre her hjemme og jobbe aktivt i nasjonale og internasjonale fora for tydelige krav til digitale tjenester der barna våre bruker mye tid, er det dessverre nettopp barna som må ta støyten.

 

Nøkkelord

Kontakter

Bilder

Sosiale medier må selv ta mer ansvar:   – Vi vet at barn har vært vitner til henrettelser, terrorangrep og andre typer skremmende bilder og videoer i sosiale medier, sier Mari Velsand, direktør i Medietilsynet, i dette debattinnlegget. Foto Medietilsynet
Sosiale medier må selv ta mer ansvar: – Vi vet at barn har vært vitner til henrettelser, terrorangrep og andre typer skremmende bilder og videoer i sosiale medier, sier Mari Velsand, direktør i Medietilsynet, i dette debattinnlegget. Foto Medietilsynet
Last ned bilde

Om Medietilsynet

Medietilsynet
Medietilsynet
Nygata 4
1607 Fredrikstad

69 30 12 00http://www.medietilsynet.no

Medietilsynet skal bidra til å realisere statens mediepolitiske mål. Våre hovedoppgaver er å fremme demokrati og ytringsfrihet gjennom mediemangfold og kritisk medieforståelse. Vi veileder om barn og unges bruk av digitale medier, setter aldersgrenser for kinofilm, forvalter støtteordninger, behandler søknader om og fordeler pressestøtte og fører tilsyn med kringkasting. Tilsynet er underlagt Kulturdepartementet.

Følg saker fra Medietilsynet

Registrer deg med din epostadresse under for å få de nyeste sakene fra Medietilsynet på epost fortløpende. Du kan melde deg av når som helst.

Siste saker fra Medietilsynet

Ny behandling av støtte til samisk avis etter avgjerd i Medieklagenemnda22.10.2020 07:00:00 CESTPressemelding

Fleirtalet i Medieklagenemnda har gitt ISAMI.Press AS medhald i klaga på avslag om støtte til den samiske avisa Sámi Odasmagasiidna. Medietilsynet meinte at gåveabonnement ikkje skulle telje med i opplaget til publikasjonen, og avslo derfor søknaden. – Vi tar til etterretning at fleirtalet i Medieklagenemnda har ei anna oppfatning, og gjer no ei ny opplagsberekning, seier Mari Velsand, direktør i Medietilsynet.

Medietilsynet med Norges største undersøkelser om barns medievaner16.10.2020 09:05:06 CESTPressemelding

Medietilsynet publiserer nå en samlet versjon av undersøkelsene Barn og medier 2020 og Foreldre og medier 2020. Undersøkelsene er Norges største i sitt slag, og til sammen har 3 400 barn og unge mellom 9–18 år og 2 000 foreldre deltatt i årets to undersøker om barns mediebruk. – Undersøkelsene gir viktig innsikt i mange aspekter ved barn og ungdoms digitale mediehverdag, sier Mari Velsand, direktør i Medietilsynet.

I vårt presserom finner du alle våre siste saker, kontaktpersoner, bilder, dokumenter og annen relevant informasjon om oss.

Besøk vårt presserom