ERFARENHET FRÅN POLISEN

Teknikutveckling
– En av fem poliser har hittat deepfakes

I tidigare års rapporter har vi i olika omfattning tittat på nya trender som poliserna ser i sina utredningar. I år ville vi titta på teknikutveckling och hur snabbt teknikutveckling speglas i utredningarna. Därför valde vi att titta på en ny och omdiskuterad teknik, deepfakes, som var omskriven i media under våren 2018. Deepfakes innebär att man med hjälp av maskininlärningsteknik, eller AI-teknik, kan byta ut ansiktet på en person i rörligt material till en annan persons ansikte. Vi ville titta närmare på om den här tekniken även nått produktionen av sexuellt övergreppsmaterial på barn.

En av fem poliser

Den stora majoriteten av poliserna i undersökningen, över 80 procent, uppger att de inte har stött på deepfakes i sina utredningar. Lite mindre än en femtedel av poliserna svarar dock att de har stött på deepfakes i sina utredningar. Av dessa uppger en fjärdedel att deepfakes är vanligt eller mycket vanligt, medan drygt 40 procent svarar att det är ovanligt eller mycket ovanligt.

”Ser mer tecknat sexuellt övergreppsmaterial på barn.”

Andelen av poliserna som har stött på deepfakes:

Tror att det kommer att öka

Tre fjärdedelar av poliserna tror att deepfakes kommer att öka i framtiden, men åsikterna i kommentarerna skiftar.

”I takt med att det blir mer känt kommer det att öka som allt annat inom teknik.”

”Om det finns ett enkelt sätt att göra det på så kommer någon att använda det för att producera nytt material.”

”Eftersom de flesta misstänkta i våra utredningar har genomsnittlig eller lägre än genomsnittlig kunskap om datorer, tror jag inte att det här kommer att bli vanligare.”

”Deepfakes är som de gamla pseudobilderna. Förövare tar ibland bilder av familjemedlemmar och placerar dem på pornografiska bilder för att stärka sina kognitiva förvrängningar och stärka bildernas sexuella attraktion. Det här är samma sak. Det är ingen tvekan om att det kommer att hända, men i pedofilvärlden är ÄKTA nyckeln till framgång.”

Andelen av poliser som tror att deepfakes kommer att bli vanligare i framtiden: 

Hur vanligt poliserna bedömer att deepfakes är (utav de poliser som har stött på tekniken i sina utredningar):

Identifiering av offer en utmaning

Skulle det bli vanligt förekommande med deepfakes ser poliserna en rad utmaningar. En av konsekvenserna är att vilket barn som helst i praktiken kan dyka upp i övergreppsmaterial, så länge det finns tillräckligt många bilder på barnet att tillgå (deepfakes kräver en större mängd bilder från olika vinklar på den person som placeras in i filmmaterialet).

”Alla är nu möjliga offer, videos från sociala medier gör det möjligt att barn utsätts utan att de någonsin har blivit utsatta för sexuella övergrepp.”

De utmaningar som poliserna ser handlar dock i första hand om identifiering av offer. I andra hand handlar de om juridiska problem, då datorgenererat material inte är olagligt i alla länder.

”Svårt att skilja falskt från riktigt material. Finns det är ett riktigt offer/ barn eller bara manipulerat innehåll?”

”Identifiering av offer kommer att bli svårare eftersom kroppen kanske inte matchar offret. Juridiska frågor med vilken typ av skada som barnet har utsatts för.”

”De länder där lagen kräver att ett riktigt barn har blivit utsatt för övergrepp skulle inte ha något definierat brott för den här typen av material.”

Kommentar till insikt 6:

“Den stora utmaningen är att
identifiera barnen”

Christian Berg
Grundare NetClean

Läs kommentaren här

Den stora utmaningen är att identifiera barnen

Tekniken deepfakes uppmärksammades först förra hösten och fick spridning i media i december 2017 och under våren 2018. Därför är min reflektion, när jag läser att nästan en av fem poliser har sett deepfakes i sina utredningar, att det är ganska mycket och att tekniken har fått snabb spridning.

Kan skapa material

På ett sätt är det inte så konstigt. Vi vet att de tekniker som finns tillgängliga också används för att producera och sprida sexuellt övergreppsmaterial på barn. Exempelvis användes både internet och darknet tidigt för att sprida sexuellt övergreppmaterial på barn.

Riskerna med deepfakes är att förövare kan skapa mer övergreppsmaterial på ett visst barn utifrån befintligt material. De kan också skapa övergreppsmaterial med barn som inte har utsatts för några fysiska sexuella övergrepp, vilket innebär att i princip vilket barn som helst skulle kunna bli utsatt.

Tidskrävande att producera

Det som samtidigt talar emot att deepfakes skulle få någon större spridning är att det krävs relativt mycket engagemang och tid från den som producerar materialet, framför allt på grund av att det krävs ett stort bildmaterial på den individ vars ansikte man vill klippa in i en film. Utöver det krävs det ett tekniskt intresse för att känna till, eller ta reda på, hur man producerar deepfakes (även om tekniken i sig inte kräver avancerad teknisk kunskap).

Något som kanske än mer talar emot att deepfakes skulle få stor spridning är de drivkrafter och motiv som ligger bakom produktionen av sexuellt övergreppsmaterial på barn. Vi har en situation idag med enkel tillgång till stora mängder sexuellt övergreppsmaterial på barn, vilket borde begränsa behovet av att skapa deepfakes. I världen med sexuellt övergreppsmaterial på barn är det också det äkta som har riktigt stort värde.

Med det sagt råder det ingen tvekan om att polisen kommer att behöva hantera, och redan hanterar, utredningar där deepfakes förekommer.

Svårigheter med identifiering av barn

Den stora utmaningen med deepfakes ligger i svårigheten med att identifiera utsatta barn. Dels kan det vara svårare att identifiera det barn som utsatts för fysiska övergrepp, eftersom man inte har ett ansikte på det. Dels finns det en risk att polisen lägger resurser på att leta efter fel barn och på att identifiera offer som inte har utsatts för sexuella övergrepp (även om man kan argumentera för att filmen i sig är ett övergrepp).

För att lösa det här problemet behöver polisen hitta sätt att både identifiera vilka filmer som är deepfakes, samt att identifiera originalfilmen. Ett bra referensarkiv med sexuellt övergreppsmaterial i form av filmer är viktigt för att snabbt kunna avgöra om en film är ”riktig” eller inte, om den är känd sedan tidigare och om barnet i filmen är identifierat eller ej.

 


NetClean

NetClean utvecklar världsledande teknik för att skydda företag och organisationer mot att sexuellt övergreppsmaterial på barn hanteras i företagens IT-miljö. Med hjälp av hashteknik detekterar tekniken sexuellt övergreppsmaterial på barn på företagens arbetsdatorer.