Nyt Apple-system skal finkæmme brugeres billeder for børneporno

I USA vil Apple udrulle et værktøj, der automatisk tjekker alle billeder, som Iphone og Ipad-brugere lægger op i koncernens lagringstjeneste, for børnepornografisk indhold.
Foto: Oli Scarff/AFP/Ritzau Scanpix
Foto: Oli Scarff/AFP/Ritzau Scanpix

Apple har udviklet et digitalt sommerfuglenet, der skal scanne alt billedemateriale, som bliver uploadet til den trådløse lagringstjeneste Icloud, for indhold med seksuelle overgreb på børn. Det skriver Berlingske med henvisning til The Guardian.

Det nye system hedder Neuralmatch og finder børneporno ved at sammenligne de uploadede billeder med dem, som ligger i det amerikanske nationale center mod udnyttelse af børns database. Hvis værktøjet rammer et match vil billedet blive eftertjekket af en medarbejder, der afgør, om der er tale om børneporno - i så fald bliver brugerens Apple-konto lukket og det førnævnte center bliver kontaktet.

Børnebeskyttelsesgrupper hylder Apples plan, mens den skaber rynker i panden på en række sikkerhedsforskere, som The Guardian har talt med. Bekymringen går på, at systemet kan udnyttes af autokratiske regeringer til at stille oppositionsskikkelser i et dårligt lys eller til at kontrollere befolkninger.

Del artikel

Tilmeld dig vores nyhedsbrev

Vær på forkant med udviklingen. Få den nyeste viden fra branchen med vores nyhedsbrev.

Nyhedsbrevsvilkår

Forsiden lige nu

Læs også