FT powołuje się w tych doniesieniach na dwie osoby, które zdaniem dziennika brały udział w prezentacji nowego oprogramowania. Stworzony przez Apple schemat ma wyglądać następująco – fabrycznie zainstalowana w iPhonie aplikacja ma skanować wszystkie pliki graficzne w telefonie. W razie wykrycia zdjęcia zakwalifikowanego przez sztuczną inteligencję jako dziecięca pornografia – przesyła bez wiedzy użytkownika zdjęcie do zespołu moderatorów zatrudnionych przez Apple’a.
CZYTAJ TEŻ: BIEDRONKI OTWARTE W NIEDZIELĘ? METODA „NA PLACÓWKĘ MEDYCZNĄ”
Jeśli moderatorzy potwierdzą, że zdjęcie narusza prawo – informują o tym policję przekazując również dane użytkownika.
Doniesienia Financial Times wywołały gorącą dyskusję nt. tego, czy mechanizm zaprojektowany dla ochrony dzieci przed przemocą seksualną – nie grozi rozszerzeniem na powszechną inwigilację.