Zanim zdjęcie zostanie zapisane w iCloud algorytm je zeskanuje i sprawdzi, czy nie zawiera dziecięcej pornografii. Apple postanowił bardziej zaangażować się w zwalczanie dziecięcej pornografii.
Nowa funkcja systemu iOS 15 i iPadOS 15 ma szereg funkcji, które mają pomóc najmłodszym użytkownikom na bezpieczne korzystanie z internetu. Są to m.in. nowe systemy w komunikatorach, które mają chronić dziecko przed kontaktem z nieodpowiednimi dla niego treściami. Apple wśród nowych funkcji ma też moduł CSAM (Children Sexual Abuse Material), który pozwala na skanowanie treści przesyłanych ze smartfonu na iCloud.
CZYTAJ TAKŻE: Panika w Google, Apple i Facebooku. Ona da im popalić
Algorytm będzie badał zdjęcia przed ich wysłaniem i porównywał je z bazą zdjęć zawierających przykłady dziecięcej pornografii. Jeśli znajdzie podobieństwo, to nie uruchamia alarmu, ale wysyła zdjęcie do chmury ze zgłoszeniem „CSAM wykryty”. Apple twierdzi, że algorytm jest też w stanie wychwycić zdjęcia edytowane i zmieniane cyfrowo.
Zgłoszenie musi zweryfikować pracownik Apple i sprawdzić, czy algorytm się nie pomylił w ocenie. Jeśli uzna, że zgłoszenie było zasadne, to zgłasza sprawę do National Center for Missing & Exploited Children. Na razie funkcja będzie działać tylko na terenie Stanów Zjednoczonych.
Algorytm już teraz wzbudził sporo kontrowersji. Skanowanie telefonów klientów Apple w poszukiwaniu nielegalnej pornografii dziecięcej jest według wielu ekspertów bardzo dużą ingerencją w prywatność użytkowników bez ich wiedzy. Z drugiej strony takie algorytmy są już stosowane przez Google i Facebooka, odpowiednio od 2008 i 2011 roku.
CZYTAJ TAKŻE: Konserwatyści ostro atakują: Apple uderza w religię
Matthew Green, badacz ds. bezpieczeństwa w Johns Hopkins University, uważa, że skanowanie zdjęć w poszukiwaniu pornografii dziecięcej nie ograniczy się tylko do USA. Po jakimś czasie wszystkie kraje będą chciały takiej funkcjonalności do monitorowania iPhonów swoich obywateli – uważa Green.