Zanim zdjęcie zostanie zapisane w iCloud algorytm je zeskanuje i sprawdzi, czy nie zawiera dziecięcej pornografii. Apple postanowił bardziej zaangażować się w zwalczanie dziecięcej pornografii.

Nowa funkcja systemu iOS 15 i iPadOS 15 ma szereg funkcji, które mają pomóc najmłodszym użytkownikom na bezpieczne korzystanie z internetu. Są to m.in. nowe systemy w komunikatorach, które mają chronić dziecko przed kontaktem z nieodpowiednimi dla niego treściami. Apple wśród nowych funkcji ma też moduł CSAM (Children Sexual Abuse Material), który pozwala na skanowanie treści przesyłanych ze smartfonu na iCloud.

CZYTAJ TAKŻE: Panika w Google, Apple i Facebooku. Ona da im popalić

Algorytm będzie badał zdjęcia przed ich wysłaniem i porównywał je z bazą zdjęć zawierających przykłady dziecięcej pornografii. Jeśli znajdzie podobieństwo, to nie uruchamia alarmu, ale wysyła zdjęcie do chmury ze zgłoszeniem „CSAM wykryty”. Apple twierdzi, że algorytm jest też w stanie wychwycić zdjęcia edytowane i zmieniane cyfrowo.

Zgłoszenie musi zweryfikować pracownik Apple i sprawdzić, czy algorytm się nie pomylił w ocenie. Jeśli uzna, że zgłoszenie było zasadne, to zgłasza sprawę do National Center for Missing & Exploited Children. Na razie funkcja będzie działać tylko na terenie Stanów Zjednoczonych.

Algorytm już teraz wzbudził sporo kontrowersji. Skanowanie telefonów klientów Apple w poszukiwaniu nielegalnej pornografii dziecięcej jest według wielu ekspertów bardzo dużą ingerencją w prywatność użytkowników bez ich wiedzy. Z drugiej strony takie algorytmy są już stosowane przez Google i Facebooka, odpowiednio od 2008 i 2011 roku.

CZYTAJ TAKŻE: Konserwatyści ostro atakują: Apple uderza w religię

Matthew Green, badacz ds. bezpieczeństwa w Johns Hopkins University, uważa, że skanowanie zdjęć w poszukiwaniu pornografii dziecięcej nie ograniczy się tylko do USA. Po jakimś czasie wszystkie kraje będą chciały takiej funkcjonalności do monitorowania iPhonów swoich obywateli – uważa Green.