Apple idzie na wojnę z pornografią. Ingerencja w prywatność?

Apple ogłosił szczegóły systemu wyszukiwania materiałów związanych z wykorzystywaniem seksualnym dzieci na urządzeniach swoich amerykańskich klientów.

Publikacja: 07.08.2021 10:22

Apple idzie na wojnę z pornografią. Ingerencja w prywatność?

Foto: Bloomberg

Zanim zdjęcie zostanie zapisane w iCloud algorytm je zeskanuje i sprawdzi, czy nie zawiera dziecięcej pornografii. Apple postanowił bardziej zaangażować się w zwalczanie dziecięcej pornografii.

Nowa funkcja systemu iOS 15 i iPadOS 15 ma szereg funkcji, które mają pomóc najmłodszym użytkownikom na bezpieczne korzystanie z internetu. Są to m.in. nowe systemy w komunikatorach, które mają chronić dziecko przed kontaktem z nieodpowiednimi dla niego treściami. Apple wśród nowych funkcji ma też moduł CSAM (Children Sexual Abuse Material), który pozwala na skanowanie treści przesyłanych ze smartfonu na iCloud.

CZYTAJ TAKŻE: Panika w Google, Apple i Facebooku. Ona da im popalić

Algorytm będzie badał zdjęcia przed ich wysłaniem i porównywał je z bazą zdjęć zawierających przykłady dziecięcej pornografii. Jeśli znajdzie podobieństwo, to nie uruchamia alarmu, ale wysyła zdjęcie do chmury ze zgłoszeniem „CSAM wykryty”. Apple twierdzi, że algorytm jest też w stanie wychwycić zdjęcia edytowane i zmieniane cyfrowo.

Zgłoszenie musi zweryfikować pracownik Apple i sprawdzić, czy algorytm się nie pomylił w ocenie. Jeśli uzna, że zgłoszenie było zasadne, to zgłasza sprawę do National Center for Missing & Exploited Children. Na razie funkcja będzie działać tylko na terenie Stanów Zjednoczonych.

Algorytm już teraz wzbudził sporo kontrowersji. Skanowanie telefonów klientów Apple w poszukiwaniu nielegalnej pornografii dziecięcej jest według wielu ekspertów bardzo dużą ingerencją w prywatność użytkowników bez ich wiedzy. Z drugiej strony takie algorytmy są już stosowane przez Google i Facebooka, odpowiednio od 2008 i 2011 roku.

CZYTAJ TAKŻE: Konserwatyści ostro atakują: Apple uderza w religię

Matthew Green, badacz ds. bezpieczeństwa w Johns Hopkins University, uważa, że skanowanie zdjęć w poszukiwaniu pornografii dziecięcej nie ograniczy się tylko do USA. Po jakimś czasie wszystkie kraje będą chciały takiej funkcjonalności do monitorowania iPhonów swoich obywateli – uważa Green.

Zanim zdjęcie zostanie zapisane w iCloud algorytm je zeskanuje i sprawdzi, czy nie zawiera dziecięcej pornografii. Apple postanowił bardziej zaangażować się w zwalczanie dziecięcej pornografii.

Nowa funkcja systemu iOS 15 i iPadOS 15 ma szereg funkcji, które mają pomóc najmłodszym użytkownikom na bezpieczne korzystanie z internetu. Są to m.in. nowe systemy w komunikatorach, które mają chronić dziecko przed kontaktem z nieodpowiednimi dla niego treściami. Apple wśród nowych funkcji ma też moduł CSAM (Children Sexual Abuse Material), który pozwala na skanowanie treści przesyłanych ze smartfonu na iCloud.

2 / 3
artykułów
Czytaj dalej. Subskrybuj
Gadżety
Padła data premiery iPhone'a 16. Jakie będzie nowe urządzenie Apple?
Gadżety
Smartfon ładowany w rekordowym czasie. To ma być przełom w bateriach
Gadżety
To miał być „zabójca smartfonów”. Spektakularna porażka niezwykłego projektu
Gadżety
Apple szykuje rewolucję. iPhone'y 16 mają zyskać zupełnie nowe możliwości
Materiał Promocyjny
Aż 7,2% na koncie oszczędnościowym w Citi Handlowy
Gadżety
Jak Quality of Service może zoptymalizować sieć domową
Materiał Promocyjny
Najpopularniejszy model hiszpańskiej marki