Apple idzie na wojnę z pornografią. Ingerencja w prywatność?

Apple ogłosił szczegóły systemu wyszukiwania materiałów związanych z wykorzystywaniem seksualnym dzieci na urządzeniach swoich amerykańskich klientów.

Publikacja: 07.08.2021 10:22

Apple idzie na wojnę z pornografią. Ingerencja w prywatność?

Foto: Bloomberg

Zanim zdjęcie zostanie zapisane w iCloud algorytm je zeskanuje i sprawdzi, czy nie zawiera dziecięcej pornografii. Apple postanowił bardziej zaangażować się w zwalczanie dziecięcej pornografii.

Nowa funkcja systemu iOS 15 i iPadOS 15 ma szereg funkcji, które mają pomóc najmłodszym użytkownikom na bezpieczne korzystanie z internetu. Są to m.in. nowe systemy w komunikatorach, które mają chronić dziecko przed kontaktem z nieodpowiednimi dla niego treściami. Apple wśród nowych funkcji ma też moduł CSAM (Children Sexual Abuse Material), który pozwala na skanowanie treści przesyłanych ze smartfonu na iCloud.

CZYTAJ TAKŻE: Panika w Google, Apple i Facebooku. Ona da im popalić

Algorytm będzie badał zdjęcia przed ich wysłaniem i porównywał je z bazą zdjęć zawierających przykłady dziecięcej pornografii. Jeśli znajdzie podobieństwo, to nie uruchamia alarmu, ale wysyła zdjęcie do chmury ze zgłoszeniem „CSAM wykryty”. Apple twierdzi, że algorytm jest też w stanie wychwycić zdjęcia edytowane i zmieniane cyfrowo.

Zgłoszenie musi zweryfikować pracownik Apple i sprawdzić, czy algorytm się nie pomylił w ocenie. Jeśli uzna, że zgłoszenie było zasadne, to zgłasza sprawę do National Center for Missing & Exploited Children. Na razie funkcja będzie działać tylko na terenie Stanów Zjednoczonych.

Algorytm już teraz wzbudził sporo kontrowersji. Skanowanie telefonów klientów Apple w poszukiwaniu nielegalnej pornografii dziecięcej jest według wielu ekspertów bardzo dużą ingerencją w prywatność użytkowników bez ich wiedzy. Z drugiej strony takie algorytmy są już stosowane przez Google i Facebooka, odpowiednio od 2008 i 2011 roku.

CZYTAJ TAKŻE: Konserwatyści ostro atakują: Apple uderza w religię

Matthew Green, badacz ds. bezpieczeństwa w Johns Hopkins University, uważa, że skanowanie zdjęć w poszukiwaniu pornografii dziecięcej nie ograniczy się tylko do USA. Po jakimś czasie wszystkie kraje będą chciały takiej funkcjonalności do monitorowania iPhonów swoich obywateli – uważa Green.

Zanim zdjęcie zostanie zapisane w iCloud algorytm je zeskanuje i sprawdzi, czy nie zawiera dziecięcej pornografii. Apple postanowił bardziej zaangażować się w zwalczanie dziecięcej pornografii.

Nowa funkcja systemu iOS 15 i iPadOS 15 ma szereg funkcji, które mają pomóc najmłodszym użytkownikom na bezpieczne korzystanie z internetu. Są to m.in. nowe systemy w komunikatorach, które mają chronić dziecko przed kontaktem z nieodpowiednimi dla niego treściami. Apple wśród nowych funkcji ma też moduł CSAM (Children Sexual Abuse Material), który pozwala na skanowanie treści przesyłanych ze smartfonu na iCloud.

2 / 3
artykułów
Czytaj dalej. Subskrybuj
Gadżety
Najdziwniejszy pojazd świata jest sterowany myślami. Sposób na zatłoczone miasta?
Gadżety
Apple szykuje rewolucyjną zmianę. Nadciąga składany iPhone
Gadżety
Sprzedaż pecetów wystrzeli. A ceny? Pojawił się potężny bodziec
Gadżety
Oto nowinki technologiczne, które mają podbić świat. Rusza CES 2024
Materiał Promocyjny
Jak kupić oszczędnościowe obligacje skarbowe? Sposobów jest kilka
Gadżety
Zmieniają się przyciski w klawiaturach. „Przełomowy moment w historii Windows"