Trenują AI twoimi zdjęciami. Policja chętnie korzysta

Twórcy algorytmów chętnie wykorzystują zdjęcia użytkowników internetu. Służą m.in. do trenowania sztucznej inteligencji w rozpoznawaniu twarzy przez policję. Nie wszyscy są z tego zadowoleni.

Publikacja: 16.02.2021 14:42

Flickr jest jednym z tych miejsc, gdzie zdjęć jest dużo i są bardzo różnorodne.

Flickr jest jednym z tych miejsc, gdzie zdjęć jest dużo i są bardzo różnorodne.

Foto: Shutterstock

Do niedawna nie byliśmy w stanie sprawdzić, czy nasze zdjęcia służą do trenowania AI. Jednak dzięki nowemu narzędziu o nazwie Exposing.AI jest to już możliwe.

Exposing.AI, które działa od stycznia tego roku, demaskuje na razie tylko zdjęcia umieszczone na portalu Flickr. Baza jego danych liczy około 3,6 mln zdjęć i jest jedną z wielu wykorzystywanych przez twórców AI. Wiele osób nie zdaje sobie sprawy z tego, że ich zdjęcia mogą być wykorzystane bez ich wiedzy. Nikt ich nie informuje i dopiero takie narzędzie jak to przedstawia im namacalny dowód.

CZYTAJ TAKŻE: Cios w techniki rozpoznawania twarzy. Maski i jeden… kolor

Adam Harvey, artysta i badacz, który stworzył tę witrynę wraz z innym artystą i programistą Julesem LaPlace oraz we współpracy z organizacją non profit Surveillance Technology Oversight Project (STOP), powiedział CNN, że dopiero skorzystanie z Exposing.AI sprawia, iż ludzie zaczynają się zastanawiać, jak i gdzie wykorzystywane są ich zdjęcia z internetu.

Aby skorzystać z tej witryny, trzeba wpisać nazwę użytkownika Flickr, adres URL konkretnego zdjęcia z serwisu Flickr lub hashtag (np.: „#Wedding”), aby dowiedzieć się, czy zdjęcia zostały wykorzystane. Jeśli zostaną odnalezione, Exposing.ai wyświetli miniaturę każdego z nich, wraz z miesiącem i rokiem, w którym zostały opublikowane na koncie Flickr oraz liczbą obrazów w każdej zewnętrznej bazie danych.

Exposing.ai sprawdza tylko niewielką część danych, które są w użyciu, ponieważ wiele firm nie ujawnia publicznie, w jaki sposób uzyskały zdjęcia wykorzystywane do szkolenia ich systemów rozpoznawania twarzy. – To wierzchołek góry lodowej – uważa Harvey.

CZYTAJ TAKŻE: AI może mylić twarze kobiet i Azjatów

Przez lata naukowcy i firmy czerpali bez ograniczeń z internetowych zasobów zdjęć do trenowania sztucznej inteligencji, w nadziei, że będzie lepiej rozumiała otaczający ją świat. Flickr jest tylko jednym z tych miejsc, gdzie zdjęć jest dużo i są bardzo różnorodne. Zdjęcia z tego portalu są objęte licencjami Creative Commons – to specjalne rodzaje licencji dotyczących praw autorskich, które jasno określają warunki, na jakich takie obrazy i filmy można wykorzystywać i udostępniać. Według CNN firmy korzystały także z wyszukiwarki Google, ściągając zdjęcia z publicznych kont na Instagramie lub pozyskiwały je innymi metodami, nie zawsze legalnymi.

Do niedawna nie byliśmy w stanie sprawdzić, czy nasze zdjęcia służą do trenowania AI. Jednak dzięki nowemu narzędziu o nazwie Exposing.AI jest to już możliwe.

Exposing.AI, które działa od stycznia tego roku, demaskuje na razie tylko zdjęcia umieszczone na portalu Flickr. Baza jego danych liczy około 3,6 mln zdjęć i jest jedną z wielu wykorzystywanych przez twórców AI. Wiele osób nie zdaje sobie sprawy z tego, że ich zdjęcia mogą być wykorzystane bez ich wiedzy. Nikt ich nie informuje i dopiero takie narzędzie jak to przedstawia im namacalny dowód.

2 / 3
artykułów
Czytaj dalej. Kup teraz
Technologie
Mydło z plastiku. Zaskakująca metoda recyklingu odpadów
Materiał Promocyjny
Zrównoważony transport miejski w Polsce Wschodniej: program Fundusze Europejskie
Technologie
Podwodny rejs jak jazda samochodem. To będzie osobista łódź podwodna
Technologie
Retrofitting: zrównoważony rozwój i cyfryzacja dzięki modernizacji urządzeń
Technologie
Wyścig zbrojeń AI. Jedni wykrywają sztuczną inteligencję, inni ją maskują
Materiał Promocyjny
Politechnika Śląska uruchamia sieć kampusową 5G
Technologie
Kolejna pandemia groźniejsza. Naukowcy pracują nad szczepionkami na „chorobę X”
Technologie
Wielki skok umiejętności ChatGPT. Będzie teraz słyszał, widział i mówił