Trenują AI twoimi zdjęciami. Policja chętnie korzysta

Twórcy algorytmów chętnie wykorzystują zdjęcia użytkowników internetu. Służą m.in. do trenowania sztucznej inteligencji w rozpoznawaniu twarzy przez policję. Nie wszyscy są z tego zadowoleni.

Publikacja: 16.02.2021 14:42

Flickr jest jednym z tych miejsc, gdzie zdjęć jest dużo i są bardzo różnorodne.

Flickr jest jednym z tych miejsc, gdzie zdjęć jest dużo i są bardzo różnorodne.

Foto: Shutterstock

Do niedawna nie byliśmy w stanie sprawdzić, czy nasze zdjęcia służą do trenowania AI. Jednak dzięki nowemu narzędziu o nazwie Exposing.AI jest to już możliwe.

Exposing.AI, które działa od stycznia tego roku, demaskuje na razie tylko zdjęcia umieszczone na portalu Flickr. Baza jego danych liczy około 3,6 mln zdjęć i jest jedną z wielu wykorzystywanych przez twórców AI. Wiele osób nie zdaje sobie sprawy z tego, że ich zdjęcia mogą być wykorzystane bez ich wiedzy. Nikt ich nie informuje i dopiero takie narzędzie jak to przedstawia im namacalny dowód.

CZYTAJ TAKŻE: Cios w techniki rozpoznawania twarzy. Maski i jeden… kolor

Adam Harvey, artysta i badacz, który stworzył tę witrynę wraz z innym artystą i programistą Julesem LaPlace oraz we współpracy z organizacją non profit Surveillance Technology Oversight Project (STOP), powiedział CNN, że dopiero skorzystanie z Exposing.AI sprawia, iż ludzie zaczynają się zastanawiać, jak i gdzie wykorzystywane są ich zdjęcia z internetu.

Aby skorzystać z tej witryny, trzeba wpisać nazwę użytkownika Flickr, adres URL konkretnego zdjęcia z serwisu Flickr lub hashtag (np.: „#Wedding”), aby dowiedzieć się, czy zdjęcia zostały wykorzystane. Jeśli zostaną odnalezione, Exposing.ai wyświetli miniaturę każdego z nich, wraz z miesiącem i rokiem, w którym zostały opublikowane na koncie Flickr oraz liczbą obrazów w każdej zewnętrznej bazie danych.

Exposing.ai sprawdza tylko niewielką część danych, które są w użyciu, ponieważ wiele firm nie ujawnia publicznie, w jaki sposób uzyskały zdjęcia wykorzystywane do szkolenia ich systemów rozpoznawania twarzy. – To wierzchołek góry lodowej – uważa Harvey.

CZYTAJ TAKŻE: AI może mylić twarze kobiet i Azjatów

Przez lata naukowcy i firmy czerpali bez ograniczeń z internetowych zasobów zdjęć do trenowania sztucznej inteligencji, w nadziei, że będzie lepiej rozumiała otaczający ją świat. Flickr jest tylko jednym z tych miejsc, gdzie zdjęć jest dużo i są bardzo różnorodne. Zdjęcia z tego portalu są objęte licencjami Creative Commons – to specjalne rodzaje licencji dotyczących praw autorskich, które jasno określają warunki, na jakich takie obrazy i filmy można wykorzystywać i udostępniać. Według CNN firmy korzystały także z wyszukiwarki Google, ściągając zdjęcia z publicznych kont na Instagramie lub pozyskiwały je innymi metodami, nie zawsze legalnymi.

Do niedawna nie byliśmy w stanie sprawdzić, czy nasze zdjęcia służą do trenowania AI. Jednak dzięki nowemu narzędziu o nazwie Exposing.AI jest to już możliwe.

Exposing.AI, które działa od stycznia tego roku, demaskuje na razie tylko zdjęcia umieszczone na portalu Flickr. Baza jego danych liczy około 3,6 mln zdjęć i jest jedną z wielu wykorzystywanych przez twórców AI. Wiele osób nie zdaje sobie sprawy z tego, że ich zdjęcia mogą być wykorzystane bez ich wiedzy. Nikt ich nie informuje i dopiero takie narzędzie jak to przedstawia im namacalny dowód.

2 / 3
artykułów
Czytaj dalej. Subskrybuj
Technologie
Powstał nowy humanoidalny robot. Jest „przerażająco sprawny” i bardziej ludzki
Technologie
Zaskakujące doniesienia o ciążach „z Ozempicu”. To również lek na niepłodność?
Technologie
Koniec z implantami, plombami i leczeniem kanałowym. Rewolucja w leczeniu zębów
Technologie
Student z trzema rękami. Wpadka Uniwersytetu Gdańskiego
Materiał Promocyjny
Jak kupić oszczędnościowe obligacje skarbowe? Sposobów jest kilka
Technologie
Sztuczna inteligencja zdecyduje o zabiciu człowieka. ChatGPT idzie na wojnę