Do niedawna nie byliśmy w stanie sprawdzić, czy nasze zdjęcia służą do trenowania AI. Jednak dzięki nowemu narzędziu o nazwie Exposing.AI jest to już możliwe.
Exposing.AI, które działa od stycznia tego roku, demaskuje na razie tylko zdjęcia umieszczone na portalu Flickr. Baza jego danych liczy około 3,6 mln zdjęć i jest jedną z wielu wykorzystywanych przez twórców AI. Wiele osób nie zdaje sobie sprawy z tego, że ich zdjęcia mogą być wykorzystane bez ich wiedzy. Nikt ich nie informuje i dopiero takie narzędzie jak to przedstawia im namacalny dowód.
CZYTAJ TAKŻE: Cios w techniki rozpoznawania twarzy. Maski i jeden… kolor
Adam Harvey, artysta i badacz, który stworzył tę witrynę wraz z innym artystą i programistą Julesem LaPlace oraz we współpracy z organizacją non profit Surveillance Technology Oversight Project (STOP), powiedział CNN, że dopiero skorzystanie z Exposing.AI sprawia, iż ludzie zaczynają się zastanawiać, jak i gdzie wykorzystywane są ich zdjęcia z internetu.
Aby skorzystać z tej witryny, trzeba wpisać nazwę użytkownika Flickr, adres URL konkretnego zdjęcia z serwisu Flickr lub hashtag (np.: „#Wedding”), aby dowiedzieć się, czy zdjęcia zostały wykorzystane. Jeśli zostaną odnalezione, Exposing.ai wyświetli miniaturę każdego z nich, wraz z miesiącem i rokiem, w którym zostały opublikowane na koncie Flickr oraz liczbą obrazów w każdej zewnętrznej bazie danych.
Exposing.ai sprawdza tylko niewielką część danych, które są w użyciu, ponieważ wiele firm nie ujawnia publicznie, w jaki sposób uzyskały zdjęcia wykorzystywane do szkolenia ich systemów rozpoznawania twarzy. – To wierzchołek góry lodowej – uważa Harvey.
CZYTAJ TAKŻE: AI może mylić twarze kobiet i Azjatów
Przez lata naukowcy i firmy czerpali bez ograniczeń z internetowych zasobów zdjęć do trenowania sztucznej inteligencji, w nadziei, że będzie lepiej rozumiała otaczający ją świat. Flickr jest tylko jednym z tych miejsc, gdzie zdjęć jest dużo i są bardzo różnorodne. Zdjęcia z tego portalu są objęte licencjami Creative Commons – to specjalne rodzaje licencji dotyczących praw autorskich, które jasno określają warunki, na jakich takie obrazy i filmy można wykorzystywać i udostępniać. Według CNN firmy korzystały także z wyszukiwarki Google, ściągając zdjęcia z publicznych kont na Instagramie lub pozyskiwały je innymi metodami, nie zawsze legalnymi.