Do niedawna nie byliśmy w stanie sprawdzić, czy nasze zdjęcia służą do trenowania AI. Jednak dzięki nowemu narzędziu o nazwie Exposing.AI jest to już możliwe.
Exposing.AI, które działa od stycznia tego roku, demaskuje na razie tylko zdjęcia umieszczone na portalu Flickr. Baza jego danych liczy około 3,6 mln zdjęć i jest jedną z wielu wykorzystywanych przez twórców AI. Wiele osób nie zdaje sobie sprawy z tego, że ich zdjęcia mogą być wykorzystane bez ich wiedzy. Nikt ich nie informuje i dopiero takie narzędzie jak to przedstawia im namacalny dowód.
CZYTAJ TAKŻE: Cios w techniki rozpoznawania twarzy. Maski i jeden… kolor
Adam Harvey, artysta i badacz, który stworzył tę witrynę wraz z innym artystą i programistą Julesem LaPlace oraz we współpracy z organizacją non profit Surveillance Technology Oversight Project (STOP), powiedział CNN, że dopiero skorzystanie z Exposing.AI sprawia, iż ludzie zaczynają się zastanawiać, jak i gdzie wykorzystywane są ich zdjęcia z internetu.
Aby skorzystać z tej witryny, trzeba wpisać nazwę użytkownika Flickr, adres URL konkretnego zdjęcia z serwisu Flickr lub hashtag (np.: „#Wedding”), aby dowiedzieć się, czy zdjęcia zostały wykorzystane. Jeśli zostaną odnalezione, Exposing.ai wyświetli miniaturę każdego z nich, wraz z miesiącem i rokiem, w którym zostały opublikowane na koncie Flickr oraz liczbą obrazów w każdej zewnętrznej bazie danych.