System o nazwie Nightshade (z ang. Nocny Cień) ma być odpowiedzią na działania gigantów AI, jak Microsoft czy Google, którzy trenują swoje algorytmy na dostępnych w sieci obrazach, choć te są chronione prawami autorskimi. Nocny Cień ma za zadanie chronić m.in. artystów (malarzy, fotografów), których dzieła wykorzystywane mogą być do szkolenia sztucznej inteligencji i generowania nowych treści. Projekt zespołu Zhao został już z powodzeniem przetestowany na najnowszych modelach generatorów graficznych AI od Stable Diffusion.

Czytaj więcej

Wyścig zbrojeń AI. Jedni wykrywają sztuczną inteligencję, inni ją maskują

System Nightshade umożliwia artystom dodawanie niewykrywalnych dla oka pikseli do ich prac. Po co? To rodzaj zabezpieczenia, które – nie zniekształcając samego obrazu – uszkadza dane szkoleniowe bota.

Mylenie sztucznej inteligencji

Jak informuje „MIT Technology Review”, nowatorskie narzędzie, w praktyce AI obraz damskiej torebki będzie błędnie interpretowała jako toster, psa jako kota czy samochód jako krowę. Według serwisu, opracowana na Uniwersytecie w Chicago technologia to swoista trucizna dla algorytmów, która może zachęcić głównych graczy z branży AI do „odpowiedniego wynagradzania artystów za ich pracę” (płacenia im za szkolenie botów na dziełach chronionych prawem autorskim).