Nightshade (z ang. Nocny Cień) to projekt z uniwersytetu w Chicago, który pozwala „zatruwać" dane obrazu (dzieł malarzy czy fotografów), w ten sposób czyniąc je bezużytecznymi lub zakłócającymi trenowanie modeli sztucznej inteligencji. Uniemożliwi to także generowanie na ich podstawie nowych treści. Ben Zhao, profesor informatyki, który kierował projektem, w rozmowie z Techcrunch porównał Nightshade do „dodawania ostrego sosu do lunchu, aby nie został skradziony z lodówki w miejscu pracy". Zhao i jego zespół próbują zmusić big-techy do płacenia za korzystanie z prac artystów.
Czytaj więcej
Znani malarze czy graficy są oburzeni, że ich prace są wykorzystywane do szkolenia sztucznej inteligencji. Nie dość, że nie dostają za to żadnej zapłaty, to jeszcze wkrótce mogą zyskać tańszego rywala o ogromnych możliwościach.
Nightshade subtelnie zmienia piksele na obrazach, aby oszukać modele AI. Weźmy obraz przedstawiający krowę wylegującą się na łące. - Skutecznie zniekształcając to skojarzenie, można sprawić, by modele AI myślały, że krowy mają cztery koła, zderzak i tułów – powiedział Zhao. - A kiedy zostaną poproszone o stworzenie krowy, stworzą zamiast niej dużą ciężarówkę.
Ciężarówka zamiast krowy
Zespół Nightshade podał również inne przykłady. Niezmieniony wizerunek Mona Lisy i cieniowana wersja są praktycznie identyczne z oryginałem, ale zamiast interpretować „zatrutą" próbkę jako portret kobiety, sztuczna inteligencja zobaczy ją jako kota w szlafroku.
Czytaj więcej
Gdy jedne algorytmy próbują oszukać rzeczywistość, generując plagiaty, fake newsy i imitując twórczość człowieka, inne starają się wykryć treści powstające z udziałem botów. W odpowiedzi pojawiają się systemy, które mają zmylić takie detektory.