Sztuczna inteligencja połknie truciznę i zwariuje. Bat na koncerny technologiczne

Artyści walczący z wielkimi firmami trenującymi AI na ich dziełach i bez ich zgody, zyskają nowe narzędzie do ochrony swej pracy i blokujące bezprawne jej kopiowanie.

Publikacja: 28.01.2024 14:57

Sztuczna inteligencja szkoli się nie tylko na dziełach wielkich mistrzów. Tymczasem koncerny nie chc

Sztuczna inteligencja szkoli się nie tylko na dziełach wielkich mistrzów. Tymczasem koncerny nie chcą płacić twórcom

Foto: Adobe Stock

Nightshade (z ang. Nocny Cień) to projekt z uniwersytetu w Chicago, który pozwala „zatruwać" dane obrazu (dzieł malarzy czy fotografów), w ten sposób czyniąc je bezużytecznymi lub zakłócającymi trenowanie modeli sztucznej inteligencji. Uniemożliwi to także generowanie na ich podstawie nowych treści. Ben Zhao, profesor informatyki, który kierował projektem, w rozmowie z Techcrunch porównał Nightshade do „dodawania ostrego sosu do lunchu, aby nie został skradziony z lodówki w miejscu pracy". Zhao i jego zespół próbują zmusić big-techy do płacenia za korzystanie z prac artystów.

Czytaj więcej

Artyści protestują przeciw AI. Jest coraz lepsza

Nightshade subtelnie zmienia piksele na obrazach, aby oszukać modele AI. Weźmy obraz przedstawiający krowę wylegującą się na łące. - Skutecznie zniekształcając to skojarzenie, można sprawić, by modele AI myślały, że krowy mają cztery koła, zderzak i tułów – powiedział Zhao. - A kiedy zostaną poproszone o stworzenie krowy, stworzą zamiast niej dużą ciężarówkę.

Ciężarówka zamiast krowy

Zespół Nightshade podał również inne przykłady. Niezmieniony wizerunek Mona Lisy i cieniowana wersja są praktycznie identyczne z oryginałem, ale zamiast interpretować „zatrutą" próbkę jako portret kobiety, sztuczna inteligencja zobaczy ją jako kota w szlafroku.

Czytaj więcej

Wyścig zbrojeń AI. Jedni wykrywają sztuczną inteligencję, inni ją maskują

Inne narzędzia ochronne - podpisy i znaki wodne — nawet te dodane do metadanych obrazu — można usunąć, jeśli obraz zostanie zmieniony. Za to zmiany wprowadzone przez Nightshade pozostaną, ponieważ modyfikują piksele tworzące obraz.

Naukowcy mają nadzieję, że takie narzędzie zmusi koncerny do właściwego wynagradzania twórców za ich pracę, np. szkolenie botów na dziełach chronionych prawem autorskim.

Nightshade (z ang. Nocny Cień) to projekt z uniwersytetu w Chicago, który pozwala „zatruwać" dane obrazu (dzieł malarzy czy fotografów), w ten sposób czyniąc je bezużytecznymi lub zakłócającymi trenowanie modeli sztucznej inteligencji. Uniemożliwi to także generowanie na ich podstawie nowych treści. Ben Zhao, profesor informatyki, który kierował projektem, w rozmowie z Techcrunch porównał Nightshade do „dodawania ostrego sosu do lunchu, aby nie został skradziony z lodówki w miejscu pracy". Zhao i jego zespół próbują zmusić big-techy do płacenia za korzystanie z prac artystów.

2 / 3
artykułów
Czytaj dalej. Subskrybuj
Technologie
Skóra staje się przezroczysta i widać wszystko. Przełomowy sposób wykrywania chorób
Technologie
Ukraińcy znaleźli zaskakujący sposób na rosyjskie drony. Bardzo skuteczny
Technologie
To ma być „internet zwierząt”. Tysiące zostaną zachipowane
Technologie
Połączyli AI z tradycyjną chińską medycyną. Niezwykła skuteczność badania
Materiał Promocyjny
Aż 7,2% na koncie oszczędnościowym w Citi Handlowy
Technologie
Powstało okno idealne. Samo się odmraża i pozyskuje prąd z deszczu
Materiał Promocyjny
Najpopularniejszy model hiszpańskiej marki