Sztuczna inteligencja połknie truciznę i zwariuje. Bat na koncerny technologiczne

Artyści walczący z wielkimi firmami trenującymi AI na ich dziełach i bez ich zgody, zyskają nowe narzędzie do ochrony swej pracy i blokujące bezprawne jej kopiowanie.

Publikacja: 28.01.2024 14:57

Sztuczna inteligencja szkoli się nie tylko na dziełach wielkich mistrzów. Tymczasem koncerny nie chc

Sztuczna inteligencja szkoli się nie tylko na dziełach wielkich mistrzów. Tymczasem koncerny nie chcą płacić twórcom

Foto: Adobe Stock

Nightshade (z ang. Nocny Cień) to projekt z uniwersytetu w Chicago, który pozwala „zatruwać" dane obrazu (dzieł malarzy czy fotografów), w ten sposób czyniąc je bezużytecznymi lub zakłócającymi trenowanie modeli sztucznej inteligencji. Uniemożliwi to także generowanie na ich podstawie nowych treści. Ben Zhao, profesor informatyki, który kierował projektem, w rozmowie z Techcrunch porównał Nightshade do „dodawania ostrego sosu do lunchu, aby nie został skradziony z lodówki w miejscu pracy". Zhao i jego zespół próbują zmusić big-techy do płacenia za korzystanie z prac artystów.

Czytaj więcej

Artyści protestują przeciw AI. Jest coraz lepsza

Nightshade subtelnie zmienia piksele na obrazach, aby oszukać modele AI. Weźmy obraz przedstawiający krowę wylegującą się na łące. - Skutecznie zniekształcając to skojarzenie, można sprawić, by modele AI myślały, że krowy mają cztery koła, zderzak i tułów – powiedział Zhao. - A kiedy zostaną poproszone o stworzenie krowy, stworzą zamiast niej dużą ciężarówkę.

Ciężarówka zamiast krowy

Zespół Nightshade podał również inne przykłady. Niezmieniony wizerunek Mona Lisy i cieniowana wersja są praktycznie identyczne z oryginałem, ale zamiast interpretować „zatrutą" próbkę jako portret kobiety, sztuczna inteligencja zobaczy ją jako kota w szlafroku.

Czytaj więcej

Wyścig zbrojeń AI. Jedni wykrywają sztuczną inteligencję, inni ją maskują

Inne narzędzia ochronne - podpisy i znaki wodne — nawet te dodane do metadanych obrazu — można usunąć, jeśli obraz zostanie zmieniony. Za to zmiany wprowadzone przez Nightshade pozostaną, ponieważ modyfikują piksele tworzące obraz.

Naukowcy mają nadzieję, że takie narzędzie zmusi koncerny do właściwego wynagradzania twórców za ich pracę, np. szkolenie botów na dziełach chronionych prawem autorskim.

Nightshade (z ang. Nocny Cień) to projekt z uniwersytetu w Chicago, który pozwala „zatruwać" dane obrazu (dzieł malarzy czy fotografów), w ten sposób czyniąc je bezużytecznymi lub zakłócającymi trenowanie modeli sztucznej inteligencji. Uniemożliwi to także generowanie na ich podstawie nowych treści. Ben Zhao, profesor informatyki, który kierował projektem, w rozmowie z Techcrunch porównał Nightshade do „dodawania ostrego sosu do lunchu, aby nie został skradziony z lodówki w miejscu pracy". Zhao i jego zespół próbują zmusić big-techy do płacenia za korzystanie z prac artystów.

2 / 3
artykułów
Czytaj dalej. Kup teraz
Technologie
Sztuczna inteligencja rozgryzie emocje każdego. Nowa broń nie tylko dla sklepów
Technologie
Sztuczna inteligencja przerobi każdą książkę na bestseller i hit filmowy. Ma sposób
Technologie
Sztuczna inteligencja wskazała armii USA cele nalotów. To rewolucja na polu walki
Technologie
ChatGPT miesza na salach rozpraw. Sztuczna inteligencja znów pogrążyła prawników
Materiał Promocyjny
PR&Media Days 2024 - trendy i wyzwania
Technologie
Sztuczna inteligencja wchodzi do smartfonów. Przewidzi ruchy użytkownika
Technologie
Przełomowy system komunikacji od NASA. Ruchem oczu można sterować urządzeniami