Reklama

Sztuczna inteligencja połknie truciznę i zwariuje. Bat na koncerny technologiczne

Artyści walczący z wielkimi firmami trenującymi AI na ich dziełach i bez ich zgody, zyskają nowe narzędzie do ochrony swej pracy i blokujące bezprawne jej kopiowanie.

Publikacja: 28.01.2024 14:57

Sztuczna inteligencja szkoli się nie tylko na dziełach wielkich mistrzów. Tymczasem koncerny nie chc

Kobieta w galerii obrazów

Sztuczna inteligencja szkoli się nie tylko na dziełach wielkich mistrzów. Tymczasem koncerny nie chcą płacić twórcom

Foto: Adobe Stock

Nightshade (z ang. Nocny Cień) to projekt z uniwersytetu w Chicago, który pozwala „zatruwać" dane obrazu (dzieł malarzy czy fotografów), w ten sposób czyniąc je bezużytecznymi lub zakłócającymi trenowanie modeli sztucznej inteligencji. Uniemożliwi to także generowanie na ich podstawie nowych treści. Ben Zhao, profesor informatyki, który kierował projektem, w rozmowie z Techcrunch porównał Nightshade do „dodawania ostrego sosu do lunchu, aby nie został skradziony z lodówki w miejscu pracy". Zhao i jego zespół próbują zmusić big-techy do płacenia za korzystanie z prac artystów.

Czytaj więcej

Artyści protestują przeciw AI. Jest coraz lepsza

Nightshade subtelnie zmienia piksele na obrazach, aby oszukać modele AI. Weźmy obraz przedstawiający krowę wylegującą się na łące. - Skutecznie zniekształcając to skojarzenie, można sprawić, by modele AI myślały, że krowy mają cztery koła, zderzak i tułów – powiedział Zhao. - A kiedy zostaną poproszone o stworzenie krowy, stworzą zamiast niej dużą ciężarówkę.

Ciężarówka zamiast krowy

Zespół Nightshade podał również inne przykłady. Niezmieniony wizerunek Mona Lisy i cieniowana wersja są praktycznie identyczne z oryginałem, ale zamiast interpretować „zatrutą" próbkę jako portret kobiety, sztuczna inteligencja zobaczy ją jako kota w szlafroku.

Czytaj więcej

Wyścig zbrojeń AI. Jedni wykrywają sztuczną inteligencję, inni ją maskują
Reklama
Reklama

Inne narzędzia ochronne - podpisy i znaki wodne — nawet te dodane do metadanych obrazu — można usunąć, jeśli obraz zostanie zmieniony. Za to zmiany wprowadzone przez Nightshade pozostaną, ponieważ modyfikują piksele tworzące obraz.

Naukowcy mają nadzieję, że takie narzędzie zmusi koncerny do właściwego wynagradzania twórców za ich pracę, np. szkolenie botów na dziełach chronionych prawem autorskim.

Technologie
„AI wzmacniała urojenia”. Pierwszy pozew o zabójstwo z udziałem ChatGPT
Materiał Promocyjny
MLP Group z jedną z największych transakcji najmu w Niemczech
Technologie
Gorączka i kaszel to nie wszystko. Objawy Covid-19 mogą zaskoczyć
Technologie
Krawiec dla robotów. Szef Nvidii mówi o zawodach przyszłości i wpływie AI
Technologie
Czy humanoid Elona Muska to tylko zdalnie sterowana atrapa? Burza po wpadce Optimusa
Materiał Promocyjny
Jak producent okien dachowych wpisał się w polską gospodarkę
Technologie
Demokracja zagrożona przez AI? Naukowcy alarmują: boty skuteczniejsze niż telewizja
Materiał Promocyjny
Lojalność, która naprawdę się opłaca. Skorzystaj z Circle K extra
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama
Reklama