Sztuczna inteligencja połknie truciznę i zwariuje. Bat na koncerny technologiczne

Artyści walczący z wielkimi firmami trenującymi AI na ich dziełach i bez ich zgody, zyskają nowe narzędzie do ochrony swej pracy i blokujące bezprawne jej kopiowanie.

Publikacja: 28.01.2024 14:57

Sztuczna inteligencja szkoli się nie tylko na dziełach wielkich mistrzów. Tymczasem koncerny nie chc

Sztuczna inteligencja szkoli się nie tylko na dziełach wielkich mistrzów. Tymczasem koncerny nie chcą płacić twórcom

Foto: Adobe Stock

Nightshade (z ang. Nocny Cień) to projekt z uniwersytetu w Chicago, który pozwala „zatruwać" dane obrazu (dzieł malarzy czy fotografów), w ten sposób czyniąc je bezużytecznymi lub zakłócającymi trenowanie modeli sztucznej inteligencji. Uniemożliwi to także generowanie na ich podstawie nowych treści. Ben Zhao, profesor informatyki, który kierował projektem, w rozmowie z Techcrunch porównał Nightshade do „dodawania ostrego sosu do lunchu, aby nie został skradziony z lodówki w miejscu pracy". Zhao i jego zespół próbują zmusić big-techy do płacenia za korzystanie z prac artystów.

Czytaj więcej

Artyści protestują przeciw AI. Jest coraz lepsza

Nightshade subtelnie zmienia piksele na obrazach, aby oszukać modele AI. Weźmy obraz przedstawiający krowę wylegującą się na łące. - Skutecznie zniekształcając to skojarzenie, można sprawić, by modele AI myślały, że krowy mają cztery koła, zderzak i tułów – powiedział Zhao. - A kiedy zostaną poproszone o stworzenie krowy, stworzą zamiast niej dużą ciężarówkę.

Ciężarówka zamiast krowy

Zespół Nightshade podał również inne przykłady. Niezmieniony wizerunek Mona Lisy i cieniowana wersja są praktycznie identyczne z oryginałem, ale zamiast interpretować „zatrutą" próbkę jako portret kobiety, sztuczna inteligencja zobaczy ją jako kota w szlafroku.

Czytaj więcej

Wyścig zbrojeń AI. Jedni wykrywają sztuczną inteligencję, inni ją maskują

Inne narzędzia ochronne - podpisy i znaki wodne — nawet te dodane do metadanych obrazu — można usunąć, jeśli obraz zostanie zmieniony. Za to zmiany wprowadzone przez Nightshade pozostaną, ponieważ modyfikują piksele tworzące obraz.

Naukowcy mają nadzieję, że takie narzędzie zmusi koncerny do właściwego wynagradzania twórców za ich pracę, np. szkolenie botów na dziełach chronionych prawem autorskim.

Nightshade (z ang. Nocny Cień) to projekt z uniwersytetu w Chicago, który pozwala „zatruwać" dane obrazu (dzieł malarzy czy fotografów), w ten sposób czyniąc je bezużytecznymi lub zakłócającymi trenowanie modeli sztucznej inteligencji. Uniemożliwi to także generowanie na ich podstawie nowych treści. Ben Zhao, profesor informatyki, który kierował projektem, w rozmowie z Techcrunch porównał Nightshade do „dodawania ostrego sosu do lunchu, aby nie został skradziony z lodówki w miejscu pracy". Zhao i jego zespół próbują zmusić big-techy do płacenia za korzystanie z prac artystów.

2 / 3
artykułów
Czytaj dalej. Subskrybuj
Technologie
Koniec dominacji Google? Twórca ChatGPT wprowadza wyjątkową wyszukiwarkę z AI
Technologie
Sparaliżowany sportowiec niósł ogień olimpijski. Egzoszkielety dokonują cudów
Technologie
Supermoc dla wszystkich. Rewolucyjne rozwiązanie da niezwykłą siłę i szybkość
Technologie
Sztuczna inteligencja miała tylko pomagać, a zabiera pracę. Oni cierpią najbardziej
Materiał Promocyjny
Mity i fakty – Samochody elektryczne nie są ekologiczne
Technologie
Te roboty mają być jak ludzie. Elon Musk podał datę ich wprowadzenia