Firma Meta podkreśla iż od uruchomienia Meta AI bardzo realistyczne i przypominające do złudzenia obrazy stworzone za pomocą takich narzędzi są oznaczane, tak aby inni użytkownicy wiedzieli, że są wytworzone przez sztuczną inteligencję. Teraz jednak firma współpracuje z partnerami branżowymi nad wypracowaniem wspólnych standardów technicznych identyfikacji treści stworzonych przez AI, w tym wideo i audio.
W nadchodzących miesiącach Meta zacznie oznaczać obrazy i zdjęcia publikowane na Facebooku, Instagramie i Threads, jeśli wykryje, że zostały wygenerowane przez AI.
Polityczna dezinformacja w Ameryce
To efekt niedawnych wydarzeń jak choćby stworzonego przez sztuczną inteligencję nagrania przypominającego do złudzenia głos prezydenta USA Joe Bidena, który zniechęcał do udziału w demokratycznych prawyborach w stanie New Hampshire. Wcześniej stworzone przez oprogramowanie wizerunki znanych aktorów np. Toma Hanksa były bez ich wiedzy i zgody wykorzystywane w reklamach.
Czytaj więcej
Gdy jedne algorytmy próbują oszukać rzeczywistość, generując plagiaty, fake newsy i imitując twórczość człowieka, inne starają się wykryć treści powstające z udziałem botów. W odpowiedzi pojawiają się systemy, które mają zmylić takie detektory.
Meta obecnie współpracuje z partnerami branżowymi w celu uzgodnienia wspólnych standardów technicznych, które sygnalizowałyby, że dana treść publikowana na platformie została stworzona przy użyciu AI. Możliwość wykrycia takich sygnałów pozwoli na oznaczenie obrazów i zdjęć wygenerowanych przez sztuczną inteligencję na Facebooku, Instagramie i Threads. Obecnie firma intensywnie pracuje nad tym rozwiązaniem, aby w kolejnych miesiącach móc wprowadzić je we wszystkich językach wspieranych przez każdą z aplikacji.