W efekcie fałszywe zdjęcia będą opatrywane specjalnym „znakiem wodnym”. Jak donosi CNN, ma to zapobiec groźnym deepfake’om i rozprzestrzenianiu dezinformacji. Google udostępniło takie oznaczenia we wtorek – pojawią się na obrazach generowanych komputerowo. Odpowiadać ma za to technologia o nazwie SynthID. Ta będzie oznaczała jednak jedynie obrazy tworzone przez Imagen, jeden z generatorów Google zajmujących się zamianą tekstu na obraz. Etykieta będzie nieusuwalna.

Co jednak z grafikami tworzonymi przez inne systemy AI? Te nie będą oznaczane. To może się jednak zmienić. Na razie mamy bowiem do czynienia z wersją beta SynthID, która jest dostępna tylko dla niektórych użytkowników Vertex AI (platforma AI od Google dla programistów). Koncern chce, by SynthID był jednak rozszerzony na inne produkty Google, w tym również na produkty stron trzecich.

Czytaj więcej

Inteligentne roboty z Polski pójdą w świat. Mamy się czym pochwalić

Synth ID to dzieło inżynierów Google DeepMind. Ale Google nie jest jedyną firmą, która – na skutek dynamicznego rozwoju sztucznej inteligencji – pracuje nad sposobami wykrywania fałszywych zdjęć. Pochyla się nad tym również C2PA – koalicja na rzecz pochodzenia i autentyczności treści, konsorcjum wspierane przez firmę Adobe. Ona także rozwija systemy cyfrowych znaków wodnych.

Unia walczy z deepfake

Przypomnijmy, że w czerwcu br. Vera Jourova, wiceprzewodnicząca Komisji Europejskiej, wezwała sygnatariuszy unijnego kodeksu postępowania w zakresie dezinformacji (na liście poza Google są m.in. Meta, TikTok i Microsoft) do wprowadzenia technologii umożliwiającej rozpoznawanie treści generowanych przez AI i zaapelowała o „wyraźne ich oznaczanie”.