To zamknięte koło i nieustanny wyścig na technologie AI. A napędziło go pojawienie się ogólnie dostępnych narzędzi generatywnej sztucznej inteligencji (genAI), jak np. ChatGPT, Dall-E, Midjourney czy Bard. Odróżnienie dziś zdjęcia sfabrykowanego przez algorytmy czy tekstu napisanego przez bota staje się coraz trudniejsze. Człowiek do walki ze zjawiskiem niekontrolowanego rozpowszechniania treści generowanych przez boty musi więc angażować AI, bo sam nie jest już w stanie odróżnić prawdy od fałszu.
Jak wykryć pracę sztucznej inteligencji
Utwór muzyczny, który słychać w sieci, to może plagiat, zmontowany przez bota, a może praca egzaminacyjna studenta, która trafiła do rąk profesora na uczelni, została napisana przez inteligentny generator. Czy masz pewność, że zdjęcia publikowane w mediach społecznościowych to nie „dzieło” manipulacji AI?
W dobie wszechobecnej sztucznej inteligencji ludzie mogą czuć się zagubieni. Większość już teraz nie potrafi odróżnić tego, co jest prawdą, od tego, co jest fałszem. I dotyczy to zarówno tego, co czytamy, co słyszymy i co widzimy. Wielu ekspertów przestrzega: jeśli nie stworzymy systemu kontroli i weryfikacji, nie będziemy w stanie dojść, co jest fikcją. Tym bardziej że sztuczna inteligencja rośnie w siłę. Jak wynika z danych IDC, tylko w Europie wydatki na tę technologię przebiją w br. 34 mld dol., a do 2027 r. będą rosły średnio o 30 proc. rocznie. Carla La Croce, kierownik badań w IDC, prognozuje, że w ciągu czterech lat zwiększą się prawie trzykrotnie. Jak tłumaczy, genAI przyciąga uwagę producentów, konsumentów i biznesu, a najszybciej rozwijającym się przypadkiem jej użycia jest tworzenie obrazów (zdjęć i filmów) oraz tekstów.
Czytaj więcej
Dynamiczny rozwój sztucznej inteligencji, którego jesteśmy w ostatnich miesiącach świadkami, to jeden z kolejnych technologicznych przełomów, z jakimi świat ma do czynienia od wieków – uważają eksperci. Ale AI może być też przekleństwem.
Dość szybko, gdy w listopadzie ub.r. pojawił się ChatGPT, narodziły się projekty, które miały pomóc w identyfikacji treści i wykrywaniu „działalności” algorytmów. Jednym z takich narzędzi był GPTZero. Aplikacja stała się hitem, sięgnęło po nią wiele szkół i uniwersytetów. Jej skuteczność początkowo budziła wiele wątpliwości. Bazujący na sztucznej inteligencji system potrafił mylić się w spektakularny sposób – nie wykrywać prac pisemnych, które były dziełem AI, czy wskazywać te stworzone przez człowieka jako generowane przez boty. Było kilka głośnych przykładów studentów niesłusznie oskarżonych o oszustwo, czy historia, gdy GPTZero sklasyfikował tekst konstytucji USA jako materiał genAI.