W serii „Terminator”, w ramach której pierwszy film powstał jeszcze w latach 80., system obronny Skynet, oparty na sztucznej inteligencji, uzyskał samoświadomość. Gdy przerażeni ludzie próbowali go wyłączyć przeprowadził atak nuklearny, w wyniku którego zginęło kilka miliardów ludzi, a nieliczni pozostali przeszli do podziemia i walczyli z maszynami.
Czy może nas czekać podobny scenariusz? Tu opinie są podzielone, jak zauważa jednak BBC, dwóch z trzech tak zwanych „ojców chrzestnych AI” jest zaniepokojonych tempem rozwoju takich rozwiązań, choć trzeci stwierdził, że takie przepowiednie zagłady to nonsens.
Centrum Bezpieczeństwa AI (CAIS) w kampanii wykorzystało postać WALL-E firmy Pixar jako przykład zagrożeń ze strony sztucznej inteligencji. Fantastyka naukowa zawsze była narzędziem do odgadywania, co przyniesie przyszłość. CAIS na poważnie zastanawia się czy hollywoodzkie hity mają nam coś do powiedzenia na temat zagłady AI? We wspomnianym WALL-E” ludzie byli w zasadzie szczęśliwymi zwierzętami, bez jakiejkolwiek pracy i obowiązków, ledwo mogli stać samodzielnie. Roboty zajmowały się wszystkim za nich. - Istnieje jednak inna, bardziej podstępna forma zależności, która nie jest tak odległa. To przekazanie władzy technologii, której możemy nie do końca zrozumieć - mówi Stephanie Hare, badaczka etyki AI i autorka „Technology Is Not Neutral”.
Czytaj więcej
Sztuczna inteligencja dostarczyła właśnie jej przeciwnikom mocne argumenty. Po ujawnieniu wyników symulacji z AI w USA wybuchła burza. Pentagon wszystkiemu zaprzecza.
Podaje przykład filmu „Raport Mniejszości” w którym szanowany policjant John Anderton (grany przez Toma Cruise'a) zostaje oskarżony o przestępstwo, którego nie popełnił, ponieważ systemy stworzone do przewidywania przestępstw są pewne, że to zrobi. Jego życie zostaje zrujnowane przez system, którego zasady rozumieją nieliczni. Co się dzieje, gdy ktoś ma „decyzję zmieniającą życie” – taką jak wniosek o kredyt hipoteczny lub zwolnienie warunkowe z więzienia – odrzucone przez sztuczną inteligencję? Człowiek mógłby wyjaśnić, dlaczego nie spełnia się kryteriów, ale wiele systemów sztucznej inteligencji jest nieprzejrzystych i nawet badacze, którzy je zbudowali, często nie do końca rozumieją procesu podejmowania decyzji. - Po prostu wprowadzamy dane, komputer coś robi… dzieje się magia, a potem mamy wynik – mówi dr Hare.