Druga ważna rzecz to komputer kwantowy. Prace nad takim komputerem trwają teraz intensywnie. Wielu gigantów technologicznych stara się taki komputer stworzyć, żeby przetwarzanie danych było jeszcze szybsze.
Elon Musk chce łączyć komputer z mózgiem. Co to nam da?
O projecie Neuralink Elona Muska, ktory ma byc najdojrzalszym interfesem mozg-maszyna, wiadomo na razie nie wiele, poza tym, ze ambicje sa ogromne. Musk uzasadnia jednak swoj projekt bezpieczenstwem – uwaza, ze znacznie lepiej jest ludzkosci polaczyc sie z AI niz uniezaleznic rozwoj AI od ludzi. DLa niego ta druga wizja- autonomicznej AI – jest znacznie bardziej niebezpieczna.
Kto przoduje w sztucznej inteligencji na świecie? Chińczycy czy Amerykanie?
To wyrównany wyścig. Trudno powiedzieć, jak będzie wyglądała przyszłość. Chińczycy mają plan na 2050 r., żeby doprowadzić AI do pewnego pułapu i coraz szerzej ją wdrażać. W Chinach jest nacisk, żeby AI było wszędzie dużo. Podejście europejskie i amerykańskie jest raczej takie, żeby tworzyć projekty unikatowe i mieć prawną ochronę własności intelektualnej i to licencjonować. Jest ambicja, żeby tworzyć nowatorskie rzeczy. A w Chinach ma to towarzyszyć każdemu obywatelowi/konsumentowi przez cały dzień.
To przerażająca wizja. Kamery są w stanie wyłowić na wielkim koncercie pojedynczą twarz, a system od razu wie o człowieku wszystko. Jest to w dodatku połączone z tzw. systemem kredytu społecznego.
Ta wizja jest przerażająca, ale też obca. Nie sądzę, żeby tego typu projekt w Unii Europejskiej miał szansę być procedowany. Chińczycy stawiają na państwo dobrobytu. Uważają, że to jest sposób jego budowy przez motywowanie obywateli do usilniejszej zbiorowej pracy. Z takim podejściem do sztucznej inteligencji się nie zgadzam.
CZYTAJ TAKŻE: Maszyna wykrywająca korupcję okazała się zbyt skuteczna
Od wiosny 2019 r. docierają do mnie informacje, że Chińczycy się wahają, bo ten system w pilotażach nie przyniósł spodziewanych efektów. Nie stało się tak, żeby ludzie dążyli do maksymalnej liczby punktów, przez co sami się ulepszali, wszystko robili coraz lepiej. Było wręcz przeciwnie. System coraz bardziej ma charakter karny, a nie nagradzający. Chyba nie tak miało to wyglądać.
Taki system może być zagrożeniem dla demokracji?
Każdy system, który jest tak holistyczny, bierze na widelec tak wiele obszarów ludzkiego życia, jest zagrożeniem. My też mamy rozmaite systemy ocen, które funkcjonują. W bankach są systemy ocen, jadąc Uberem mamy system oceniania.
Z ocenami przez AI jest duży problem. Potrafi być rasistowska, homofobiczna. Z czego to się bierze?
Z danych, które dostaje. W przechyle algorytmicznym odzwierciedlają się uprzedzenia ludzi. Czasami są też nieprzemyślane błędy. To, że system rozpoznawania twarzy w danym kraju gorzej rozpoznaje kobiety, albo osoby innej rasy, wynika z tego, że w ogóle nie jest na nich trenowany. Efekt jest taki, że nie widzi tych ludzi. Jest trenowany najczęściej na osobach, które go budują, czyli białych mężczyznach.
Zagrożenia to też deep fake. AI jest w stanie tworzyć prawie nie do odróżnienia wizerunki czy np. przemówienia ludzi. Może to wpływać na manipulacje polityczne i mieć nieprawdopodobne konsekwencje.
Tak. Teraz mamy serię nowych kampanii wyborczych. Do śledzenia pod tym kątem warta jest kampania w USA. Dla indywidualnego użytkownika ciężko jest zobaczyć deep fake. Jednak dla systemu technicznego, który ocenia dane wideo, bardzo łatwo jest go wychwycić. To kwestia dostępnych narzędzi.
Czyli sztuczna inteligencja może działać na dwie strony. Tak samo wspierać hakerów, jak i z nimi walczyć.
To jest janusowe oblicze AI, które widzimy. Jeśli chodzi o deep fake, jest to relatywnie prosta technologia. Łatwo złapać deep fake. Po 2016 r. wszyscy już wiemy do czego jest wykorzystywana SI w kampaniach politycznych i ludzie patrzą sobie na ręce. Wcześniej to była cicha sprawa. Np. mikrotargeting, profilowanie wyborców, działał już za Obamy, tylko wtedy się o tym nie mówiło.
Nie boi się pani, że AI w przypadku wsparcia zarządzania firmą, czy inwestycji na giełdzie nie będzie miała zahamowań jak człowiek, strachu przed ryzykiem? Może podejmować inne decyzje, co będzie zagrożeniem gospodarczym.
Myślenie o automatyzacji, jako sytuacji, w której ludzie mają coraz mniej do powiedzenia nie jest budowaniem świata dla ludzi. Przychylna byłabym, żeby wykorzystywać sztuczną inteligencję tam, gdzie nasza inteligencja nie jest w stanie zadziałać samodzielnie, ale tylko jako system doradczy, wspomagający. AI musi też być transparentna. Tzn. np. widzę dlaczego podejmuje takie, a nie inne decyzje. W przypadku oceny ryzyka – skąd wzięła się taka, a nie inna ocena.
CZYTAJ TAKŻE: Sztuczna inteligencja stała się zagrożeniem… w Polsce
Jesteśmy na samym początku działania tej dziedziny. Ona jest trochę obezwładniająca, bo działa nieźle. Ludzie są w niej zakochani, albo się jej boją. Nie mamy wyważonych stanowisk i odpowiednich narzędzi.
Kiedy AI może osiągnąć samoświadomość? Może stać się wtedy zagrożeniem?
Sztuczna inteligencja jest na początku drogi. Nie jestem związana z chórem optymistów z Doliny Krzemowej, którzy twierdzą, że samoświadomość osiągnie w 2045 r.
Zagrożeniem może stać się w każdej chwili, nie uzyskując żadnej świadomości. Zagrożeniem jest broń autonomiczna oparta na SI, która już dzisiaj wykorzystywana jest w różnych konfliktach zbrojnych.
Może się wyrwać spod kontroli jak komputer Hal 9000 w filmie „2001: Odyseja kosmiczna”
Ale on chciał dobrze. Potem Stanley Kubrick wyjaśniał, że komputer chciał ukończyć misję, takie otrzymał zadanie. Ale Hal rzeczywiście nie ma dobrej prasy.
Może w razie buntu AI ludzie sobie jednak poradzą. Już teraz w Hongkongu oślepiają kamery laserami, noszą parasolki, itp.
Mamy najrozniejsze sposoby radzenia sobie z nowymi technologiami, najczesciej wraz z danym technologicznym rozwiazaniem powstaje sposob zniszczenia go. Ubieralne technologie, takie jak kolczyki, moga zaburzac identyfikacje twarzy w kamerach i coraz wiecej osob je nosi.
Który z filmów S-F najlepiej oddaje to, co się może wydarzyć? Ma Pani ulubiony?
Moj ulubiony, choc pewnie artystycznie nienajmocniejszy film z ostatnich lat to Interstellar – realistyczne przedstawienie drastycznych zmian klimatycznych w polaczeniu z misja, w ktorej AI odgrywa bardzo pozytywna role. Sztuczna inteligencja nie jest tiu straszakiem, lecz niezwyklym wsparciem dla czlowieka w momentach, kiedy sam sobie nie radzi.
Kiedy każdy będzie miał swojego robota, który wyprasuje, ugotuje, pomoże w pracy, odwiezie dzieci do szkoły?
To juz sie dzieje, najnowsze samochody maja pokladowego bota, z ktorym mozna rozmawiac. Alexy (ktorych w samych USA jest co najmniej 60 milionow) i inne urzadzenia podobnego typu, steruja oswietleniem domowym i sprzetami domowymi. To juz terazniejszosc.
Świat się aż tak szybko nie zmienia, jak chcieliby ludzie. Jak popatrzymy na stare filmy, to już dawno temu miały chodzić po ulicach roboty, odbywać się loty międzygalaktyczne, jak np. w serialu Kosmos 1999, kręconym w latach 70.
Pewne rzeczy nie zmienily sie tak bardzo, jak projektowano w przeszlosci, ale inne przeszly diametralne zmiany. Wyobraznia ludzi w latach szescdziesiatych i siedemdziesiatych ubieglego wieku wladala eksploracja kosmiczna i to w kosmosie lokowano przyszlosc. Ta sfera nie posunela sie radykalnie naprzod, ale jesli spojrzec na genetyke czy biologie syntetyczna – jestesmy chyba nawet dalej, niz sie spodziewaliśmy.
CV
Aleksandra Przegalińska, doktor nauk humanistycznych, filozof, badaczka sztucznej inteligencji z Akademii Leona Koźmińskiego i bostońskiego MIT. Znalazła się wśród liderów i wizjonerów wyróżnionych przez „Rzeczpospolitą Cyfrową” za szczególny wkład
w rozwój polskiej transformacji cyfrowej w 2019 roku.