Artur Modliński i Matthew Gladden, naukowcy z Centrum Badań nad Sztuczną Inteligencją i Cyberkomunikacją, działającego przy Wydziale Zarządzania Uniwersytetu Łódzkiego, odkryli zjawisko, które nazwali techno-empowerment. W dużym skrócie opisuje ono sytuację, w której ludzie świadomie oddają część swojej decyzyjności maszynom wyposażonym w sztuczną inteligencję (AI). Wyniki ekspermentów zostały opublikowane w „Human Technology”. Na łamach można przeczytać, że od lat w teorii nauk o zarządzaniu oraz praktyce biznesowej upowszechnia się trend przekazywania autonomii decyzyjnej pracownikom (employee-empowerment), co ma zwiększyć ich przywiązanie do miejsca pracy oraz spełnienie w życiu zawodowym, a także wzmocnić poczucie odpowiedzialności za organizację. Okazuje się jednak, że nie tylko pracownicy, lecz także technologia zyskuje autonomię decyzyjną w organizacji. Modliński i Gladden przekonują, iż współczesna organizacja zaczyna wręcz przypominać cyborga. – O ile przed rozwojem sztucznej inteligencji człowiek był jedyną inteligentną częścią organizacji, o tyle w chwili obecnej mamy coraz więcej przykładów łączenia inteligencji ludzkiej i maszynowej. Technologia zaczęła zastępować człowieka w najprostszych zadaniach fizycznych, ale wyraźnie awansuje w zakresie odpowiedzialności powierzanych jej zadań – przyznają badacze.
Czytaj więcej
Nadchodzi nowa jakość w projektowaniu koszul na miarę. Startup z Mysłowic opracował technologię, która umożliwi smartfonom zebranie miary online.
W swoim eksperymencie badacze stworzyli ulotkę zachęcającą do skorzystania z pomocy autonomicznego asystenta biurowego, który samodzielnie umawia spotkania, wystawia faktury czy płaci rachunki z konta bankowego swojego właściciela. Jednocześnie stworzonych zostało osiem grup, a w każdej z nich autonomiczny asystent był wyposażony w inny komplet sygnałów wysyłanych do odbiorców. Jedną grupą sygnałów był kraj pochodzenia. Autonomiczny asystent w grupie kontrolnej nie reprezentował żadnego kraju, a w trzech grupach informował, że został wyprodukowany w Chinach, USA lub Rosji. Drugą grupą sygnałów był certyfikat bezpieczeństwa. Autonomiczny asystent albo go miał, albo potencjalny użytkownik nie był informowany, że taki certyfikat w ogóle istnieje. Okazało się, że badani chętniej deklarowali intencje zaadaptowania AI, gdy ta nie deklarowała konkretnego kraju pochodzenia.
Czynnikiem zachęcającym do przekazania asystentowi autonomii decyzyjnej okazało się zaś posiadanie certyfikatu bezpieczeństwa. – Badani docenili go jako sygnał świadczący o wiarygodności asystenta – tłumaczą naukowcy.