Do 2021 r. rynek sztucznej inteligencji służącej do oceny stanu emocjonalnego klientów osiągnie wartość 40 mld dol., czyli sześć razy więcej niż w 2016 r. – wynika z prognoz Markets&Markets oraz Mordor Inteligence. Najbardziej optymistyczni analitycy przewidują, że do 2024 r. ma to być już poziom 100 mld dol.
W umiejętność odczytywania np. mimiki twarzy i języka ciała, czyli tzw. synergologię, zainwestowały już Microsoft, Apple, IBM czy Amazon. Do tego celu zaprzęgły technologię AI oraz analizę danych big data. Inteligentne algorytmy mają sprawić, że marketerzy mogliby badać reakcje widzów na wyświetlane reklamy, komputery samochodowe miałyby oceniać stan, w jakim znajduje się kierowca, a działy HR już na etapie wstępnej selekcji kandydatów mogłyby eliminować niezainteresowanych.
CZYTAJ TAKŻE: Rozpoznawanie emocji będzie wkrótce żyłą złota
Sascha Stockem, prezes firmy Nethansa, wdrażającej rozwiązania z zakresu sztucznej inteligencji, nie ma wątpliwości, że umiejętność odszyfrowania tego, co oznaczają takie niewerbalne sposoby komunikacji międzyludzkiej jak uśmiech czy grymas, może być niemal równie cenne jak umiejętność czytania w myślach. – Dotychczasowe próby zbudowania systemów odczytywania ludzkich emocji, poprzez analizę i interpretację sygnałów niewerbalnych, były nieskuteczne. Zmieniają to inicjatywy podjęte przez wielkie korporacje, które chcą jak najlepiej poznać swojego klienta, a wiedzę tę przekuć na zyski – mówi Stockem.
Dominika Kaczorowska-Spychalska z Wydziału Zarządzania Uniwersytetu Łódzkiego wskazuje, że wiedza o emocjach użytkowników to ciekawe narzędzie. Np. producent samochodów Kia chce ją wykorzystać w swoich pojazdach autonomicznych, umożliwiając systemom AI bieżące personalizowanie wyglądu kabiny do stanu emocjonalnego jej użytkownika. – Wiele marek pracuje nad systemami pozwalającymi im na elastyczne dostosowywanie treści i długości komunikatów reklamowych do reakcji widzów. Spersonalizowanie formy emisji, adekwatne do rzeczywistych wywoływanych emocji, pozwoliłoby markom na zintegrowanie przekazu do zainteresowania konkretnego konsumenta. Dzięki temu reklama empatyczna będzie mogła samoistnie się wyłączać, gdy dostrzeże znudzenie widza, lub wydłużać, gdy okaże on zainteresowanie. Facebook pracuje już z botem, który uczy się rozpoznawać emocje, nabywając przy tym podstawowych umiejętności z zakresu komunikacji niewerbalnej poprzez obserwację zachowań na nagraniach komunikatora Skype. Google zaś testuje technologię Duplex – wylicza Kaczorowska-Spychalska.