Biznes sięga po sztuczną inteligencję (AI), która będzie w stanie określać, a nawet przewidywać samopoczucie konsumentów i pracowników.
Do 2021 r. rynek sztucznej inteligencji służącej do oceny stanu emocjonalnego klientów osiągnie wartość 40 mld dol., czyli sześć razy więcej niż w 2016 r. – wynika z prognoz Markets&Markets oraz Mordor Inteligence. Najbardziej optymistyczni analitycy przewidują, że do 2024 r. ma to być już poziom 100 mld dol.
W umiejętność odczytywania np. mimiki twarzy i języka ciała, czyli tzw. synergologię, zainwestowały już Microsoft, Apple, IBM czy Amazon. Do tego celu zaprzęgły technologię AI oraz analizę danych big data. Inteligentne algorytmy mają sprawić, że marketerzy mogliby badać reakcje widzów na wyświetlane reklamy, komputery samochodowe miałyby oceniać stan, w jakim znajduje się kierowca, a działy HR już na etapie wstępnej selekcji kandydatów mogłyby eliminować niezainteresowanych.
CZYTAJ TAKŻE: Rozpoznawanie emocji będzie wkrótce żyłą złota
Sascha Stockem, prezes firmy Nethansa, wdrażającej rozwiązania z zakresu sztucznej inteligencji, nie ma wątpliwości, że umiejętność odszyfrowania tego, co oznaczają takie niewerbalne sposoby komunikacji międzyludzkiej jak uśmiech czy grymas, może być niemal równie cenne jak umiejętność czytania w myślach. – Dotychczasowe próby zbudowania systemów odczytywania ludzkich emocji, poprzez analizę i interpretację sygnałów niewerbalnych, były nieskuteczne. Zmieniają to inicjatywy podjęte przez wielkie korporacje, które chcą jak najlepiej poznać swojego klienta, a wiedzę tę przekuć na zyski – mówi Stockem.
Dominika Kaczorowska-Spychalska z Wydziału Zarządzania Uniwersytetu Łódzkiego wskazuje, że wiedza o emocjach użytkowników to ciekawe narzędzie. Np. producent samochodów Kia chce ją wykorzystać w swoich pojazdach autonomicznych, umożliwiając systemom AI bieżące personalizowanie wyglądu kabiny do stanu emocjonalnego jej użytkownika. – Wiele marek pracuje nad systemami pozwalającymi im na elastyczne dostosowywanie treści i długości komunikatów reklamowych do reakcji widzów. Spersonalizowanie formy emisji, adekwatne do rzeczywistych wywoływanych emocji, pozwoliłoby markom na zintegrowanie przekazu do zainteresowania konkretnego konsumenta. Dzięki temu reklama empatyczna będzie mogła samoistnie się wyłączać, gdy dostrzeże znudzenie widza, lub wydłużać, gdy okaże on zainteresowanie. Facebook pracuje już z botem, który uczy się rozpoznawać emocje, nabywając przy tym podstawowych umiejętności z zakresu komunikacji niewerbalnej poprzez obserwację zachowań na nagraniach komunikatora Skype. Google zaś testuje technologię Duplex – wylicza Kaczorowska-Spychalska.
CZYTAJ TAKŻE: Polacy chcą grać na emocjach w internecie
Ale liderem w tej innowacyjnej branży niewątpliwie jest firma Affectiva, która wyrosła z laboratorium obliczeń emocjonalnych Massachusetts Institute of Technology. Posiada największe na świecie repozytorium danych o emocjach, z bankiem twarzy liczącym ponad 7,5 mln wizerunków z 87 krajów. Materiały analizowane są w biurze w Kairze i wykorzystywane do „trenowania” algorytmów. Podobny projekt realizuje przejęty przez Apple’a startup Emotient, za którym stoją absolwenci California Institute w San Diego.
Żadna część jak i całość utworów zawartych w dzienniku nie może być powielana i rozpowszechniana lub dalej rozpowszechniana w jakiejkolwiek formie i w jakikolwiek sposób (w tym także elektroniczny lub mechaniczny lub inny albo na wszelkich polach eksploatacji) włącznie z kopiowaniem, szeroko pojętę digitalizację, fotokopiowaniem lub kopiowaniem, w tym także zamieszczaniem w Internecie - bez pisemnej zgody Gremi Media SA. Jakiekolwiek użycie lub wykorzystanie utworów w całości lub w części bez zgody Gremi Media SA lub autorów z naruszeniem prawa jest zabronione pod groźbą kary i może być ścigane prawnie.
Rozpowszechnianie niniejszego artykułu możliwe jest tylko i wyłącznie zgodnie z postanowieniami "Regulaminu korzystania z artykułów prasowych" [Poprzednia wersja obowiązująca do 30.01.2017]. Formularz zamówienia można pobrać na stronie www.rp.pl/licencja.