Proces projektowania i szkolenia inteligentnego asystenta głosowego obejmuje wiele etapów, począwszy od wyboru płci voicebota czy tonu brzmienia, poprzez personalizację, po tworzenie bazy potencjalnych pytań, właściwych odpowiedzi oraz możliwych zachowań i reakcji. Eksperci podkreślają, że bot powinien charakteryzować się właściwym poziomem ludzkiej naturalności, choć równocześnie powinien zapobiegać wywoływaniu u dzwoniącego fałszywego przekonania, że dialog odbywa się pomiędzy dwoma osobami, co mogłoby prowadzić do nieporozumień i fiaska konwersacji - radzą eksperci.
Przedstawiciele polskiej firmy Apifonica zdradzają nam sekrety treningu voicebotów.
Jak to działa?
Jak wskazuje Bartosz Malinowski, head of voicebot department w Apifonica, proces kreowania i uczenia botów głosowych składa się z czterech etapów. Przebiega od etapu projektowania celu i kierunków rozmów, przez zrozumienie tego, co mówi człowiek, po zbudowanie tzw. modelu intencji, czyli dobranie odpowiednich słów i fraz, które stają się intencją, jaką ma dany rozmówca. Czwarty krok to opracowanie i wykreowanie sposobów na wydobycie wartości biznesowej ze zgromadzonych informacji (np. integracja z systemami CRM w celu wymiany danych między nimi a voicebotem).
Voiceboty wykorzystują do rozmów z ludźmi wiele zaawansowanych mechanizmów, w tym uczenie maszynowe (ML), automatyczne rozpoznawanie mowy (ASR) i przetwarzanie języka naturalnego (NLU). Dzięki ML i NLU inteligentny asystent głosowy rozumie naturalną mowę i odpowiada tak, jak zrobiłby to człowiek. Voicebot rozumie ludzi poprzez intencje. Dzieję się to za sprawą słów kluczowych nazywanych „frazami treningowymi” (to przewidywane frazy, które potencjalny klient może powiedzieć). Kiedy wypowiedź użytkownika pokrywa się z intencją, którą zna voicebot, wtedy wie on, jak zareagować i co powiedzieć. – Wyobraźmy sobie sytuację, w której jedna osoba zaprasza drugą na kawę. Wówczas zapraszający powiedziałby: „Czy chciałabyś umówić się na kawę w przyszłym tygodniu?”. Ponieważ jest to zaproszenie, zapraszający oczekiwałby, że albo zaproszenie zostanie przyjęte, mówiąc, np.: „Tak, bardzo chętnie”, albo zostanie odrzucone, komunikując to w ten sposób: „Przykro mi, ale w przyszłym tygodniu jestem zajęty”. Bazując na wzorcach konwersacji, gdzie po zaproszeniu następuje akceptacja lub odrzucenie, voicebot zostanie zaprojektowany tak, aby rozumiał takie intencje i odpowiedzi „tak” lub „nie” – wyjaśnia Malinowski.
Czytaj więcej
Choć w technologii AI nie gramy jeszcze w globalnej I lidze, to lista krajowych firm, które są już rozpoznawalne na świecie, jest coraz dłuższa. Rodzimym algorytmom może pomóc Bruksela.