
Mówiliśmy wcześniej z czym Max sobie radzi lepiej, a z czym gorzej. Dzisiaj reklamacje obsługują konsultanci, ale sprawny bot LLM, wyposażony w kontekstową wiedzę o konkretnym kliencie, również może z tym zadaniem sobie poradzić.
Skoro przyszłością są narzędzia generatywne, a Max jest oparty na regułach, to jego los jest przesądzony.
Nazwa asystenta pewnie pozostanie, ale algorytmy generatywne będą stopniowo wypierały algorytmy regułowe. To będzie płynne przejście. Kiedy 7 lat temu wdrażaliśmy Maxa, też nie zastąpił od razu mechanizmów IVR, które nadal obsługiwały część ‒ zwłaszcza bardziej złożonych ‒ zadań. Z czasem mogliśmy jednak ostatecznie zrezygnować z IVR.
Macie już orientację, który z powszechnych modeli językowych najlepiej nadaje się do zastosowań w obsłudze klientów telekomu?
Nie ma jednego, optymalnego modelu.
Ale „flexbot” jest oparty na Gemini.
To nie jest jedyne narzędzie LLM, z którego korzystamy. W innym rozwiązaniu, które pomaga klientom wybrać smartfon, stosujemy GPT. Są różni dostawcy, a każdy dostarcza więcej niż jeden model o różnym stopniu złożoności. Korzystamy ze wszystkich.
Największe modele rozumują najlepiej, ale korzystanie z nich najwięcej kosztuje, a czas odpowiedzi jest relatywnie długi. Jeżeli nie ma powodu, by postąpić inaczej, można skorzystać z mniej zaawansowanego modelu, który odpowie szybciej za niższą cenę tokena [jednostka analizy danych przez sztuczną inteligencję - red].
W Grupie Orange jest jeszcze model Dinootoo.
Dinootoo, to nie model tylko tzw. nakładka, która pozwala korzystać pracownikom w intranecie grupy Orange z różnych, uniwersalnych LLM jak Gemini, czy GPT. Nie jest wykorzystywany w obsłudze klientów.
Czy można się spodziewać powstania modeli LLM wyspecjalizowanych na przykład w obsłudze klienta masowego? Dajmy na to: telekomu.
To wróżenie z fusów. Osobiście tego nie widzę. Pamiętajmy, że największe modele były trenowane długimi tygodniami na zasobach o tysiącach procesorów i miliardach dokumentów. Powtarzanie takich inwestycji mija się z celem. Co innego dostrajanie modeli zwane żargonowo „fine tuning”. Takie modele mogą być lepiej dopasowane do specyfiki branży, ale wymagają wielkiej ilości danych wsadowych. Nie są też pozbawione wad.
Dzisiaj korzystamy z dużych modeli w chmurze, co ma wiele zalet, np. skalowalność. AI rozwija się szybko i kto wie, czy nie pojawią się sprawne i wydajne modele o mniejszych wymaganiach technicznych, które będzie można umieszczać na własnych serwerach. Wtedy naszą rozmowę o sposobach korzystania ze sztucznej inteligencji w procesach firmy telekomunikacyjnej będziemy musieli przeprowadzić na nowo.
Jakie są w Orange kierunki rozwoju narzędzi AI przeznaczonych do obsługi klienta?
Dzisiaj rozwiązania LLM wykorzystujemy głównie w dialogach opartych na wiedzy ogólnej i związanych pytaniami abstrakcyjnymi, natomiast boty regułowe: z masowo powtarzalnymi zdarzeniami, dotyczącymi konkretnych klientów. Chcemy ulepszać wykorzystywane obecnie narzędzia: automatowi do obsługi klientów Flexa i nju wkrótce damy dostęp do wybranych danych o usługach klientach i sieci, a Maxowi więcej umiejętności odpowiedzi na ogólne pytania. Potem będziemy stopniowo zastępować istniejące regułowe self-serwice’y. Wszystko to będziemy realizować narzędziami GenAI.
Można je swobodnie miksować z narzędziami regułowymi?
Tak. Pytania dotyczące kart eSIM realizujemy dzisiaj (na chacie) narzędziem LLM, nawet jeżeli odpowiedzi udziela Max. Przełączanie jest płynne, chociaż uważny klient wychwyci drobne różnice w stylu udzielanych odpowiedzi. Upraszczając: odpowiedzi klientowi nadal udziela bot regułowy, ale podpowiada mu narzędzie LLM.
Dziękujemy za rozmowę.
rozmawiali Łukasz Dec i Wojciech Piechocki
[materiał powstał we współpracy z Orange Polska]