Max przesiada się na GenAI

Wojciech Mac w rozmowie z Łukaszem Decem i Wojciechem Piechockim (z prawej).
(GSMONLINE.PL/TELKO.in)

Mówiliśmy wcześniej z czym Max sobie radzi lepiej, a z czym gorzej. Dzisiaj reklamacje obsługują konsultanci, ale sprawny bot LLM, wyposażony w kontekstową wiedzę o konkretnym kliencie, również może z tym zadaniem sobie poradzić.

Skoro przyszłością są narzędzia generatywne, a Max jest oparty na regułach, to jego los jest przesądzony.

Nazwa asystenta pewnie pozostanie, ale algorytmy generatywne będą stopniowo wypierały algorytmy regułowe. To będzie płynne przejście. Kiedy 7 lat temu wdrażaliśmy Maxa, też nie zastąpił od razu mechanizmów IVR, które nadal obsługiwały część ‒ zwłaszcza bardziej złożonych ‒ zadań. Z czasem mogliśmy jednak ostatecznie zrezygnować z IVR.

Macie już orientację, który z powszechnych modeli językowych najlepiej nadaje się do zastosowań w obsłudze klientów telekomu?

Nie ma jednego, optymalnego modelu.

Ale „flexbot” jest oparty na Gemini.

To nie jest jedyne narzędzie LLM, z którego korzystamy. W innym rozwiązaniu, które pomaga klientom wybrać smartfon, stosujemy GPT. Są różni dostawcy, a każdy dostarcza więcej niż jeden model o różnym stopniu złożoności. Korzystamy ze wszystkich.

Największe modele rozumują najlepiej, ale korzystanie z nich najwięcej kosztuje, a czas odpowiedzi jest relatywnie długi. Jeżeli nie ma powodu, by postąpić inaczej, można skorzystać z mniej zaawansowanego modelu, który odpowie szybciej za niższą cenę tokena [jednostka analizy danych przez sztuczną inteligencję - red].

W Grupie Orange jest jeszcze model Dinootoo.

Dinootoo, to nie model tylko tzw. nakładka, która pozwala korzystać pracownikom w intranecie grupy Orange z różnych, uniwersalnych LLM jak Gemini, czy GPT. Nie jest wykorzystywany w obsłudze klientów.

Czy można się spodziewać powstania modeli LLM wyspecjalizowanych na przykład w obsłudze klienta masowego? Dajmy na to: telekomu.

To wróżenie z fusów. Osobiście tego nie widzę. Pamiętajmy, że największe modele były trenowane długimi tygodniami na zasobach o tysiącach procesorów i miliardach dokumentów. Powtarzanie takich inwestycji mija się z celem. Co innego dostrajanie modeli zwane żargonowo „fine tuning”. Takie modele mogą być lepiej dopasowane do specyfiki branży, ale wymagają wielkiej ilości danych wsadowych. Nie są też pozbawione wad.

Dzisiaj korzystamy z dużych modeli w chmurze, co ma wiele zalet, np. skalowalność. AI rozwija się szybko i kto wie, czy nie pojawią się sprawne i wydajne modele o mniejszych wymaganiach technicznych, które będzie można umieszczać na własnych serwerach. Wtedy naszą rozmowę o sposobach korzystania ze sztucznej inteligencji w procesach firmy telekomunikacyjnej będziemy musieli przeprowadzić na nowo.

Jakie są w Orange kierunki rozwoju narzędzi AI przeznaczonych do obsługi klienta?

Dzisiaj rozwiązania LLM wykorzystujemy głównie w dialogach opartych na wiedzy ogólnej i związanych pytaniami abstrakcyjnymi, natomiast boty regułowe: z masowo powtarzalnymi zdarzeniami, dotyczącymi konkretnych klientów. Chcemy ulepszać wykorzystywane obecnie narzędzia: automatowi do obsługi klientów Flexa i nju wkrótce damy dostęp do wybranych danych o usługach klientach i sieci, a Maxowi więcej umiejętności odpowiedzi na ogólne pytania. Potem będziemy stopniowo zastępować istniejące regułowe self-serwice’y. Wszystko to będziemy realizować narzędziami GenAI.

Można je swobodnie miksować z narzędziami regułowymi?

Tak. Pytania dotyczące kart eSIM realizujemy dzisiaj (na chacie) narzędziem LLM, nawet jeżeli odpowiedzi udziela Max. Przełączanie jest płynne, chociaż uważny klient wychwyci drobne różnice w stylu udzielanych odpowiedzi. Upraszczając: odpowiedzi klientowi nadal udziela bot regułowy, ale podpowiada mu narzędzie LLM.

Dziękujemy za rozmowę.

rozmawiali Łukasz Dec i Wojciech Piechocki

[materiał powstał we współpracy z Orange Polska]