Cyberprzestępcy wykorzystują duże modele językowe (LLM) do automatyzacji ataków

W swoim najnowszym raporcie eksperci Cisco Talos zwracają uwagę na szybki wzrost zainteresowania cyberprzestępców wykorzystaniem sztucznej inteligencji – a dokładniej dużych modeli językowych – do prowadzenia zautomatyzowanych, zaawansowanych ataków. Przestępcy korzystają zarówno z ogólnodostępnych usług AI, jak i zmodyfikowanych wersji modeli, w tym tzw. modeli „odblokowanych” (ang. jailbroken), które pozbawione są ograniczeń zabezpieczających.

Tego typu narzędzia umożliwiają tworzenie realistycznych wiadomości phishingowych oraz generowanie złośliwego oprogramowania – od ransomware, przez trojany zdalnego dostępu (RAT), po zaawansowane skrypty wykorzystywane w atakach. Przykładami używanych przez przestępców modeli są m.in. GhostGPT, WormGPT czy FraudGPT – ten ostatni wykorzystywany jest w szeroko zakrojonej kampanii oszustw.

Cisco Talos wskazuje również na istnienie własnych, stworzonych przez przestępców modeli LLM, które aktywnie promowane są w darknecie. Modele te umożliwiają m.in. skanowanie podatności w systemach, tworzenie fałszywych stron internetowych oraz analizę skradzionych danych.

Choć większość komercyjnych modeli AI posiada mechanizmy zabezpieczające przed nadużyciami, cyberprzestępcy starają się je obchodzić, stosując techniki takie jak tzw. prompt injection – specjalnie przygotowane zapytania, które mają na celu „oszukać” model i skłonić go do wygenerowania zakazanych treści.

Ta nowa technologia niekoniecznie daje przestępcom zupełnie nowe narzędzia, ale działa jak multiplikator, wzmacniając skuteczność znanych już technik – komentuje cytowany w komunikacie Jaeson Schultz z Cisco Talos.

Eksperci przewidują, że rola AI w cyberatakach będzie stale rosła – podobnie jak potrzeba nowych metod obrony przed tego typu zagrożeniami.