AI zaczyna być wykorzystywana do atakowania… innych systemów AI

Sztuczna inteligencja, dotychczas wykorzystywana głównie jako tarcza przed zagrożeniami w sieci, zaczyna być wykorzystywana przez cyberprzestępców jako cel i narzędzie ataku. Eksperci ostrzegają: trwa testowanie złośliwego oprogramowania, które potrafi oszukiwać algorytmy ochronne.

Globalny rynek AI w cyberbezpieczeństwie ma osiągnąć wartość 93,75 mld dolarów do 2030 r., rosnąc średnio o 24,4 proc. rocznie. Jednocześnie rośnie zagrożenie, że systemy te same staną się celem zaawansowanych ataków.

Eksperci z Check Point odkryli pierwszy w swoim rodzaju przypadek złośliwego oprogramowania, które nie atakuje infrastruktury czy użytkownika końcowego – jego celem jest bezpośrednie oszukanie systemów AI wykorzystywanych do analizy zagrożeń. Prototyp – nazwany „Skynet” – wykorzystywał technikę prompt injection, by wpłynąć na działanie dużych modeli językowych (LLM) i zmusić je do błędnej klasyfikacji niebezpiecznego kodu jako bezpiecznego.

Widzimy, że AI przestaje być tylko narzędziem ochronnym, a staje się również wektorem ataku. Próby oszukania modeli językowych przez złośliwy kod to dopiero początek. W niedalekiej przyszłości możemy spodziewać się znacznie bardziej wyrafinowanych form manipulacji, które będą trudniejsze do wykrycia, a już dzisiaj spodziewamy się eksploatacji agentów AI w celu przeprowadzania skutecznych ataków, które nie będą tylko Proof of Concept – komentuje cytowany w komunikacie Łukasz Nowatkowski, Cybersecurity Advocate z Xopero Software.

Eksperci apelują o projektowanie odpornych na manipulacje systemów już na poziomie architektury.

Według prognoz Cybersecurity Ventures, globalne koszty cyberprzestępczości przekroczą 10 bln dolarów jeszcze w 2025 r. – wzrost o 300 proc. względem poprzedniej dekady. Wzrost wykorzystania AI przez przestępców może tylko pogłębić ten trend.