REKLAMA

Tylko co trzecia firma w Polsce kontroluje użycie AI

Zaledwie co trzecia polska firma wprowadziła formalne zasady dotyczące używania sztucznej inteligencji, a w sektorze publicznym ten odsetek jest jeszcze niższy, wynika z badań AMP S.A., polskiej firmy specjalizującej się w cyberbezpieczeństwie. Zjawisko Shadow AI (korzystanie z narzędzi AI bez wiedzy i nadzoru organizacji) staje się jednym z głównych wektorów ryzyka, prowadzącym do potencjalnych strat finansowych, wycieku poufnych danych, a nawet paraliżu infrastruktury.

Według AMP, blisko 7 na 10 pracowników (69 proc.) w Polsce korzysta z narzędzi AI bez wiedzy działu IT. Co więcej, aż 72 proc. pracowników wklejało treści firmowe do publicznych modeli, takich jak ChatGPT czy Gemini, bez oceny ryzyka.

Jak komentuje Przemysław Wójcik, prezes AMP S.A., to codzienność, a nie wyjątki. Przytacza przykłady: w europejskim banku pracownik wkleił pełne dane klientów (PESEL-e, salda kont) do darmowej wersji ChatGPT, a inżynierowie w Samsunga kopiowali fragmenty kodu źródłowego do publicznych modeli AI.

Problem jest szczególnie poważny, ponieważ większość z ponad 30 tys. dostępnych na świecie narzędzi AI działa w chmurze, a darmowe wersje często przechowują i wykorzystują treści użytkowników do dalszego trenowania modeli. Oznacza to, że wrażliwe dane (konfiguracje, dane osobowe, kody źródłowe, dokumentacja medyczna) trafiają w miejsca, nad którymi organizacje nie mają żadnej kontroli, a ich wyciek jest z definicji nieodwracalny.

Sytuacja jest najbardziej alarmująca w sektorze publicznym – samorządy, szpitale i przychodnie, które przetwarzają najbardziej wrażliwe dane, w ogromnej większości nie mają żadnych procedur, narzędzi kontrolnych ani świadomości zagrożeń.

Prezes Wójcik ostrzega, że sztuczna inteligencja może stać się narzędziem ataku, ponieważ modele genAI są podatne na manipulacje. Cyberprzestępcy mogą wstrzykiwać do nich fałszywe dane, przejmować odpowiedzi poprzez prompt injection, modyfikować rekomendacje, a nawet generować przekonujące, spersonalizowane komunikaty phishingowe.

AMP S.A. podkreśla, że brak procedur, szkoleń i monitorowania ruchu do usług generatywnych stwarza poważne ryzyko. Organizacje powinny wdrożyć politykę AI, zgodną z normami takimi jak ISO 27001 i NIS2, która wymaga m.in. kontroli dostępu, monitorowania i klasyfikacji danych przed wprowadzeniem ich do AI.

Podstawowe zasady bezpiecznego korzystania z AI według AMP:

  • nie wklejanie danych wrażliwych,
  • korzystanie tylko z narzędzi zatwierdzonych przez IT,
  • anonimizuj dane przed wprowadzeniem do AI,
  • weryfikuj każdą odpowiedź AI,
  • zgłaszaj Shadow AI.