Manipulowane przez sztuczną inteligencję nagrania, zdjęcia i dźwięki (ang. deepfakes) stają się coraz powszechniejszym narzędziem cyberprzestępców. Z najnowszego raportu „Dezinformacja oczami Polaków 2024” wynika, że aż 40 proc. Polaków miało styczność z tego typu materiałami.
Technologia deepfake jest wykorzystywana do manipulacji opinią publiczną, wyłudzeń, szantażu czy niszczenia reputacji. Coraz łatwiejszy dostęp do narzędzi AI sprawia, że tworzenie deepfake’ów nie wymaga już specjalistycznego sprzętu – wystarczy subskrypcja za kilka dolarów miesięcznie.
– Technologia AI rozwija się błyskawicznie, a wraz z nią jakość deepfake. Dziś nie potrzeba już superkomputera, by stworzyć realistyczne nagranie z fałszywym przekazem – mówi agencji Newseria Tomasz Turba, specjalista ds. bezpieczeństwa z Sekurak.pl.
Jak pokazuje raport Fundacji Digital Poland, 77 proc. Polaków obawia się wzrostu skali tego zjawiska w najbliższej dekadzie. Najczęściej ofiarami stają się osoby publiczne i celebryci – ich wizerunek wykorzystywany jest m.in. do promowania nieistniejących produktów czy usług finansowych.
– Problem polega na tym, że zanim platformy społecznościowe zareagują, deepfake osiąga już zasięgi viralowe. Dlatego kluczowa jest edukacja i czujność użytkowników – podkreśla ekspert.
Mimo zagrożeń, technologia może być również narzędziem obrony. Coraz więcej rozwiązań AI umożliwia wykrywanie zmanipulowanych treści, zanim trafią one do szerokiego grona odbiorców. Według raportu aż 86 proc. Polaków uważa, że treści generowane przez AI powinny być jednoznacznie oznaczane.
– Oprogramowanie wykrywające deepfake mogłoby działać w tle każdej platformy społecznościowej. Problemem są jednak koszty i brak wspólnego podejścia branży – mówi Turba. Ekspert zaznacza, że walka z dezinformacją wymaga równowagi – nie przez cenzurę, ale poprzez odpowiedzialność użytkowników i transparentność działań platform.