Jak powstaje deepfake? Jak rozpoznać sfabrykowane materiały?

Deepfake to wykorzystująca sztuczną inteligencję technika obróbki obrazu, która umożliwia tworzenie sfabrykowanych materiałów wideo. Powstałe w ten sposób filmy mają potencjał do skutecznego manipulowania opinią publiczną, kompromitując przedstawiane na nich osoby. Wyniki badań firmy iProov pokazały, że 71 proc. użytkowników nie wie o istnieniu tej technologii. Eksperci Fortinet wyjaśniają proces powstawania materiałów deepfake, wskazują niebezpieczeństwa z nimi związane oraz podpowiadają, jak je rozpoznać.

Jedną z najpopularniejszych metod tworzenia materiałów deepfake jest zastosowanie generatywnej sieci przeciwstawnej (GAN), która uczy się rozpoznawać wzorce za pomocą algorytmów. Te mogą być z kolei wykorzystywane również do tworzenia fałszywych obrazów.

Inna metoda bazuje na wykorzystaniu algorytmów AI, zwanych koderami. Grają one kluczową rolę w procesie modyfikacji i zastępowania twarzy. Materiały typu deepfake wykorzystują także autokodery, które przekraczają kompetencje swoich klasycznych odpowiedników. Dzięki nim cyberprzestępcy są w stanie tworzyć zupełnie nowe obrazy. Dostępne w internecie generatory deepfake wykorzystują po dwa autokodery. Proces przenoszenia obrazów z jednego na drugi odbywa się właśnie za ich pośrednictwem.

Produkcje deepfake bywają trudne w identyfikacji. Na wątpliwości co do autentyczności filmu mogą wskazywać: nienaturalne ruchy oczu, brak mrugnięć, niedopasowana mimika i punktowe rozmycia twarzy, nienaturalny kształt ciała, zmienna tekstura włosów, nienaturalne ułożenie głowy i ciała oraz liczne przebarwienia

Wśród najbardziej szkodliwych konsekwencji stosowania deepfake’ów eksperci Fortinet wymieniają:

  • destabilizację funkcjonowania firm i instytucji;
  • inżynierię społeczną;
  • ataki dezinformacyjne;
  • sfabrykowaną pornografię;
  • manipulacje wyborcze;
  • kradzież tożsamości i oszustwa finansowe.