Minister cyfryzacji: jesteśmy bezradni w walce z dezinformacją na platformach społecznościowych

W 2025 roku NASK zgłosił do platform społecznościowych łącznie ponad 46 tys. materiałów zawierających dezinformację. Platformy usunęły zaledwie 12 proc. zgłoszonych treści, a moderacji poddano 68 proc. treści. Platformy nie zareagowały jednak na 20 proc. zgłoszeń – podało Ministerstwo Cyfryzacji nie kryjąc irytacji z tego faktu.

– Zgłaszane jako dezinformacje treści nie znikają, bo na nich się zarabia. Nie ma innego kontekstu. Przynajmniej ja, jako minister cyfryzacji, nie wierzę, że jest inny – mówił Krzysztof Gawkowski.
Żr. NASK

– To jest zły raport dla Polski. Rysuje dramatyczny obraz zaniechań po stronie konkretnych podmiotów – komentuje te statystyki wicepremier i minister cyfryzacji Krzysztof Gawkowski.

Liczby te pochodzą z raportu opublikowanego przez Ośrodek Analizy Dezinformacji NASK, a dotyczy on  reakcji platform społecznościowych na zgłoszenia treści w 2025 roku. Opracowanie analizuje skuteczność mechanizmów moderacyjnych platform, wskazuje wyzwania we współpracy z nimi oraz przedstawia dane dotyczące m.in. dezinformacji wyborczej, zdrowotnej i operacji wpływu z wykorzystaniem technologii. Choć wiele z nich narusza regulaminy platform lub obowiązujące przepisy, ich usuwanie wciąż bywa nieskuteczne, a część zgłoszonych materiałów pozostaje dostępna w sieci.

Nasze zespoły wykonały olbrzymią pracę. To godziny, dni i miesiące analizowania treści po to, żeby polska infosfera była bezpieczna. A przecież wśród tych zgłoszeń są nie tylko manipulacje czy oszustwa, ale także podszywanie się pod osoby publiczne, nawoływanie do przemocy, pornografia czy drastyczne materiały z brutalnych przestępstw, w tym nagrania z morderstw. Takie rzeczy powinny znikać z internetu natychmiast. Tak się nie dzieje, bo platformy nie czują odpowiedzialności – a nie czują jej dlatego, że wciąż brakuje prawa, które by ją wymusiło – podkreśla  Krzysztof Gawkowski.

Spośród 46 511 zgłoszonych materiałów 12 proc. zostało usuniętych, 68 proc. poddano moderacji, a 20 proc. pozostało bez reakcji platform. Oznacza to, że 9 301 treści dezinformacyjnych nadal funkcjonuje w sieci. Dane pokazują, że platformy częściej stosowały moderację treści niż ich trwałe usuwanie. Oznacza to, że odpowiedzialność przesuwa się z eliminowania treści na ograniczanie ich zasięgu lub działania kont.

Jak wskazuje resort cyfryzacji, brak transparentności platform w usuwaniu szkodliwych i zmanipulowanych przekazów prowadzi do tego, że 20 procent nadal oddziałuje na odbiorców. A to tylko liczba materiałów z zeszłego roku. Problemem nie jest tylko pojawianie się dezinformacji. Zagrożeniem jest brak transparentności ze strony platform w zakresie działania algorytmów, które zamykają nas często na wybiórcze, szkodliwe i zmanipulowane treści.

NASK wskazuje, że  szczególnie wyraźnie uwidacznia się to  w momentach kryzysów międzynarodowych. W takich sytuacjach przestrzeń informacyjna bardzo szybko wypełnia się fałszywymi lub manipulacyjnymi treściami, które próbują wykorzystać niepewność i emocje społeczne.

Przykładem są wydarzenia z ostatnich dni związane z wybuchem wojny na Bliskim Wschodzie. Po rozpoczęciu działań zbrojnych w sieci zaczęły pojawiać się materiały wykorzystujące konflikt do rozpowszechniania dezinformacji – również w polskiej infosferze.

Ze względu na rosnące zagrożenia i działania hybrydowe Ministerstwo Cyfryzacji przeznacza środki na funkcjonowanie takich projektów, jak utrzymanie Ośrodka Analizy Dezinformacji. NASK jest partnerem instytucjonalnym resortu. 

Opracowanie NASK uwzględnia zarówno zgłoszenia wewnętrzne, pochodzące z 7-dniowego monitoringu mediów i mediów społecznościowych prowadzonego przez Ośrodek Analizy Dezinformacji, jak i zgłoszenia zewnętrzne przekazywane przez obywateli, instytucje oraz służby publiczne.

Każdy incydent został zaklasyfikowany do jednej z trzech kategorii:

  • podszywanie się pod osoby publiczne lub instytucje,
  • fałszywe informacje,
  • treści manipulacyjne (w tym deepfake oraz skoordynowane operacje wpływu).

Znacząca część zgłoszeń dotyczyła treści mogących oddziaływać na proces wyborczy. Raport obejmuje również dezinformację zdrowotną, kampanie reklamowe wyłudzające dane i środki finansowe, masowe generowanie zmanipulowanych treści z wykorzystaniem AI oraz operacje wykorzystujące wizerunki osób publicznych.

Jednym z najważniejszych wniosków raportu jest sposób, w jaki platformy społecznościowe reagują na zgłoszenia dotyczące szkodliwych treści. W wielu przypadkach zamiast trwałego usunięcia materiału stosowana jest tzw. moderacja – ograniczenie zasięgu wpisu, oznaczenie go jako wątpliwego lub zawieszenie konta.

Z perspektywy funkcjonowania infosfery oznacza to, że treść przez długi czas pozostaje w obiegu informacyjnym. Zanim platforma podejmie decyzję, materiał może dotrzeć do tysięcy, a czasem milionów użytkowników.

Zdaniem autorów raportu jednym z największych problemów pozostaje brak narzędzi prawnych, które pozwalałyby skuteczniej egzekwować odpowiedzialność platform za treści publikowane w ich serwisach.

Raport NASK dokumetuje też  uwarunkowania operacyjne współpracy z platformami społecznościowymi, w tym:

  • brak przejrzystych procedur zgłaszania treści,
  • niesprecyzowany czas reakcji,
  • niejednolite stosowanie regulaminów,
  • ograniczoną transparentność decyzji moderacyjnych.

Minister cyfryzacji podkreśla, że bez odpowiednich regulacji państwo w relacji z globalnymi platformami pozostaje w znacznie słabszej pozycji.

– Dopóki nie będzie prawa, państwo w relacji z platformami jest w sytuacji, w której może jedynie prosić o reakcję – podkreśla,.