TECHNOLOGIA · CYBERBEZPIECZEŃSTWO · BIZNES

Pozory zamiast efektów. Jak platformy mediowe zawiodły w weryfikacji faktów

Raport Europejskiego Obserwatorium Mediów Cyfrowych (EDMO) jasno odsłania niedostateczne działania największych platform internetowych w zakresie weryfikacji treści. Meta, Microsoft i TikTok dostały jedynie oceny „niskie” lub „częściowe” za wsparcie fact-checkerów w ramach Unii Europejskiej, podczas gdy tylko Google zasłużył na „wysoką” ocenę. Uprawnienia, wsparcie finansowe i dostęp do danych, deklarowane przez liderów rynku zgodnie z Kodeksem postępowania UE, pozostają słabo zweryfikowane i pozbawione realnych rezultatów.

Choć od 2018 r. wszystkie cztery firmy były sygnatariuszami dobrowolnego Kodeksu przeciw dezinformacji, to od lipca 2025 r. jego postanowienia staną się częścią prawnie wiążącego aktu DSA. Niemniej raport EDMO dowodzi, że oznaczanie treści jako „sprawdzone” nie idzie w parze z przekonującymi dowodami skuteczności tych działań. Innymi słowy: deklaracje przeradzają się w bezdźwięczne pustosłowie, a bez skutecznego egzekwowania – Kodeks może pozostać iluzoryczny.

Z kolei Meta wyróżnia się w tym kontekście – lecz nie pozytywnie. Firma ogłosiła w tym roku zakończenie swojego programu fact-checkingowego w Stanach Zjednoczonych, zapowiadając możliwość podobnych ruchów w Europie – co podważa wiarygodność jej zobowiązań. Gdy ochrona i rzetelność są wątpliwe, przestrzeń dezinformacji się rozszerza.

Równolegle w Unii Europejskiej rośnie nacisk na bezpieczeństwo młodzieży w internecie. DSA od 2024 r. nakłada na duże platformy obowiązek ochrony użytkowników niepełnoletnich – m.in. zakaz skierowanych reklam bez wyraźnej zgody, oceny ryzyka oraz uproszczenie ustawień prywatności.

W lipcu 2025 r. Komisja Europejska opublikowała komplet wytycznych, wskazujących środki mogące zapewnić wysoki poziom bezpieczeństwa online dla najmłodszych — jak ochrona przed groomingiem, cyberprzemocą, uzależniającym projektowaniem oraz stosowaniem prywatności-by-design. Zaleca się ustawianie kont nieletnich jako domyślnie prywatnych, ograniczenie funkcji uzależniających oraz wyłączenie możliwości zapisywania czy udostępniania treści z udziałem dzieci.

Jednakże te wytyczne nie są obowiązkowe – co rodzi pytanie: czy mogą być skutecznie stosowane bez należnej siły egzekucyjnej? Na dodatek, DSA dostrzega wyraźny konflikt: ochrona prywatności nieletnich wymagałaby dokładnej weryfikacji wieku, co może naruszać ich anonimowość – sprzeczność, której unijne przepisy nie rozwiązują.

W praktyce walka z dezinformacją i ochroną dzieci opiera się na niewystarczających fundamentach. DSA i Kodeks postępowania to potencjalne narzędzia – niemniej ich skuteczność zależy od realnego egzekwowania, a nie tylko deklaracji.

W przypadku fact-checkingu – obecna sytuacja to dowód, że wiele platform unika konsekwentnego działania, ograniczając się do fasady. Google w tym kontekście wypada lepiej, ale to wyjątek, a nie reguła.

Z kolei ochrona młodzieży online to pole, gdzie wprowadzono wiele dobrych pomysłów, lecz bez obowiązkowości – często pozostają one gestem symbolicznego wsparcia. Dla realnej przemiany konieczne są konkretne sankcje, działające mechanizmy weryfikacji i metodologia, która przełoży słowa na policyjne skutki.

Czytaj także:

Michał Koch
Michał Koch
Dziennikarz i researcher. Tworzy teksty o najnowszych technologiach, 5G, cyberbezpieczeństwie i polskiej branży telekomunikacyjnej.

przeczytaj najnowszy numer isporfessional

Najnowsze