TECHNOLOGIA · CYBERBEZPIECZEŃSTWO · BIZNES

Ciemna strona Facebooka

Jest w sieci mroczne miejsce. Wylewa się stamtąd hejt, okrucieństwo, brak szacunku, fake newsy i kult siły. Mowa o sekcji internetowych komentarzy, w szczególności na Facebooku, który stał się jądrem ciemności. W samym środku chaosu znajdują się moderatorzy. Zwykli ludzie, którzy zarabiają na życie, zajmując się kasowaniem obraźliwych komentarzy i przeglądaniem kontentu łamiącego wszelkie standardy. Zmagają się również ze stresem i postępującą depresją.

„Pracy nie można wykonywać kosztem zdrowia psychicznego” – to zdanie pojawiło się w liście otwartym skierowanym do Marka Zuckerberga, prezesa Facebooka. Pracownicy korporacji podkreślili, że do ich obowiązków należy weryfikacja najgorszych materiałów w sieci, a urazy mentalne, będące tego następstwem, są czasami nieodwracalne.

Moderatorem być

Facebook korzysta z outsourcingu zasobów ludzkich. Moderatorzy zatrudniani są przez Accenture, a biuro znajduje się w Warszawie. Pracują 24/h, podzieleni na trzy zmiany. Obowiązują ich tajemnice zawodowe, nie mogą dzielić się informacjami nawet ze współpracownikami. Serwis The Verge ujawnił, że z usług moderatorów Accenture korzysta też Google i YouTube.

Zachodnie korporacje zlecają wykonanie trudniejszych i bardziej drastycznych prac do krajów, które są biedniejsze i nie mają rozbudowanych regulacji dotyczących ryzyka psychospołecznego w miejscu pracy. Długotrwałe przebywanie w nieprzyjaznym środowisku, które ma wpływ na ludzką psychikę może być przyczyną zespołu stresu pourazowego (post-traumatic stress disorder; PTSD). Accenture w odpowiedzi na pytanie przesłane przez Wyborcza.pl, zaznaczyło, że realizuje programy wspierające dobre samopoczucie pracowników.

Warto nadmienić, że podobne zasady dbania o psychikę pracowników stosują wyspecjalizowane agencje i instytuty naukowe – takie jak np. agencja Storyful – które wdrożyły systemy rotacyjne i grupowe sesje terapeutyczne. Sprawa jest poważna, a pracownicy Facebooka nie powinni być pozbawieni opieki. Wypowiedzenia pojawiają się jednak często.

Są też osoby, które odnajdują się w tej roli. Traktują zadanie poważnie i uważają się za strażników cyberprzestrzeni. Praca moderatorów bywa również niedoceniana. Sam denerwowałem się, gdy pomimo zgłoszenia, post łamiący w oczywisty sposób netykietę, był weryfikowany jako „zgodny ze standardami platformy”. Rozumiem natomiast, że kasowane są jeszcze gorsze rzeczy.

Pod koniec 2020 roku 200 moderatorów Facebooka zarzuciło firmie m.in. obowiązek pracy z biura w czasie pandemii, chociaż ich koledzy otrzymali zgodę na home office. Moderatorzy treści Facebooka w Europie i USA wezwali także do położenia kresu nadmiernie restrykcyjnym wymogom o zachowaniu poufności, które zniechęcają ludzi do mówienia o warunkach zatrudnienia.

Facebookverse

Inżynierowie Facebooka poszukują rozwiązania. Opracowali innowacyjną metodę, która ma pomóc identyfikować i zapobiegać szkodliwym aktywnościom, takim jak rozsyłanie spamu przez użytkowników, oszukiwanie innych lub kupowanie i sprzedawanie broni i narkotyków. Za pomocą algorytmów stworzyli sztuczne środowisko, w którym boty odgrywały rolę użytkowników łamiących przyjęte zasady.

Jakie metody znalazły zastosowanie w świecie „alternatywnego” Facebooka? Inżynierowie zaprogramowali różne sposoby na zatrzymanie „złych” botów, takie jak ograniczenie liczby prywatnych wiadomości i postów, które boty mogą wysyłać w określonym czasie. Następnie przeanalizowano efekty i zmiany w zachowaniu.

Boty można szkolić na różne sposoby. Czasami otrzymują wyraźne instrukcje, jak mają postępować; czasami są proszone o naśladowanie rzeczywistego zachowania; a czasami po prostu wyznacza się pewne cele i pozostawia dowolność działania. W drugim scenariuszu – to metoda znana jako nienadzorowane uczenie maszynowe – mogą wystąpić nieoczekiwane wyniki, ponieważ boty znajdują sposoby na osiągnięcie celu, których twórcy nie przewidzieli.

„Chcieliśmy być zaskakiwani, ponieważ celem badania było zdobycie wiedzy jak wyprzedzać złe zachowanie, zamiast naprawiać krzywdy” – powiedział Mark Harman, przedstawiciel działu AI Facebooka.

Czy oznacza to, że wkrótce będziemy świadkami rewolucji w świecie moderowania internetu i social mediów? Po cichu na to liczę, gdyż platformy mediów społecznościowych stały się miejscem nieznośnym.

Źródła:

  • wyborcza.pl
  • theverge.com
  • E. Higgins ~ „Bellingcat. Ujawniamy prawdę w czasach postprawdy”. Wyd. Sonia Draga, Katowice 2021
Michał Koch
Michał Koch
Dziennikarz i researcher. Tworzy teksty o najnowszych technologiach, 5G, cyberbezpieczeństwie i polskiej branży telekomunikacyjnej.

PRZECZYTAJ NAJNOWSZY NUMER isprofessional

Najnowsze

Narzędzia do obróbki kabli firmy Jonard w xbest.pl!

xbest.pl został dystrybutorem dużego, amerykańskiego producenta - firmy Jonard, który znany jest z wytwarzania...

Nie czekaj, dołącz do Lokalnych!

Wsparcie i łączenie sił przyświecają małym i średnim operatorom telekomunikacyjnym od dawna. Wspólne działania...

Gmail i nowy sposób odpowiadania na e-maile

Gmail wprowadza zmianę. Będzie to nowy sposób odpowiadania na e-maile. Dla fanów czatów, który...

Programy CAD – projektuj bez ograniczeń z ZWCAD

ZWCAD 2024 to intuicyjne i kompleksowe oprogramowanie CAD, które umożliwia użytkownikom tworzenie precyzyjnych rysunków...