Facebook po raz czwarty opublikował raport dotyczący egzekwowania standardów społeczności, w którym szczegółowo przedstawia efekty działań w drugim i trzecim kwartale 2019 r. W obecnym raporcie Facebook po raz pierwszy informuje też o skuteczności egzekwowania zasad na Instagramie.
Coraz więcej usuniętych treści
W drugim kwartale br. na Facebooku podjęto działania w stosunku do około 2 mln treści dotyczących samobójstw i samookaleczeń, z czego 96,1 proc. wykryto samodzielnie. W trzecim kwartale usunięto 2,5 mln treści. Z kolei na Instagramie usunięto 835 tys. treści w drugim kwartale, a w trzecim było to 845 tys. materiałów.
Facebook twierdzi, że w zakresie nagości i wykorzystywania seksualnego dzieci w trzecim kwartale usunął 11,6 mln treści, podczas gdy w pierwszym kwartale 2019 było ich około 5,8 mln. Na Instagramie w drugim kwartale usunięto 512 tys. materiałów, zaś w trzecim kwartale 754 tys. treści, z czego 94,6 proc. wykryto w wyniku działań proaktywnych.

W trzecim kwartale 2019 r. z Facebooka usunięto 4,4 mln treści dotyczących sprzedaży narkotyków. Oznacza to wzrost w porównaniu z pierwszym kwartałem 2019 r., kiedy zablokowano 841 tys. treści tego rodzaju.
W trzecim kwartale Facebook usunął 2,3 mln treści dotyczących sprzedaży broni, z czego 93,8 proc. zostało wykrytych w wyniku działań algorytmów. To więcej niż w pierwszym kwartale 2019 r., kiedy usunięto 609 tys. tego typu treści.
Na Instagramie w trzecim kwartale 2019 r. usunięto 1,5 mln treści związanych ze sprzedażą narkotyków oraz 58,6 tys. wpisów dotyczących sprzedaży broni, z czego 91,3 proc. w wyniku własnej analizy.
Walka z mową nienawiści
Facebook zaznacza, że w ciągu ostatnich dwóch lat zainwestował w rozwiązania do wykrywania mowy nienawiści. Dzięki nim jest w stanie dotrzeć do tych treści zanim użytkownicy je zgłoszą, a czasem nawet zanim ktokolwiek je zobaczy.

Techniki wykrywania FB obejmują analizę tekstu i obrazów, dzięki czemu można zidentyfikować obrazy i identyczne ciągi tekstu, które zostały już wcześniej usunięte jako mowa nienawiści. Serwis twierdzi, że stosuje też klasyfikatory uczące się maszynowo, które analizują wyrażenia, a także reakcje i komentarze pod postem, dopasowując je do zazwyczaj spotykanych zwrotów, wzorców i rodzajów ataków, które zaobserwowano już wcześniej w treściach naruszających zasady dotyczące mowy nienawiści.
Facebook informuje, że początkowo używał tych systemów do proaktywnego wykrywania przypadków posługiwania się mową nienawiści i informował o nich zespoły analizujące treści, ponieważ ludzie potrafią lepiej ocenić kontekst, z czym sztuczna inteligencja sobie nie radzi.
Począwszy od drugiego kwartału 2019 r. zaczęto automatycznie usuwać niektóre posty, choć tylko w wybranych przypadkach – gdy treść jest identyczna lub prawie identyczna z wpisami lub obrazami naruszającymi zasady wcześniej usuniętymi przez zespół weryfikatorów lub w przypadku, gdy treść jest bardzo zbliżona do często spotykanych ataków.

Serwis zastrzega, że robi to wyłącznie w wybranych przypadkach i jest to możliwe tylko dzięki przeszkoleniu systemów na setkach tysięcy, a nawet milionach różnych przykładów treści naruszających zasady i popularnych ataków.
We wszystkich pozostałych przypadkach, gdy systemy wykryją potencjalny przypadek posługiwania się mową nienawiści, treść jest przekazywana do zespołów weryfikatorów w celu podjęcia decyzji. Według Facebooka dzięki zmianom wprowadzonym w systemach detekcji skuteczność samodzielnego wykrywania niedozwolonych treści wzrosła do 80 z 68 proc. z poprzedniego raportu.
W III kwartale 2019 roku Facebook zanotował przychód na poziomie ponad 17,6 miliardów dolarów, a zysk netto sięgnął ponad 6 miliardów dolarów. Liczba użytkowników odwiedzających co miesiąc społecznościowy portal to obecnie blisko 2,5 miliarda.











