SzukajSzukaj
dołącz do nas Facebook Google Linkedin Twitter

Facebook usuwa z serwisu coraz więcej zabronionych treści. Ponad 90 procent wykrywa algorytm

Facebook poinformował, że w ramach egzekwowania standardów społeczności usuwa ze swojego ekosystemu coraz więcej zabronionych treści. W III kwartale 2019 roku wykryto i usunięto między innymi 11,6 mln materiałów związanych z nagością i wykorzystywaniem seksualnym dzieci oraz 4,4 mln treści dotyczących sprzedaży narkotyków. Facebook zaznacza, że obecnie za 90 procent wykrywania zabronionych wpisów odpowiadają algorytmy działające na platformie, po raz pierwszy też podano niektóre statystyki dotyczące Instagrama.

Article

Facebook po raz czwarty opublikował raport dotyczący egzekwowania standardów społeczności, w którym szczegółowo przedstawia efekty działań w drugim i trzecim kwartale 2019 r. W obecnym raporcie Facebook po raz pierwszy informuje też o skuteczności egzekwowania zasad na Instagramie.

Coraz więcej usuniętych treści

W drugim kwartale br. na Facebooku podjęto działania w stosunku do około 2 mln treści dotyczących samobójstw i samookaleczeń, z czego 96,1 proc. wykryto samodzielnie. W trzecim kwartale usunięto 2,5 mln treści. Z kolei na Instagramie usunięto 835 tys. treści w drugim kwartale, a w trzecim było to 845 tys. materiałów.

Facebook twierdzi, że w zakresie nagości i wykorzystywania seksualnego dzieci w trzecim kwartale usunął 11,6 mln treści, podczas gdy w pierwszym kwartale 2019 było ich około 5,8 mln. Na Instagramie w drugim kwartale usunięto 512 tys. materiałów,  zaś w trzecim kwartale 754 tys. treści, z czego 94,6 proc. wykryto w wyniku działań proaktywnych.

W trzecim kwartale 2019 r. z Facebooka usunięto 4,4 mln treści dotyczących sprzedaży narkotyków. Oznacza to wzrost w porównaniu z pierwszym kwartałem 2019 r., kiedy zablokowano 841 tys. treści tego rodzaju.

W trzecim kwartale Facebook usunął 2,3 mln treści dotyczących sprzedaży broni, z czego 93,8 proc. zostało wykrytych w wyniku działań algorytmów. To więcej niż w pierwszym kwartale 2019 r., kiedy usunięto 609 tys. tego typu treści.

Na Instagramie w trzecim kwartale 2019 r. usunięto 1,5 mln treści związanych ze sprzedażą narkotyków oraz 58,6 tys. wpisów dotyczących sprzedaży broni, z czego 91,3 proc. w wyniku własnej analizy.

Walka z mową nienawiści

Facebook zaznacza, że w ciągu ostatnich dwóch lat zainwestował w rozwiązania do wykrywania mowy nienawiści. Dzięki nim jest w stanie dotrzeć do tych treści zanim użytkownicy je zgłoszą, a czasem nawet zanim ktokolwiek je zobaczy.

Techniki wykrywania FB obejmują analizę tekstu i obrazów, dzięki czemu można zidentyfikować obrazy i identyczne ciągi tekstu, które zostały już wcześniej usunięte jako mowa nienawiści. Serwis twierdzi, że stosuje też klasyfikatory uczące się maszynowo, które analizują wyrażenia, a także reakcje i komentarze pod postem, dopasowując je do zazwyczaj spotykanych zwrotów, wzorców i rodzajów ataków, które zaobserwowano już wcześniej w treściach naruszających zasady dotyczące mowy nienawiści.

Facebook informuje, że początkowo używał tych systemów do proaktywnego wykrywania przypadków posługiwania się mową nienawiści i informował o nich zespoły analizujące treści, ponieważ ludzie potrafią lepiej ocenić kontekst, z czym sztuczna inteligencja sobie nie radzi.

Począwszy od drugiego kwartału 2019 r. zaczęto automatycznie usuwać niektóre posty, choć tylko w wybranych przypadkach – gdy treść jest identyczna lub prawie identyczna z wpisami lub obrazami naruszającymi zasady wcześniej usuniętymi przez zespół weryfikatorów lub w przypadku, gdy treść jest bardzo zbliżona do często spotykanych ataków.

Serwis zastrzega, że robi to wyłącznie w wybranych przypadkach i jest to możliwe tylko dzięki przeszkoleniu systemów na setkach tysięcy, a nawet milionach różnych przykładów treści naruszających zasady i popularnych ataków.

We wszystkich pozostałych przypadkach, gdy systemy wykryją potencjalny przypadek posługiwania się mową nienawiści, treść jest przekazywana do zespołów weryfikatorów w celu podjęcia decyzji. Według Facebooka dzięki zmianom wprowadzonym w systemach detekcji skuteczność samodzielnego wykrywania niedozwolonych treści wzrosła do 80 z 68 proc. z poprzedniego raportu.

W III kwartale 2019 roku Facebook zanotował przychód na poziomie ponad 17,6 miliardów dolarów, a zysk netto sięgnął ponad 6 miliardów dolarów. Liczba użytkowników odwiedzających co miesiąc społecznościowy portal to obecnie blisko 2,5 miliarda.

Newsletter WirtualneMedia.pl w Twojej skrzynce mailowej

Dołącz do dyskusji: Facebook usuwa z serwisu coraz więcej zabronionych treści. Ponad 90 procent wykrywa algorytm

3 komentarze
Publikowane komentarze są prywatnymi opiniami użytkowników portalu. Wirtualnemedia.pl nie ponosi odpowiedzialności za treść opinii. Jeżeli którykolwiek z postów na forum łamie dobre obyczaje, zawiadom nas o tym redakcja@wirtualnemedia.pl
User
grzegorz
Kiedy fb weźmie się za fakowe konta zakładane tylko po to by na profilach znanych osób i polityków oraz pod artykułami umieszczać obraźliwe wpisy.
4 2
odpowiedź
User
Odzio
Te algorytmy to jacyś purytanie pisali. Zbanowali mnie już 3 razy za to, że w ramach tzw. urodzinowych życzeń słałem kartkę z biuściastą kobitką podającą solenizantowi tort. I to nie jedynie na koncie, z którego były słane życzenia. Zbanowali mnie na kilku innych, którymi zarządzam. Kretynizm.
7 0
odpowiedź
User
Q pa
Najpierw mnie zasypali reklamami, a potem gdy chciałem napisać komentarz to mnie zbanowali za symbol jabłka (to po kiego wała jest tam taki symbol do użycia). Wchodzimy w erę inwigilacji podszytej internetową dyktaturą.
4 0
odpowiedź