SzukajSzukaj
dołącz do nas Facebook Google Linkedin Twitter

Czy Facebook jest w stanie z sukcesem wykrywać przemoc i mowę nienawiści? Nowe doniesienia zaprzeczają, serwis się tłumaczy

Z  nowego raportu The Wall Street Journal wynika, że sztuczna inteligencja Facebooka nie jest skuteczna w usuwaniu kontrowersyjnych treści. Firma Marka Zuckerberga zaprzecza tym ustaleniom.

Wiceprezes ds. integralności na Facebooku, Guy Rosen, napisał w niedzielę na blogu, że rozpowszechnienie mowy nienawiści na platformie spadło o 50 proc. w ciągu ostatnich trzech lat i że „narracja, że technologia, której używamy do zwalczania mowy nienawiści, jest nieodpowiednia i że celowo fałszywie przedstawiamy nasz postęp” była fałszywa.

„Nie chcemy widzieć nienawiści na naszej platformie, podobnie jak nasi użytkownicy i reklamodawcy, i jesteśmy transparentni w naszych wysiłkach, aby ją usunąć” - napisał Guy Rosen. „Dokumenty te pokazują, że nasza praca na rzecz integralności to wieloletnia podróż. Chociaż nigdy nie będziemy doskonali, nasze zespoły nieustannie pracują nad rozwojem naszych systemów, identyfikowaniem problemów i tworzeniem rozwiązań”.

Wpis ten był odpowiedzią na niedzielny artykuł w  amerykańskim dzienniku The Wall Street Journal, w którym stwierdzono, że pracownicy Facebooka, których zadaniem jest usuwanie obraźliwych treści z platformy, nie wierzą, że firma jest w stanie je rzetelnie sprawdzić.

Z wewnętrznych dokumentów firmy wynika, że dwa lata temu Facebook skrócił czas, w którym recenzenci skupili się na skargach dotyczących mowy nienawiści i wprowadził inne poprawki, które zmniejszyły liczbę skarg. To z kolei pomogło stworzyć wrażenie, że sztuczna inteligencja Facebooka odniosła większy sukces w egzekwowaniu zasad firmy niż w rzeczywistości – uważa gazeta.

Zespół pracowników Facebooka odkrył, że zautomatyzowane systemy firmy usuwały posty, które generowały od 3 do 5 proc. wyświetleń mowy nienawiści na platformie społecznościowej i mniej niż 1 proc. wszystkich treści, które naruszały jej przepisy przeciwko przemocy i podżeganiu do niej.

Guy Rosen stwierdził jednak, że skupianie się wyłącznie na usuwaniu treści jest niewłaściwe i technologia eliminowania mowy nienawiści to tylko jedna z metod, których Facebook używa do jej zwalczania. „Musimy być pewni, że coś jest mową nienawiści, zanim to usuniemy” – powiedział.

Zaznaczył, że zdaniem firmy ważniejsze jest skupienie się na powszechności mowy nienawiści, którą ludzie faktycznie widzą na platformie i na tym, jak ją zmniejszyć za pomocą różnych narzędzi. Stwierdził, że na każde 10 000 wyświetleń treści na Facebooku przypadało pięć odsłon mowy nienawiści.

Jednak wewnętrzne dokumenty uzyskane przez amerykańską gazetę pokazały, że niektóre treści były w stanie uniknąć wykrycia przez system Facebooka, na przykład filmy przedstawiające wypadki samochodowe i ich ofiary z drastycznymi obrażeniami, oraz brutalne groźby wobec transpłciowych dzieci.

To kolejny z serii raportów na temat Facebooka na podstawie wewnętrznych dokumentów dostarczonych przez Frances Haugen.

Problemy Facebooka

W zeszłym tygodniu doszło do największej w historii awarii platform Facebooka. Były niedostępne na całym świecie przez ok. sześć godzin. Menedżerowie z branży internetowej ocenili dla portalu Wirtualnemedia.pl, że to przestroga dla firm i celebrytów, że nie warto komunikacji opierać tylko na tych platformach.

W drugim kwartale br. Facebook osiągnął wzrost przychodów o 56 proc. do 29,08 mld dolarów i zysku netto z 5,18 do 10,39 mld dolarów. Koncern zaznaczył, że w drugim półroczu tempo wzrostu jego wyników może znacząco spaść.

Z należących do koncernu platform Facebook, Instagram i WhatsApp w zeszłym kwartale przynajmniej raz w miesiącu skorzystało 3,51 mld użytkowników, wobec 3,14 mld rok wcześniej. Liczba internautów korzystających z samego Facebooka zwiększyła się z 2,7 do 2,89 mld. Koncern nie podaje dokładnych danych o liczbie użytkowników Instagrama i WhatsAppa.

Dołącz do dyskusji: Czy Facebook jest w stanie z sukcesem wykrywać przemoc i mowę nienawiści? Nowe doniesienia zaprzeczają, serwis się tłumaczy

1 komentarze
Publikowane komentarze są prywatnymi opiniami użytkowników portalu. Wirtualnemedia.pl nie ponosi odpowiedzialności za treść opinii. Jeżeli którykolwiek z postów na forum łamie dobre obyczaje, zawiadom nas o tym redakcja@wirtualnemedia.pl
User
Jola
Facebook to syf jaki pan swira taki fb nie pomagając spol nie chroni użytkowników przed heytem może powinni go zlikwidować ja od 10lat nie mam fb dziś czytając o fb i jak jest złem on dla społeczeństwa może właściciel jego jest chory na głowę pewnie tak ja wszystkim z fb uciekać radzę bo kiedyś do tego dojdzie iż będą mas bić patologie w mediach społecznościowych ... inni izytkowmicy i nie odseparuje nas od przestępcy patologie fb to zło jak jego właściciel może jest chory na głowę myślę iż fb powinien być zamknięty z brzydkie rudy świr prezesem fb to zło nie platforma społeczna powinien się nami opiekować powinni fb z właścicielem zamknąć go. .. Cieszy iż fb nie mam to zło
0 0
odpowiedź