Czarna skrzynka internetu. Żadna platforma nie zareaguje pod presją pojedynczych użytkowników

Za to, co widzimy w internecie, w największym stopniu odpowiadają obecnie algorytmy. Wciąż wiedza o ich działaniu nie jest powszechna – wynika z badań dr hab. Anny Miotk z Uniwersytetu Warszawskiego.

Justyna Dąbrowska-Cydzik
Justyna Dąbrowska-Cydzik
Udostępnij artykuł:
Czarna skrzynka internetu. Żadna platforma nie zareaguje pod presją pojedynczych użytkowników
Za to, co widzimy w internecie, odpowiadają algorytmy

Dr hab. Anna Miotk z Wydziału Dziennikarstwa, Informacji i Bibliologii Uniwersytetu Warszawskiego przeprowadziła pierwsze w Polsce ilościowe badanie świadomości algorytmicznej w społeczeństwie. Jego wyniki opublikowano w książce "Świadomość algorytmiczna a ewolucja widowni".

Niecała połowa polskich internautów zdaje sobie sprawę, że treści serwowane im w mediach społecznościowych dobierane są według algorytmu. Pozostali badani uważają, że "wszyscy widzą w internecie to samo".

Co istotne, wyższy poziom świadomości algorytmicznej odnotowano wśród kobiet (52 proc.), osób do 24. roku życia (64 proc.), mieszkańców dużych miast (59 proc.) oraz osób z wyższym wykształceniem (54 proc.).

Polacy najbardziej świadomi są działania algorytmów w mediach społecznościowych (83 proc.), portalach informacyjnych (47 proc.) i serwisach streamingowych (41 proc.).

Z dr hab. Anną Miotk rozmawiamy o świadomości algorytmicznej Polaków i jej różnych wymiarach.

Czym właściwie jest "świadomość algorytmiczna"?

To pojęcie ma wiele wymiarów. Na potrzeby badania dokonałam uproszczenia. Spodziewałam się, że w próbie będą osoby z wykształceniem podstawowym i średnim, które nie znają specjalistycznych terminów.

Dlatego zadawałam pytanie: czy użytkownicy widzą w serwisach społecznościowych te same treści co inni, czy treści dopasowane do siebie. To była operacjonalizacja pojęcia świadomości algorytmicznej – uproszczona, ale zrozumiała dla wszystkich respondentów.

Po co nam – odbiorcom i twórcom mediów – świadomość działania algorytmów?

Dziennikarze, poza tworzeniem treści, mają dziś często obowiązek promowania tych treści – zarówno na profilach redakcyjnych, jak i własnych. Redakcje chętnie zatrudniają osoby, które potrafią posługiwać się mediami społecznościowymi, bo dzięki temu zwiększają zasięg publikacji.

Jeśli dziennikarz rozumie, jak działają algorytmy, może lepiej dobierać formę i sposób publikacji, aby osiągać większą widoczność w ogromnym natłoku treści. I trafiać do właściwych odbiorców. Podobnie działają influencerzy – znajomość algorytmów pozwala im "grać w tę grę" i budować widownię. A w biznesie medialnym to właśnie wielkość i zaangażowanie widowni są kluczowymi wskaźnikami sukcesu.

dr Anna Miotk

Przeciętnemu użytkownikowi świadomość algorytmiczna jest potrzebna po to, by rozumiał, dlaczego widzi w social mediach określone treści i jakie mechanizmy za tym stoją.

Treści są personalizowane na podstawie wcześniejszych zachowań użytkownika, ale duży wpływ ma też polityka konkretnej platformy. Właściciel może zdecydować o promowaniu określonych przekazów – np. sensacyjnych lub zgodnych z jego światopoglądem – bo zwiększają zaangażowanie, czas spędzony w serwisie, a w konsekwencji przychody reklamowe.

Pani badania pokazują, że kobiety wykazują większą świadomość algorytmiczną. Dlaczego?

Z innych analiz, które prowadzimy (np. w ramach badań social media), wynika, że kobiety częściej korzystają z platform społecznościowych czy komunikatorów – narzędzi służących do utrzymywania relacji.

To oczywiście zależy od danej platformy – np. X jest bardziej zmaskulinizowany – ale ogólnie kobiety są bardziej aktywne w wielu serwisach. A większa częstotliwość korzystania, zwłaszcza jeśli towarzyszy temu refleksja, wiąże się z większą świadomością algorytmiczną. Dodatkowo znaczenie ma rozmowa i wymiana doświadczeń z innymi użytkownikami.

Co daje odbiorcom świadomość algorytmiczna?

Najciekawsze było to, że osoby świadome personalizacji oceniają ją głównie pozytywnie lub neutralnie (około 82 proc.), a tylko mniejszość negatywnie. Jednocześnie dostrzegają zagrożenia: promowanie sensacji, płytkich treści czy wpływanie na opinie.

Rzadziej wskazywano na problem szkodliwych treści – choć dziś, w kontekście debaty o dzieciach w mediach społecznościowych, ten wątek jest dużo silniej obecny.

Z własnego doświadczenia mogę podać przykład: po tragedii na mojej uczelni, gdy na jednej z platform szukałam aktualnych informacji na profilu Uniwersytetu Warszawskiego, zaczęła ona wyświetlać mi drastyczne i wprowadzające w błąd treści, których wcześniej nie widziałam.

To pokazuje, że poza personalizacją działa drugi mechanizm – promowanie treści o wysokim zaangażowaniu.

Czy to ta "ciemna strona" personalizacji?

To raczej dodatkowy mechanizm. Oprócz dopasowania treści do użytkownika działa logika maksymalizacji zaangażowania – treści wywołujące emocje, komentarze i udostępnienia dostają wyższy priorytet.

Często drastyczne treści są ograniczane dopiero po nagłośnieniu problemu przez inne media. Z kolei kontakt użytkownika z platformą jest bardzo utrudniony, co dodatkowo komplikuje sytuację.

dr Anna Miotk

Czy świadomość algorytmiczna pomaga w walce z dezinformacją?

Tak – to kluczowa kompetencja. Dziś, oprócz umiejętności wyszukiwania informacji, potrzebna jest zdolność odróżniania prawdy od fałszu. Świadomy użytkownik jest mniej podatny na manipulację.

Ale edukacja użytkowników to za mało. Potrzebne są też działania systemowe – edukacja nauczycieli i regulacje ze strony państw. Platformy reagują głównie pod presją rządów, nie pojedynczych użytkowników.

Na ile algorytmy są transparentne?

Są nieprzejrzyste – często określa się je jako "black box", czyli czarną skrzynkę. Użytkownicy nie wiedzą dokładnie, jak działają ani nie mają nad nimi kontroli. Nawet jeśli platformy oferują narzędzia (np. do ukrywania treści), zastrzegają sobie ostateczne decyzje. Zdarza się, że mimo ukrywania konkretnych treści użytkownik widzi ich jeszcze więcej, co sugeruje istnienie dodatkowych mechanizmów.

Pojawiają się więc postulaty regulacyjne – np. większej transparentności czy audytów algorytmów przez niezależne instytucje.

Jak wpłynęłoby na nasze korzystanie z internetu, gdybyśmy dokładnie znali działanie algorytmów?

Z pewnością moglibyśmy używać różnych źródeł informacji lepiej. Ale z drugiej strony zostalibyśmy zalani treściami tworzonymi "pod algorytm", a nie dla nas. Już wcześniej widać było takie zjawiska np. w przypadku wyszukiwarek – gdy zasady stawały się zbyt znane, powstawała masa niskiej jakości treści i wyszukiwarki musiały zmieniać algorytmy, aby zatrzymać użytkowników.

Dlatego firmy nie ujawniają w pełni mechanizmów działania algorytmów. Obecne propozycje idą raczej w stronę zwiększenia kontroli użytkownika oraz audytów, a nie pełnej jawności.

Jak użytkownik może zwiększać swoją świadomość algorytmiczną?

Poprzez obserwację tego, co widzi, testowanie wpływu własnych działań (np. ukrywania treści), rozmowy z innymi i porównywanie doświadczeń. Pomaga też korzystanie z mediów, które opisują działanie algorytmów, choć nie wszystkie robią to równie często.

Jakie wnioski płyną z badania dla mediów i dziennikarzy?

Media powinny budować świadomość algorytmiczną – także z powodów biznesowych. Platformy i media konkurują o te same budżety reklamowe. Zmiany w algorytmach mogą znacząco wpływać na ruch – np. ograniczenie linków czy zmiany w sposobie dystrybucji treści.

Media powinny obserwować działania platform, dostosowywać strategie, uczyć siebie i odbiorców. Pamiętamy, jaki wpływ na wzrost świadomości w temacie internetowych oszustw miała publiczna batalia Rafała Brzoski z Facebookiem.

Media muszą też wywierać presję regulacyjną na rządzących, żeby starali się oni dbać przede wszystkim o lokalne, krajowe podmioty rynku medialnego. Ważne jest też pokazywanie problemów i praktycznych sposobów radzenia sobie z nimi.

Jak algorytmy wpływają na polaryzację i bańki informacyjne?

Badania – także zagraniczne – wskazują, że np. na platformie X częściej promowane są treści zgodne z określonymi poglądami (np. konserwatywnymi). Może to wynikać zarówno z logiki biznesowej, jak i decyzji właścicieli platform.

Algorytmy szczególnie wpływają na osoby niezdecydowane – mogą je "przechylać" w określoną stronę. Trudno jednak jednoznacznie zmierzyć wpływ na decyzje wyborcze, bo nie mamy pełnej ścieżki użytkownika aż do aktu głosowania.

Możemy natomiast obserwować inne efekty, jak radykalizacja postaw czy eskalacja konfliktów – przykładem była sytuacja w Birmie, gdzie treści publikowane w mediach społecznościowych przełożyły się na realne napięcia społeczne.

PRACA.WIRTUALNEMEDIA.PL

NAJNOWSZE WIADOMOŚCI

Właściciel Play i Orange chcą przejąć dużego operatora

Właściciel Play i Orange chcą przejąć dużego operatora

W tym miejscu Disney Channel trafi do oferty Disney+

W tym miejscu Disney Channel trafi do oferty Disney+

Meta pokazuje rodzicom, o co nastolatki pytają AI

Meta pokazuje rodzicom, o co nastolatki pytają AI

Kolejny nadawca publiczny zawarł strategiczny sojusz z YouTube

Kolejny nadawca publiczny zawarł strategiczny sojusz z YouTube

Fenomenalna zbiórka na walkę dzieci z rakiem. Pomagają znane osoby, pękają kolejne miliony

Fenomenalna zbiórka na walkę dzieci z rakiem. Pomagają znane osoby, pękają kolejne miliony

Szef Republiki tłumaczy się z reklam Zondacrypto. "Ceny u nas bardziej konkurencyjne"

Szef Republiki tłumaczy się z reklam Zondacrypto. "Ceny u nas bardziej konkurencyjne"