W rozmowie wzięli udział: Maciej Kossowski, prezes Związku Pracodawców Wydawców Cyfrowych, Marcin Szczupak, CEO Mediaboard Polska oraz Grzegorz Smyka, managing partner biddable media w WPP Media Poland.
1. Transformacja: od brand safety do brand suitability
Branża reklamowa odchodzi od prostego wykluczania słów kluczowych na rzecz bardziej zaawansowanego dopasowania kontekstowego, określanego jako brand suitability. Oznacza to, że marki przestają być jedynie reklamodawcami kupującymi pojedyncze odsłony, a stają się "kuratorami kontekstu". W obliczu dynamicznych zmian i tempa pojawiania się nowych treści, największym wyzwaniem jest stworzenie dla marek narzędzia, które pozwoli im kontrolować otoczenie, w którym się pojawiają i upewniać się, że jest ono zgodne z ich wartościami.
– Jeśli nie kontrolują kontekstu, to kontekst zaczyna wybierać. To jest bardzo duże zagrożenie, więc jest takie oczekiwanie od agencji, żeby tworzyć taki kompas kontekstowy dla marek. Chodzi o to, by nie działać na jakichś danych historycznych i blokować, tylko bardziej dopasowywać kontekst i zachować kontrolę tego, w jakim otoczeniu marka występuje – wskazał Grzegorz Smyka.

2. Koszty nadmiernego brand safety
Nadmierne blokowanie (overblocking) treści, choć mające na celu ochronę marki, prowadzi do znaczącego wzrostu kosztów kampanii i spadku skali oraz zasięgu. Marketerzy i agencje stoją przed olbrzymim dylematem: muszą jednocześnie pełnić rolę strażników bezpieczeństwa marek, a z drugiej audytorów i gwarantów zakupowych, wyciskających jak najniższe koszty.
Według uczestników panelu, przesunięcie filtrów na bardziej restrykcyjne powoduje, że koszty mogą wzrosnąć o 20 proc. do 50 proc, a zasięg kampanii może spaść nawet o 30 proc. To pokazuje, jak potężne jest napięcie między bezpieczeństwem marki a jej efektywnością kosztową.
– Nadmierny overbloking powoduje znaczący wzrost kosztów, które trzeba pogodzić z zachowaniem bezpieczeństwa marki – mówił Grzegorz Smyka

3. Problem starych regulacji i odpowiedzialności platform społecznościowych
Platformy technologiczne, takie jak YouTube, Google czy Meta, działają w modelu opartym na przepisach z lat 90., które zwalniają je z odpowiedzialności za treści publikowane przez użytkowników. Maciej Kossowski wskazał, że stwarza to niekorzystną sytuację, w której wielkie firmy nie ponoszą takiej samej odpowiedzialności, jak tradycyjni wydawcy, którzy są regulowani prawem prasowym, kodeksem cywilnym czy ustawą o Krajowej Radzie Radiofonii i Telewizji.
Zdaniem Macieja Kossowskiego, platformy są dziś głównymi kanałami informacji dla użytkowników i w związku z tym powinny przyjmować większą odpowiedzialność za to, co się na nich dzieje. – Wydawcy, których reprezentuję, są regulowani prawem prasowym, które nakłada konkretne obowiązki na dziennikarzy i na właścicieli mediów. Po drugiej stronie takich obowiązków nie ma – zauważył Maciej Kossowski

4. Algorytmy napędzają toksyczny content
Modele biznesowe gigantów technologicznych są nastawione na maksymalne wydłużenie czasu spędzonego na platformie. Ten cel najlepiej generują treści toksyczne, ponieważ najbardziej oddziałują na emocje użytkowników.
– Prawda jest totalna taka, że dzisiejsze modele AI w tydzień oczyściłyby platformy z toksycznych treści, ale pytanie czy ich modele biznesowe są na to gotowe –zastanawiał się Grzegorz Smyka.
5. Subiektywność oceny
Marketerzy i agencje muszą mierzyć się z problemem niejednolitych standardów bezpieczeństwa. Każda platforma stosuje inne klasyfikatory treści. Grzegorz Smyka przyznał, że trudno się w tym odnaleźć. – Trudno wytłumaczyć klientom złożoność tego rynku. Tym bardziej, że i pojęcie "bezpieczne" ma charakter bardzo subiektywny.
6. Nadmiar informacyjny dzięki AI
Jak wskazał Marcin Szczupak, największym wyzwaniem w zakresie ochrony reputacji marki jest obecnie nadmiar informacyjny, z którym nie radzi sobie nikt, niezależnie od stosowanych rozwiązań AI. Rozwój sztucznej inteligencji doprowadził do kaskadowego wzrostu publikacji.

– Nasze obserwacje mówią o wzroście u poszczególnych wydawców rzędu 30, 40, 70, a nawet 300 proc. od momentu pojawienia się szeroko dostępnej sztucznej inteligencji –mówił Szczupak.
7. Skala scamu i oszustw na platformach
Duża część przychodów platform społecznościowych pochodzi z reklam zawierających nieprawdę. Maciej Kossowski podał przykład Mety, w przypadku której 10 proc. przychodów stanowią reklamy pochodzące ze scamów. Oszuści przejmują konta reklamodawców i wykorzystują wizerunki marek lub konkretnych osób do promowania nielegalnych produktów.
Czytaj także: Google Maps podpowie właściwy pas jazdy

– Sam się zastanawiam, jak duże marki, które mają w swoim katalogu wartości wspierania inkluzywności, równouprawnienia, godzą swój świat wartości z tym że większość ich grup celowych jest na przykład na Instagramie czy na Facebooku – zastanawiał się Kossowski.
8. Marki unikają pokazywania się przy popularnych, a jednocześnie kontrowersyjnych treściach z przyczyn historycznych
Marki często unikają reklamowania się przy tematyce, która jest najciekawsza dla odbiorców (np. wojna, polityka, katastrofy). Zdaniem Grzegorza Smyki wynika to z historycznego podejścia opartego na wykluczaniu słów kontrowersyjnych.
Agencje starają się zmieniać ten trend, przechodząc do analizy kontekstu w oparciu o wektoryzację, co pozwala im interpretować, że to samo słowo w różnym kontekście może mieć inną wartość dla marki. – Tracą na tym reklamodawcy, bo tracą na zasięgu i tracą media, bo nie monetyzują treści – zauważa Smyka.

9. Dezinformacja i jailbreaking modeli językowych
Jednym z najgroźniejszych scenariuszy związanych z rozwojem AI jest jailbreaking, czyli celowe wypaczanie odpowiedzi modeli językowych (LLM) poprzez dostarczanie im nieprawidłowych danych. Maciej Kossowski powołał się na badania, które wykazały, że duża liczba specjalnie przygotowanych treści pod kątem algorytmów może powodować, że LLM-y będą oddawać wypaczone odpowiedzi. Przykładem jest sytuacja, gdzie 30 proc. zapytań dotyczących tematów rosyjsko-ukraińskich zostało skażonych przez "zatrute treści".
10. Przyszłość brand safety wymaga regulacji
W obliczu rosnącego tempa generowania treści syntetycznych, agencje i klienci muszą odejść od modeli post-analizy na rzecz modeli predykcyjnych i proaktywnych. Działania w zakresie brand safety zaczynają przypominać strategie cyberbezpieczeństwa. Uczestnicy debaty widzą jedyną nadzieję na opanowanie chaosu w regulacjach, zwłaszcza w zakresie obowiązku oznaczania treści, co jest stworzone przez AI, a co jest w 100 proc. dziełem człowieka.
– W mojej ocenie najlepiej z tym bałaganem mogą sobie poradzić platformy, które znają swoje algorytmy, są najbardziej zaawansowanymi technologicznie firmami na świecie i tylko muszą bardziej chcieć – wskazał Kossowski.











