"Niepokojąca obserwacja". Ludzie nawet wtedy wierzą w filmy tworzone przez AI

Materiały AI, które masowo krążą w social mediach, udają prawdziwe i często zawierają wizerunki prawdziwych osób. Do alarmujących wniosków doszli badacze z Uniwersytetu w Bristol.

Rafał Badowski
Rafał Badowski
Udostępnij artykuł:
"Niepokojąca obserwacja". Ludzie nawet wtedy wierzą w filmy tworzone przez AI
Ludzie wierzą w AI, nawet jeśli wiedzą, że jest fałszywa.

Materiały wideo generowane przy użyciu sztucznej inteligencji coraz częściej dominują w mediach społecznościowych i serwisach informacyjnych, stając się jednym z poważniejszych źródeł dezinformacji.


Co gorsza, najnowsze badania sugerują, że nawet jednoznaczne oznaczenie treści jako fałszywej nie zawsze chroni odbiorców przed jej wpływem. Naukowcy z Uniwersytetu w Bristolu określają to zjawisko jako "niepokojącą obserwację".

Zespół badawczy kierowany przez Simona Clarka postanowił sprawdzić, jak użytkownicy reagują na oznaczone materiały typu deepfake. W ramach trzech eksperymentów, w których wzięło udział kolejno 175, 275 oraz 223 uczestników, badani oglądali krótkie filmy przedstawiające osoby przyznające się do przestępstw lub działań uznawanych za niemoralne.


Część nagrań była autentyczna, a część wygenerowana przez sztuczną inteligencję i opatrzona ostrzeżeniami informującymi o fałszywym charakterze materiału.

Po obejrzeniu filmów uczestników pytano, czy ich zdaniem materiał był prawdziwy oraz czy osoba występująca w nagraniu faktycznie dopuściła się zarzucanych czynów. Wyniki okazały się alarmujące.


Zdecydowana większość badanych ulegała sugestii zawartej w materiale wideo, nawet jeśli była świadoma, że ma do czynienia z deepfake’em. Co więcej, znaczna część respondentów deklarowała, że film jest fałszywy, a jednocześnie uznawała bohatera nagrania za winnego.

Jak podkreśla Simon Clark, ostrzeżenia faktycznie ograniczają skalę tego efektu, ale nie są w stanie go całkowicie wyeliminować — nawet wśród osób, które deklarują zaufanie do komunikatów o fałszywości treści.


Badacze zauważyli również, że skuteczność ostrzeżeń zależy od ich formy. Komunikaty odnoszące się bezpośrednio do konkretnego nagrania lepiej przekonują odbiorców, że materiał jest nieautentyczny. Z kolei ostrzeżenia ogólne nie zawsze zmniejszają wiarę w fałsz, choć potrafią wpływać na sposób interpretacji treści.

Zespół z Uniwersytetu w Bristolu planuje dalsze badania nad tym zjawiskiem. Naukowcy chcą sprawdzić m.in., czy źródło ostrzeżenia oraz sposób jego prezentacji mają znaczenie dla odbioru materiałów typu deepfake.


Jak zaznacza Clark, kluczowe jest zrozumienie, dlaczego użytkownicy nadal przypisują wiarygodność filmom, nawet gdy wiedzą, że są one sztucznie wygenerowane — i czym to zaufanie różni się od klasycznej wiary w autentyczność obrazu.

PRACA.WIRTUALNEMEDIA.PL

NAJNOWSZE WIADOMOŚCI

TOP30 Wirtualnych Mediów. To oni liczą się w polskim marketingu, reklamie, PR i komunikacji w 2026

TOP30 Wirtualnych Mediów. To oni liczą się w polskim marketingu, reklamie, PR i komunikacji w 2026

Sztuczna inteligencja a media. Najważniejsze wyzwania i zagrożenia

Sztuczna inteligencja a media. Najważniejsze wyzwania i zagrożenia

TVN Media nie dogadało się z Zero TV. Nieoficjalnie: poszło o warunki współpracy

TVN Media nie dogadało się z Zero TV. Nieoficjalnie: poszło o warunki współpracy

Zmiany w "Hotelu Paradise". Rekordowa wygrana i Rajscy Reporterzy

Zmiany w "Hotelu Paradise". Rekordowa wygrana i Rajscy Reporterzy

Prezes Republiki wygrał w sądzie z TVN. Będzie odwołanie?

Prezes Republiki wygrał w sądzie z TVN. Będzie odwołanie?

Retail media jako infrastruktura rynku reklamowego. Jak zmieniają sposób alokacji budżetów?

Retail media jako infrastruktura rynku reklamowego. Jak zmieniają sposób alokacji budżetów?