Materiały wideo generowane przy użyciu sztucznej inteligencji coraz częściej dominują w mediach społecznościowych i serwisach informacyjnych, stając się jednym z poważniejszych źródeł dezinformacji.
Co gorsza, najnowsze badania sugerują, że nawet jednoznaczne oznaczenie treści jako fałszywej nie zawsze chroni odbiorców przed jej wpływem. Naukowcy z Uniwersytetu w Bristolu określają to zjawisko jako "niepokojącą obserwację".
Zespół badawczy kierowany przez Simona Clarka postanowił sprawdzić, jak użytkownicy reagują na oznaczone materiały typu deepfake. W ramach trzech eksperymentów, w których wzięło udział kolejno 175, 275 oraz 223 uczestników, badani oglądali krótkie filmy przedstawiające osoby przyznające się do przestępstw lub działań uznawanych za niemoralne.

Część nagrań była autentyczna, a część wygenerowana przez sztuczną inteligencję i opatrzona ostrzeżeniami informującymi o fałszywym charakterze materiału.
Po obejrzeniu filmów uczestników pytano, czy ich zdaniem materiał był prawdziwy oraz czy osoba występująca w nagraniu faktycznie dopuściła się zarzucanych czynów. Wyniki okazały się alarmujące.
Zdecydowana większość badanych ulegała sugestii zawartej w materiale wideo, nawet jeśli była świadoma, że ma do czynienia z deepfake’em. Co więcej, znaczna część respondentów deklarowała, że film jest fałszywy, a jednocześnie uznawała bohatera nagrania za winnego.
Jak podkreśla Simon Clark, ostrzeżenia faktycznie ograniczają skalę tego efektu, ale nie są w stanie go całkowicie wyeliminować — nawet wśród osób, które deklarują zaufanie do komunikatów o fałszywości treści.

Badacze zauważyli również, że skuteczność ostrzeżeń zależy od ich formy. Komunikaty odnoszące się bezpośrednio do konkretnego nagrania lepiej przekonują odbiorców, że materiał jest nieautentyczny. Z kolei ostrzeżenia ogólne nie zawsze zmniejszają wiarę w fałsz, choć potrafią wpływać na sposób interpretacji treści.
Zespół z Uniwersytetu w Bristolu planuje dalsze badania nad tym zjawiskiem. Naukowcy chcą sprawdzić m.in., czy źródło ostrzeżenia oraz sposób jego prezentacji mają znaczenie dla odbioru materiałów typu deepfake.
Jak zaznacza Clark, kluczowe jest zrozumienie, dlaczego użytkownicy nadal przypisują wiarygodność filmom, nawet gdy wiedzą, że są one sztucznie wygenerowane — i czym to zaufanie różni się od klasycznej wiary w autentyczność obrazu.











