Coraz częściej odnotowuje się przypadki, w których deepfake’i prowadziły do realnych strat finansowych i reputacyjnych, wprowadzając w błąd osoby na wysokich stanowiskach czy o szerokiej wiedzy technologicznej i znajomości procedur bezpieczeństwa. W Hongkongu głośnym echem odbił się incydent, w którym pracownik firmy przesłał oszustom równowartość ponad 20 mln dolarów po wideokonferencj1i, na której wszyscy uczestnicy – w tym "dyrektor finansowy" – okazali się wygenerowani przez AI. Na całym świecie coraz częściej raportowane są próby wyłudzeń z wykorzystaniem sklonowanych głosów prezesów i menedżerów, którzy telefonicznie rzekomo proszą o pilne przelanie środków. W sieci wielokrotnie pojawiały się również zmanipulowane nagrania znanych osób w których wypowiadają się na tematy, których nigdy nie poruszali. Takie materiały potrafią błyskawicznie rozprzestrzeniać się w mediach, wprowadzając w błąd miliony odbiorców.

– Zdolności generatywnej sztucznej inteligencji rozwijają się w błyskawicznym tempie. Wkrótce nawet doświadczeni użytkownicy będą mieli trudność w odróżnieniu materiałów autentycznych od wygenerowanych. Jeszcze do niedawna zakładaliśmy, że ofiarami manipulacji padają głównie osoby starsze czy mniej obeznane z technologią, dziś jednak zagrożenie dotyczy absolutnie każdego. Deepfake potrafi oszukać specjalistę, dziennikarza czy menedżera wysokiego szczebla i to w sytuacjach, które wymagają szybkiej reakcji. Dlatego musimy przygotować się zarówno technologicznie, jak i regulacyjnie, a także indywidualnie, pod względem świadomości i krytycznego podejścia do treści, które konsumujemy na co dzień – podkreśla Kamil Sadkowski, analityk cyberzagrożeń w ESET.
Do tworzenia deepfake’ów wykorzystuje się techniki uczenia maszynowego. Z pomocą tysięcy próbek zdjęć czy nagrań głosu, algorytmy uczą się odtwarzać czyjąś twarz, mimikę, głos czy gesty. Dziś takie narzędzia są dostępne nie tylko dla ekspertów, a proste aplikacje webowe pozwalają eksperymentować nawet osobom bez wiedzy technicznej. To obniża próg wejścia również dla cyberprzestępców i oznacza, że nie muszą być już programistami – wystarczy im pomysł na atak.

Bo deepfake’i coraz częściej wymykają się z internetu do świata realnych konsekwencji. Mogą podważyć reputację polityka, doprowadzić do utraty milionów w korporacji czy zniszczyć życie prywatne zwykłej osoby. Najbardziej niepokojące jest to, że ofiarami padają nie tylko seniorzy czy osoby mniej obeznane z technologią, lecz także profesjonaliści. Autentyczne historie ofiar pokazują, że zmanipulować można nawet pracowników świadomych ryzyka i procedur bezpieczeństwa.
Deepfake to technologia, która w połączeniu z dezinformacją staje się groźnym narzędziem manipulacji całego społeczeństwa. Fałszywe filmy i nagrania, które przedstawiają osoby mówiące lub wykonujące rzeczy, których nigdy nie zrobiły, wprowadzają zamęt i destabilizację. W obliczu tego wyzwania media i dziennikarze odgrywają kluczową rolę w weryfikowaniu informacji i edukowaniu społeczeństwa, aby zminimalizować skutki dezinformacji. Zaangażowaliśmy się kolejny raz w projekt "Wirtuale" bez wahania, chcąc podziękować wszystkim ludziom mediów za ich codzienną pracę oraz wkład w pokazywanie świata rzeczywistego, a nie zmanipulowanego. Mirosław Wlekły, który otrzymał nagrodę specjalną za walkę z dezinformacją w pełni na nią zasłużyć udowadniając, że jakościowe dziennikarstwo, choć często niezwykle trudne, jest dzisiaj na wagę złota – mówi Marcin Mazur z DAGMA Bezpieczeństwo IT.

Jak nie dać się nabrać?
Choć technologia jest coraz bardziej zaawansowana, wciąż istnieją sygnały ostrzegawcze. To m.in. nienaturalne oświetlenie i zbyt gładka tekstura skóry, nieprawidłowe mruganie, źle zsynchronizowany ruch ust z głosem czy nietypowe artefakty na krawędziach obrazu. Pomocne bywają też narzędzia do weryfikacji metadanych czy wyszukiwarki obrazów umożliwiające sprawdzenie źródła pliku. Coraz częściej stosuje się również wyspecjalizowane rozwiązania, takie jak Microsoft Video Authenticator czy OpenVINO od Intela, które analizują materiał pod kątem cyfrowych zniekształceń.












