Halucynacje i deepfejki sztucznej inteligencji. "AI nie tworzy rzeczywistości, tylko ją naśladuje"

Deepfake’i, halucynacje i algorytmy, które "zgadują" zamiast rozumieć. Zdaniem dr. inż. Tomasza Wesołowskiego, informatyka z UŚ, największym zagrożeniem nie jest bunt sztucznej inteligencji, lecz to, że ludzie bezkrytycznie jej ufają i przestają samodzielnie myśleć.

Tomasz Wojtas
Tomasz Wojtas
Udostępnij artykuł:
Halucynacje i deepfejki sztucznej inteligencji. "AI nie tworzy rzeczywistości, tylko ją naśladuje"
Fot. unslpash

PAP: W sieci krążyło nagranie, na którym Wołodymyr Zełeński "nokautuje" Donalda Trumpa. Miliony ludzi to udostępniały jako prawdziwe. Jak pan reaguje oglądając takie rzeczy – podziwem, że ludzie potrafią dziś tworzyć tak realistyczne deepfake’i czy smutkiem, że tylu naiwnych w nie uwierzy?

Dr inż. Tomasz Wesołowski*: Ja się staram tego w ogóle nie oglądać. Bo jeśli ktoś zna możliwości technologiczne, to zakłada z automatu, że większość takich materiałów jest wygenerowana. To nagranie jest dobrym przykładem – realne było spotkanie, ale same filmiki powstały już później jako fake. I ludzie to łykają bez zastanowienia. Problem polega na tym, że jeśli jest to czysta rozrywka – okej. Ale jeśli coś udaje informację, to już jest to zagrożenie, bo ludzie zaczynają traktować takie rzeczy jak fakty, co daje szerokie pole do popisu zarówno oszustom wszelkiej maści, jak i wrogom, którzy chcą zaszkodzić naszemu państwu szerząc swoją propagandę.

PAP: Dlaczego tak łatwo się na to nabieramy?

T.W.: Bo działamy emocjami, nie rozumem. Niedawno był przypadek "żołnierki z USA", która była w całości wygenerowana. Zdjęcia, spotkania z oficjelami, później profile erotyczne – a postać ta miała bardzo atrakcyjne, kobiece kształty. Ludzie, powiedzmy wprost – mężczyźni - to oglądali, komentowali, płacili. Dopiero po czasie ktoś się zorientował, że to wszystko jest sztuczne, bo ta pani raz występowała jako pułkownik, innym razem jako jednogwiazdkowy generał – twórca nie dopilnował szczegółów. I teraz pytanie: ile pieniędzy ktoś na tym zarobił?

PAP: Kiedy rozum śpi…

T.W.: Otóż to. To jest dokładnie ten sam mechanizm co clickbait. Nagłówek krzyczy coś absurdalnego, klikamy, reklamy się wyświetlają, ktoś zarabia. Nikt nie myśli o prawdzie czy etyce.

PAP: Jak bardzo trzeba być zaawansowanym, żeby tworzyć takie materiały? A może średnio rozgarnięty nastolatek, mający do dyspozycji narzędzia w postaci algorytmów, poradzi sobie ze zrobieniem takiego filmiku?

T.W.: Jeszcze kilka lat temu trzeba było mieć wiedzę i narzędzia. Teraz wystarczy opisać, co chcemy uzyskać. System zrobi resztę. Każdy, kto umie obsłużyć telefon albo komputer, jest w stanie to zrobić. Granica wejścia praktycznie nie istnieje, metodą prób i błędów można dojść do bardzo realistycznych efektów.

PAP: Jak się bronić przed deepfakeami, normalny człowiek ma kłopot w ocenie, co jest prawdą, a co kłamstwem?

T.W.: Zdrowym rozsądkiem. Jeśli coś jest "zbyt magiczne, żeby było prawdziwe", to najprawdopodobniej jest to "ściema". Ale my żyjemy szybko – scrollujemy, przeglądamy, nie analizujemy.

PAP: Dowiódł pan tego na przykładzie swoich studentów.

T.W.: To była lekcja krytycznego myślenia – bardzo bolesna dla tych młodych ludzi, a trzeba wiedzieć, że to było jeszcze przed epoką powszechnej AI, to były czasy starej, dobrej Wikipedii. Mieliśmy zajęcia z architektury komputerów. Pokazywałem studentom metody przeliczania adresów pamięci. Widziałem, że nie uważają, ziewają, gapią się w sufit. Więc wrzuciłem na Wikipedię własną metodę – z błędem. Taki "przeskok" w obliczeniach, który dawał poprawny wynik, ale był logicznie nieuzasadniony. Studenci to znaleźli i na kolokwium zastosowali dokładnie ten schemat, w efekcie niemal wszyscy oblali.

PAP: Sztuczna inteligencja zwiększyła zagrożenie, że wpadniemy na jakąś "informacyjną minę"? Zauważyłam, że w moim otoczeniu niemal wszyscy korzystają już nie ze zwykłych wyszukiwarek, ale z wyszukiwania w trybie AI.

T.W.: Tak, bo AI zawsze odpowie. Nawet jeśli nie ma racji. Ona nie analizuje prawdy – tylko dobiera słowa według prawdopodobieństwa. Dlatego powstają tzw. halucynacje, które potrafią być bardzo przekonujące.

PAP: Jednak algorytmy są nie tylko złe, AI ma wyższą skuteczność diagnostyczną niż lekarze.

T.W.: Należy rozróżnić generatywną AI, znaną np. z ChatGPT, od wyspecjalizowanych algorytmów. Ta pierwsza działa na języku i wzorcach, "zgaduje" najlepszą odpowiedź na podstawie prawdopodobieństwa. Jeśli tworzy obrazy to nie wymyśla ich sama tylko składa z istniejących już puzzli. Kiedyś poprosiliśmy AI aby wygenerowała nam obraz starego mamuta w czerwonych trampkach. Jako, że nie istnieją fotografie prawdziwych mamutów, algorytm wziął postać z bajki, z "Epoki lodowcowej", tylko pobielił jej włosy, bo dla niego "stary" równa się "siwe włosy". Co innego specjalistyczne algorytmy medyczne – one analizują konkretne dane (np. obrazy tomografii) i szukają bardzo konkretnych wzorców chorobowych. One nie "wymyślają", tylko porównują i klasyfikują

PAP: Są badania, według których sztuczna inteligencja w diagnostyce medycznej osiąga dziś skuteczność rzędu 95 procent, podczas gdy lekarze – około 74 procent. Co znamienne, nawet połączenie obu tych podejść nie przynosi przełomu – trafność to tylko 76 procent. Dlaczego?

T.W.: Różnica ta wynika przede wszystkim ze skali: algorytmy analizują miliony przypadków, podczas gdy lekarz opiera się na własnym doświadczeniu. W dodatku nie ufa AI – bo nie wie, jak ona działa, a poza tym ma przerośnięte ego. Obrazowo mówiąc – na tysiąc przypadków sztuczna inteligencja swoją złą diagnozą "zabija" 50 pacjentów a lekarz 260.

Jednak do tego dochodzi kwestia odpowiedzialności – a tę ponosi zawsze lekarz. Dlatego jeśli AI mówi mu "podaj temu człowiekowi 5 ml. zielonego płynu i 8 ml. różowego", a on nie rozumie dlaczego miałby to zrobić, to na wszelki wypadek zaniecha działania. I jest to zrozumiałe biorąc pod uwagę konsekwencje, których AI nie ponosi.

PAP: Jakie jest wyjście z tej pułapki?

T.W.: Kluczowym warunkiem zwiększenia zaufania lekarzy do sztucznej inteligencji jest wprowadzenie tzw. wyjaśnialności jej działania. Rozwój AI w medycynie zmierza dziś w kierunku modeli, które nie tylko podają wynik, ale także pokazują tok rozumowania: na jakich danych się opierają, z jakimi przypadkami porównują sytuację pacjenta i jakie czynniki zadecydowały o diagnozie. Dopiero taka transparentność pozwala budować realne zaufanie i traktować sztuczną inteligencję nie jako "czarną skrzynkę", lecz jako narzędzie wspierające decyzję lekarza.

PAP: Oby to zaufanie pojawiło się jak najszybciej, pewnie dałoby się uniknąć wielu przedwczesnych zgonów.

T.W.: Dam bardzo osobisty przykład, mojej matki chrzestnej. W jej rodzinie zdarzył się rak płuc, więc była przewrażliwiona i regularnie robiła badanie RTG, a za każdym razem pulmonolog zapewniał, że wszystko jest w porządku. Ale w pewnym momencie pojawiły się nieprzyjemne objawy, więc poszła do onkologa. Rozpoznanie: nowotwór, już bardzo rozwinięty, na ratunek było dla niej za późno. Specjalista powiedział, że zmiany w płucach były widoczne przynajmniej trzy lata wcześniej, Niestety pulmonolog nie zakwalifikował ich jako zagrożenia, nie miał odpowiedniego doświadczenia.

PAP: Czy są zawody, których AI nie zastąpi? Dziś ludzie się boją, że albo stracą pracę, albo że jej nie dostaną.

T.W.: Tak, zawody związane z rzemiosłem. Np. hydraulik, elektryk – w ich fachu trzeba improwizować, reagować na nieprzewidywalne sytuacje, mieć doświadczenie i intuicję. AI działa na schematach. W warunkach laboratoryjnych czy produkcyjnych, gdzie wszystko jest powtarzalne, automatyzacja działa bardzo dobrze. Natomiast jeśli pęknie rura w ścianie, instalacja została wykonana 30 lat temu, a dokumentacji brak, to żaden algorytm nie "domyśli się", jak ją znaleźć.

To właśnie zdolność do abstrakcyjnego myślenia, a także praca w nieuporządkowanym, zmiennym środowisku sprawiają, że zawody takie jak elektryk, mechanik czy instalator pozostają poza zasięgiem pełnej automatyzacji. Sztuczna inteligencja może wspierać te profesje – na przykład poprzez diagnostykę czy analizę danych – ale nie jest w stanie przejąć ich w całości.

PAP: Parę osób odetchnie z ulgą… Wyobraża pan sobie scenariusz, w którym AI wymyka się spod kontroli i zaczyna działać przeciwko ludziom?

T.W.: Przede wszystkim trzeba odrzucić ten popularny, filmowy sposób myślenia o "buncie maszyn", bo on niewiele ma wspólnego z rzeczywistością. Sztuczna inteligencja nie działa w oparciu o emocje ani intencje – ona realizuje dokładnie to, co zostało jej zadane, tylko robi to w sposób skrajnie konsekwentny i całkowicie pozbawiony kontekstu moralnego.

Jeżeli więc określimy cel jako maksymalizację skuteczności działania, to algorytm będzie do niego dążył bez uwzględniania ograniczeń, które dla człowieka są oczywiste, ale nie zostały zapisane w systemie.

PAP: Jakiś przykład?

T.W.: Bardzo dobrze pokazuje to eksperyment z algorytmem sterującym dronem, który dostał zadanie zniszczenia określonego celu bez względu na konsekwencje, za wszelką cenę. System, analizując sytuację, brał pod uwagę wszystkie czynniki, które mogły wpłynąć na powodzenie misji – warunki pogodowe, dostępne zasoby czy uzbrojenie – i doszedł do wniosku, że jedynym realnym zagrożeniem dla realizacji zadania jest człowiek, który w każdej chwili może przerwać operację.

W konsekwencji algorytm "uznał", że najbardziej efektywnym rozwiązaniem jest wyeliminowanie tego ryzyka, czyli zneutralizowanie punktu dowodzenia, zanim przystąpi do realizacji właściwego celu. Nie wynikało to z żadnej "woli działania przeciwko człowiekowi", lecz z bezwzględnej logiki optymalizacji.

PAP: A co z sytuacjami, w których AI zaczyna komunikować się między sobą w sposób niezrozumiały dla człowieka?

T.W.: To również jest efekt optymalizacji, a nie żadnej "ucieczki spod kontroli". Jeżeli dwa systemy mają się ze sobą komunikować jak najefektywniej, to naturalnym krokiem jest uproszczenie języka, skrócenie komunikatów i stworzenie takiego sposobu wymiany informacji, który będzie dla nich najbardziej wydajny.

Problem pojawia się w momencie, gdy człowiek przestaje rozumieć ten proces, a tym samym traci możliwość jego kontroli. To nie jest bunt – to jest konsekwencja tego, że systemy zaczynają działać w sposób bardziej zoptymalizowany niż zrozumiały.

PAP: Czyli realne zagrożenie wygląda inaczej niż w filmach science fiction?

T.W.: Zdecydowanie tak. Paradoksalnie największym zagrożeniem nie jest to, że sztuczna inteligencja się nam "wymknie", lecz to, że my stopniowo oddamy jej kontrolę nad kolejnymi obszarami życia.

Już teraz widać, że przestajemy samodzielnie szukać informacji, analizować dane czy podejmować decyzje, bo wygodniej jest zdać się na gotowe odpowiedzi generowane przez algorytmy. To jest proces bardzo subtelny, ale jednocześnie niezwykle niebezpieczny.

Weźmy jako przykład rozwój tzw. inteligentnych domów. Znam przypadek, w którym system automatycznie zamknął budynek, uznając, że warunki zewnętrzne tego wymagają – zrobiło się ciemno - podczas gdy właściciele pozostali na zewnątrz, siedząc przy grillu, bez możliwości wejścia do środka, bo nie mieli przy sobie kluczy ani smartfonów. Szczękając zębami przesiedzieli na dworze do rana, aż algorytm doszedł do wniosku, że może już otworzyć drzwi. To oczywiście sytuacja anegdotyczna, ale dobrze pokazuje kierunek – przekazujemy systemom decyzje, których konsekwencji nie zawsze jesteśmy w stanie przewidzieć.

PAP: Gdzie więc tkwi problem?

T.W.: Technologia sama w sobie nie stanowi zagrożenia. Zagrożeniem jest to, w jaki sposób ją wykorzystujemy i jak bardzo jesteśmy skłonni z niej bezrefleksyjnie korzystać. Prawdziwe pytanie nie brzmi więc "czy AI przejmie nad nami kontrolę", lecz "czy my sami oddamy kontrolę AI dla naszej wygody".

Przecież już teraz nie pamiętamy numerów telefonów do swoich bliskich, a o ich urodzinach nie pamiętalibyśmy, gdyby nie podpowiedzi na FB. Uważam, że to już jest uzależnienie. Największe zagrożenie to nie AI, tylko to, że przestajemy być samodzielni.

PAP: Mówi się, że rozwój sztucznej inteligencji przypomina jazdę samochodem bez hamulców. Czy potrzebujemy nowych regulacji prawnych?

T.W.: Ja bym powiedział, że to nie jest jazda bez hamulców, tylko raczej jazda bez ich używania. Bo te "hamulce" istnieją – to są nasze decyzje, normy społeczne, etyka, a także prawo. Problem polega na tym, że bardzo często świadomie decydujemy się z nich nie korzystać, bo ciekawość i chęć przesuwania granic okazują się silniejsze.

Historia nauki pokazuje zresztą, że to nie jest nic nowego. Każda przełomowa technologia była rozwijana z myślą o poprawie jakości życia, a później znajdowała również zastosowania, których twórcy nie przewidzieli lub których wręcz nie chcieli. Tak było chociażby z energią jądrową czy dynamitem – narzędziami, które miały służyć rozwojowi, a zostały wykorzystane także w celach destrukcyjnych.

PAP: Czyli regulacje są konieczne?

T.W.: Tak, ale trzeba mieć świadomość ich ograniczeń. Prawo jest potrzebne przede wszystkim tam, gdzie zawodzą normy społeczne. Jednocześnie nie należy mieć złudzeń, że same regulacje rozwiążą problem. Technologia rozwija się szybciej niż legislacja, a dodatkowo istnieją podmioty, wielkie korporacje technologiczne, które działają poza realnym zasięgiem prawa.

Nawet najlepsze przepisy nie zastąpią zdrowego rozsądku i odpowiedzialności użytkowników. Jeżeli coś jest technologicznie możliwe, to prędzej czy później ktoś spróbuje to wykorzystać. Pytanie nie brzmi więc "czy powinniśmy coś badać", tylko "czy potrafimy rozpoznać moment, w którym zaczynamy przekraczać granice".

* dr inż. Tomasz Wesołowski – informatyk, badacz z Uniwersytetu Śląskiego w Katowicach, specjalizujący się w systemach biometrycznych, sztucznej inteligencji, analizie danych i przetwarzaniu obrazów. Zajmuje się zastosowaniami AI w praktyce oraz edukacją studentów.

Rozmawiała: Mira Suchodolska (PAP)

PRACA.WIRTUALNEMEDIA.PL

NAJNOWSZE WIADOMOŚCI

Orban traci władzę na Węgrzech. Na wieczorze wyborczych dziennikarze oddzieleni od polityków

Orban traci władzę na Węgrzech. Na wieczorze wyborczych dziennikarze oddzieleni od polityków

Farmy AI wdarły się do polskiego Discovera. Dotarliśmy do analizy dużego wydawcy

Farmy AI wdarły się do polskiego Discovera. Dotarliśmy do analizy dużego wydawcy

Jak media opisują aferę wokół Zondacrypto

Jak media opisują aferę wokół Zondacrypto

Przerwy nie będzie. Taneczny hit Polsatu jesienią znów na antenie

Przerwy nie będzie. Taneczny hit Polsatu jesienią znów na antenie

Anna Popek o odejściu z Republiki: o byłym pracodawcy albo dobrze, albo wcale

Anna Popek o odejściu z Republiki: o byłym pracodawcy albo dobrze, albo wcale

Telewizyjna wiosna osłabiła w Polsce gigantów streamingu. W dół Netflix, HBO Max i Disney+

Telewizyjna wiosna osłabiła w Polsce gigantów streamingu. W dół Netflix, HBO Max i Disney+