Najnowsza fala dyskusji wokół błędów wygenerowanych przez sztuczną inteligencję została wywołana przez sprawę książki Karoliny Opolskiej, która ma zawierać nieistniejące źródła i błędne informacje, prawdopodobnie pochodzące z narzędzi AI.
Jak podawaliśmy, na początku listopada br. historyk i popularyzator nauki Artur Wójcik zarzucił dziennikarce zmyślenie w ten sposób przypisów w jej nowej książce.
– Doszło do pewnego nieporozumienia, które obecnie wyjaśnia wydawnictwo – oświadczyła wtedy autorka w rozmowie z Wirtualnemedia.pl. Wydawnictwo Harde (Grupa ZPR Media) ma zaś przygotować erratę (na razie ona się nie pojawiła).
Sprawa Karoliny Opolskiej rozlała się po mediach
Według danych Instytutu Monitorowania Mediów publikacje o tej sprawie osiągnęły łącznie 4 mln potencjalnych kontaktów z przekazem - 1,6 mln w przypadku klasycznych mediów, a 2,4 mln w social mediach. To oznacza, że dotarły statystycznie do co ósmego Polaka powyżej 15. roku życia w okresie od 5 do 19 listopada br. Eksperci wskazują, że to symbol "halucynacji AI", czyli sytuacji, w której modele językowe generują informacje, które nie mają oparcia w rzeczywistości.

Czytaj także: Apple pod lupą UOKiK
Jak zaznacza IMM, przypadek Opolskiej unaocznia, że problem halucynacji jest wciąż słabo rozpoznany społecznie, a internauci często nie potrafią skutecznie odróżniać treści generowanych przez modele od materiałów tworzonych przez ludzi.
W mediach społecznościowych dyskusja na temat zachowania dziennikarki szybko przybrała negatywny ton - użytkownicy oskarżali ją o nadużycie zaufania. Jednocześnie część debaty skupiła się na rosnącej nieufności wobec nowych technologii i braku świadomości dotyczącej sposobu działania narzędzi generatywnych.
Polskie przykłady nadużyć AI nie kończą się jednak na rynku medialnym. IMM przypomina również o sprawie firmy Exdrog, wykluczonej z przetargu drogowego po tym, jak złożona przez nią dokumentacja – przygotowana przy wsparciu sztucznej inteligencji – okazała się zawierać zmyślone interpretacje podatkowe i nieistniejące przepisy. Ten przypadek, mający 1,3 mln zasięgu mediowego, pokazał, że błędy AI mogą powodować nie tylko chaos informacyjny, lecz także realne skutki prawne i finansowe.

Niebezpieczeństwo korzystania z AI
Zjawisko to wpisuje się w globalny trend. Na świecie halucynacje AI prowadziły już do kompromitacji prawników, którzy przed sądem powoływali się na wymyślone precedensy, czy wtop medialnych takich jak przypadek "Chicago Sun-Times", gdzie narzędzie AI rekomendowało czytelnikom… książki, które nigdy nie powstały.
Z kolei badanie BBC dla Europejskiej Unii Nadawców ujawniło, że blisko 45 proc. odpowiedzi generowanych przez wiodące modele - ChatGPT, Copilota, Geminiego czy Perplexity - zawiera istotne błędy.
Wraz ze wzrostem liczby takich sytuacji narastają pytania o odpowiedzialność prawną. Ekspertka ds. prawa i AI, prof. Justyna Król-Całkowska, zwraca uwagę na brak jasnych regulacji dotyczących tego, kto ponosi odpowiedzialność za szkody spowodowane halucynacjami: twórcy modelu, dostawcy usług czy użytkownik.

Jak podkreśla Tomasz Lubieniecki z IMM, modele językowe są jedynie narzędziami statystycznymi i nie mogą zastąpić ludzkiej weryfikacji – jej pominięcie tworzy prostą drogę do kryzysów wizerunkowych i poważnych strat.
IMM podkreśla wreszcie, że kluczowym elementem walki z dezinformacją jest umiejętność identyfikowania treści tworzonych przez AI. Eksperci wskazują szereg charakterystycznych cech, które mogą świadczyć o tym, że tekst został w całości wygenerowany przez model - od schematycznego formatowania i clickbaitowego tonu, przez nienaturalne i nieudokumentowane dane procentowe, aż po charakterystyczne słownictwo i błyskawiczne tempo powstawania "analiz".
W ich ocenie każdą podejrzaną treść należy weryfikować ze szczególną starannością, zwłaszcza jeśli może mieć wpływ na opinię publiczną lub decyzje biznesowe.











