Taki zasięg miała sprawa książki Karoliny Opolskiej. Eksperci alarmują

Publikacje o kontrowersjach wokół książki Karoliny Opolskiej osiągnęły łącznie zasięg na poziome 4 mln - informuje Instytut Monitorowania Mediów w swoim raporcie. Przy okazji zwraca uwagę na zagrożenia związane ze sztuczną inteligencją.

Dominik Senkowski
Dominik Senkowski
Udostępnij artykuł:
Taki zasięg miała sprawa książki Karoliny Opolskiej. Eksperci alarmują
Karolina Opolska

Najnowsza fala dyskusji wokół błędów wygenerowanych przez sztuczną inteligencję została wywołana przez sprawę książki Karoliny Opolskiej, która ma zawierać nieistniejące źródła i błędne informacje, prawdopodobnie pochodzące z narzędzi AI.

Jak podawaliśmy, na początku listopada br. historyk i popularyzator nauki Artur Wójcik zarzucił dziennikarce zmyślenie w ten sposób przypisów w jej nowej książce.

– Doszło do pewnego nieporozumienia, które obecnie wyjaśnia wydawnictwo – oświadczyła wtedy autorka w rozmowie z Wirtualnemedia.pl. Wydawnictwo Harde (Grupa ZPR Media) ma zaś przygotować erratę (na razie ona się nie pojawiła).

Sprawa Karoliny Opolskiej rozlała się po mediach

Według danych Instytutu Monitorowania Mediów publikacje o tej sprawie osiągnęły łącznie 4 mln potencjalnych kontaktów z przekazem - 1,6 mln w przypadku klasycznych mediów, a 2,4 mln w social mediach. To oznacza, że dotarły statystycznie do co ósmego Polaka powyżej 15. roku życia w okresie od 5 do 19 listopada br. Eksperci wskazują, że to symbol "halucynacji AI", czyli sytuacji, w której modele językowe generują informacje, które nie mają oparcia w rzeczywistości.

Czytaj także: Apple pod lupą UOKiK

Jak zaznacza IMM, przypadek Opolskiej unaocznia, że problem halucynacji jest wciąż słabo rozpoznany społecznie, a internauci często nie potrafią skutecznie odróżniać treści generowanych przez modele od materiałów tworzonych przez ludzi.

W mediach społecznościowych dyskusja na temat zachowania dziennikarki szybko przybrała negatywny ton - użytkownicy oskarżali ją o nadużycie zaufania. Jednocześnie część debaty skupiła się na rosnącej nieufności wobec nowych technologii i braku świadomości dotyczącej sposobu działania narzędzi generatywnych.

Polskie przykłady nadużyć AI nie kończą się jednak na rynku medialnym. IMM przypomina również o sprawie firmy Exdrog, wykluczonej z przetargu drogowego po tym, jak złożona przez nią dokumentacja – przygotowana przy wsparciu sztucznej inteligencji – okazała się zawierać zmyślone interpretacje podatkowe i nieistniejące przepisy. Ten przypadek, mający 1,3 mln zasięgu mediowego, pokazał, że błędy AI mogą powodować nie tylko chaos informacyjny, lecz także realne skutki prawne i finansowe.

Niebezpieczeństwo korzystania z AI

Zjawisko to wpisuje się w globalny trend. Na świecie halucynacje AI prowadziły już do kompromitacji prawników, którzy przed sądem powoływali się na wymyślone precedensy, czy wtop medialnych takich jak przypadek "Chicago Sun-Times", gdzie narzędzie AI rekomendowało czytelnikom… książki, które nigdy nie powstały.

Z kolei badanie BBC dla Europejskiej Unii Nadawców ujawniło, że blisko 45 proc. odpowiedzi generowanych przez wiodące modele - ChatGPT, Copilota, Geminiego czy Perplexity - zawiera istotne błędy.

Wraz ze wzrostem liczby takich sytuacji narastają pytania o odpowiedzialność prawną. Ekspertka ds. prawa i AI, prof. Justyna Król-Całkowska, zwraca uwagę na brak jasnych regulacji dotyczących tego, kto ponosi odpowiedzialność za szkody spowodowane halucynacjami: twórcy modelu, dostawcy usług czy użytkownik.

Jak podkreśla Tomasz Lubieniecki z IMM, modele językowe są jedynie narzędziami statystycznymi i nie mogą zastąpić ludzkiej weryfikacji – jej pominięcie tworzy prostą drogę do kryzysów wizerunkowych i poważnych strat.

IMM podkreśla wreszcie, że kluczowym elementem walki z dezinformacją jest umiejętność identyfikowania treści tworzonych przez AI. Eksperci wskazują szereg charakterystycznych cech, które mogą świadczyć o tym, że tekst został w całości wygenerowany przez model - od schematycznego formatowania i clickbaitowego tonu, przez nienaturalne i nieudokumentowane dane procentowe, aż po charakterystyczne słownictwo i błyskawiczne tempo powstawania "analiz".

W ich ocenie każdą podejrzaną treść należy weryfikować ze szczególną starannością, zwłaszcza jeśli może mieć wpływ na opinię publiczną lub decyzje biznesowe.

PRACA.WIRTUALNEMEDIA.PL

NAJNOWSZE WIADOMOŚCI

"Rzeczpospolita" tuż przed zmianą właściciela. Znika węgierski miliarder

"Rzeczpospolita" tuż przed zmianą właściciela. Znika węgierski miliarder

Były dziennikarz dalej na czele komisji kultury. Tak poseł PiS nazwał innych

Były dziennikarz dalej na czele komisji kultury. Tak poseł PiS nazwał innych

Konkurent Netfliksa nie odpuszcza. Będzie wrogie przejęcia właściciela TVN?

Konkurent Netfliksa nie odpuszcza. Będzie wrogie przejęcia właściciela TVN?

Nowa audycja muzyczna w Radiu 357. Autorem lider Riverside

Nowa audycja muzyczna w Radiu 357. Autorem lider Riverside

Elastyczny harmonogram płatności - maksymalny komfort przy zakupie nieruchomości
Materiał reklamowy

Elastyczny harmonogram płatności - maksymalny komfort przy zakupie nieruchomości

Pod prąd. Jak Trojmiasto.pl robi media po swojemu

Pod prąd. Jak Trojmiasto.pl robi media po swojemu