„Przepraszam za błąd. Ma Pan rację – mój artykuł był za krótki i zbyt podobny do oryginalnego tekstu. Przygotuję nową, znacznie bardziej rozbudowaną wersję, napisaną całkowicie od podstaw i prostym, zrozumiałym językiem”.
Z tego owocu prawdopodobnej „rozmowy” dziennikarza z narzędziem AI, który trafił do artykułu w jednym z polskich portali internetowych, można się oczywiście zaśmiać. Pokazuje on jednak pewną praktykę.
W newsroomach, zwłaszcza tych internetowych, narzędzia oparte na silnikach sztucznej inteligencji są wykorzystywane na różne sposoby do codziennej pracy. W nieoficjalnych rozmowach dziennikarze przyznają, że narzędzia AI pomagają im w najróżniejszych zadaniach – od tłumaczeń z języka angielskiego, przez analizę dokumentów po poprawki błędów językowych w tekstach.

Pomoc, nie wyręczanie. AI w redakcji
Słowo-klucz to „pomoc”. Problem pojawia się, kiedy dziennikarze, czy to z lenistwa, czy z nadmiaru obowiązków, zaczynają publikować materiały nie napisane samodzielnie, ale przez AI.
By uregulować współpracę z asystentami, kolejne redakcje wprowadzają lub planują wprowadzić kodeksy czy Białe Księgi z zasadami wykorzystywania pracy narzędzi bazujących na sztucznej inteligencji.
Taką Białą Księgę ma już od ponad roku „Rzeczpospolita”. Wydawca prestiżowego tytułu bardzo mocno akcentuje w dokumencie kwestie etycznego i transparentnego użycia technologii w pracy dziennikarskiej, bezpieczeństwa, własności intelektualnej czy ochrony danych wrażliwych.
– Nasze założenie było takie, że dziennikarze mogą i powinni korzystać z rozmaitych narzędzi, które usprawniają ich pracę, ale powinni być świadomi tego, że to oni ponoszą ostatecznie odpowiedzialność, za dzieło, które publikują pod własnym nazwiskiem, dlatego powinni być świadomi ryzyka związanego z korzystaniem z AI, jak również z ciążącej na osobie, która się nią posługuje odpowiedzialności – mówi portalowi Wirtualnemedia Michał Szułdrzyński, redaktor naczelny „Rzeczpospolitej. Dodaje, że redakcja wprowadziła stosowne zapisy „świadomego i etycznego korzystania AI” w umowach z autorami gościnnymi.

„Dekalog etycznego i świadomego wykorzystania AI", wprowadzony przez „Rzeczpospolitą" liczy 10 punktów. Ujęto w nim takie kwestie jak: etyka, bezpieczeństwo, własność intelektualna, transparentność, prywatność i ochrona danych wrażliwych.
Pierwszy punkt kodeksu poświęcony jest rzetelności i wiarygodności dziennikarzy. Czytamy w nim:
„Dziennikarstwo jest specyficzną dziedziną ludzkiej działalności. Sztuczna inteligencja (AI) to zbiorcza nazwa różnych technologii, które są w stanie wesprzeć dziennikarza w jego działalności, ale nie mogą go zastąpić. Wierzymy, że generatywna sztuczna inteligencja może być pomocna w szukaniu tematów, podpowiadaniu fraz kluczowych, ocenie tekstu itp. Redakcja „Rzeczpospolitej” tym różni się jednak od rynku, że gwarantuje jakość i wiarygodność, a to wciąż domena dziennikarzy”.

Kolejny punkt poświęcono świadomości, że AI to tylko narzędzie.
„Jak w przypadku każdego narzędzia ostateczna odpowiedzialność za efekty jego użycia spoczywa na tym, kto je wykorzystuje. Dlatego każdy dziennikarz, redaktor czy pracownik techniczny musi być świadom zarówno korzyści, jak i ryzyk związanych z korzystaniem z AI” – czytamy w kodeksie „Rzeczpospolitej”.
Bardzo ważny punkt dokumentu dotyczy kontekstu dezinformacji. „Już dziś zalew sztucznie generowanego kontentu zwiększa zagrożenie dezinformacją i manipulacją. Trzeba się nauczyć tak wykorzystywać AI, by tym zjawiskom przeciwdziałać, a nie je wzmacniać” - instruuje swoich dziennikarzy “Rzeczpospolita”.
Kolejni wydawcy regulują zasady korzystania z AI

Nad własną „Białą Księgą AI” dla całego pionu wydawniczego i dziennikarzy pracuje Grupa PTWP - prace mają się zakończyć do końca maja.
– Obecnie przeprowadzamy duże wewnętrzne badanie, którego wyniki posłużą nam do przygotowania dokumentu. Dodatkowo planujemy też opracowanie własnych narzędzi opartych o sztuczną inteligencję, które pomogą dziennikarzom i wydawcom w codziennej pracy. Za projekt odpowiada nasza dziennikarka Anna Wittenberg, znakomicie znająca tematykę technologiczną – zdradza nam Paulina Gumowska, dyrektorka wydawnicza Grupy PTWP.
Anna Wittenberg dodaje: – Jako media musimy budować zaufanie czytelników. W dobie AI to najcenniejsze co mamy. Po tych dwóch latach, od kiedy generatywna sztuczna inteligencja na stałe wkroczyła do newsroomów, wiemy już, że z nami zostanie. W PTWP znamy już możliwości AI, zanim jednak zaczniemy ją wdrażać systemowo, chcemy ustalić jasne i przejrzyste zasady, na których będziemy to robić. Obserwując jako dziennikarka wykorzystanie narzędzi AI w innych branżach, widzę dużo zagrożeń. Dlatego wychodzimy od wartości naszej spółki – eksperckości, wiarygodności – i próbujemy umówić się na takie zasady korzystania z AI, które ich nie naruszą. Jasne zasady upewnią pracowników, że spółka nie będzie zastępować AI ich etatów.

W Ringier Axel Springer Polska, wydawcy m.in. Onetu i "Newsweeka", zasady dotyczące korzystania z narzędzi AI obowiązują od ponad roku.
– Dedykowany dokument określa odpowiedzialności, podkreśla ryzyka i znaczenie praw autorskich. W redakcjach istnieją również bardziej szczegółowe zasady używania AI, które zostały wypracowane przez redakcje z udziałem działu prawnego oraz przedstawicieli obszaru technologii. Regulują one m.in. użycie narzędzi do generowania obrazów oraz treści – wyjaśnianam Agnieszka Skrzypek-Makowska, zastępca dyrektora komunikacji korporacyjnej w RASP.
Sztuczna inteligencja wspiera redakcje RASP w tworzeniu tytułów i skrótów, w transkrypcji treści wideo i transkrypcji tekstów na audio, tworzeniu quizów, a także do omawianiu i tłumaczeniu tekstów zagranicznych.

Już jedna trzecia treści mediów RASP powstaje z wykorzystaniem narzędzi sztucznej inteligencji, wdrożonych w ekosystemie platformy wydawniczej Ring Publishing (to cms na którym pracuje wydawca Onetu). Odpowiadają one za 27 proc. ruchu - poinformował wydawca na tegorocznym Światowym Kongresie Mediów Informacyjnych w Krakowie.
– Pracownicy RASP, w tym dziennikarze, mają dostęp do szerokich możliwości edukacyjnych w zakresie AI. Na początku 2024 roku powołano inicjatywę – Akademię AI, czyli działania edukacyjne dla pracowników RASP, które pomagają odnajdywać się w rzeczywistości sztucznej inteligencji i świadomego oraz odpowiedzialnego użycia technologii przez dziennikarzy – mówi Agnieszka Skrzypek-Makowska z RASP.
Grupa Wirtualna Polska już w 2023 roku powołała zespół, którego zadaniem było opracowanie zasad korzystania z narzędzi opartych na sztucznej inteligencji.

– Zasady te zostały wpisane do Kodeksu Etyki Dziennikarskiej WP i regulują m.in. odpowiedzialność za publikacje tworzone przy wsparciu AI, konieczność udziału dziennikarza w całym procesie oraz obowiązek zatwierdzania takich materiałów przez wydawcę. Treści wspierane przez AI podlegają tym samym standardom prawnym, etycznym i redakcyjnym co pozostałe publikacje – tłumaczy nam Michał Siegieda, rzecznik WP.
Wirtualna Polska nie publikuje treści stworzonych całkowicie w narzędziach AI. Dziennikarze mogą tylko się nimi wspomagać - zapewnia wydawca.
W Interii nie ma osobnego kodeksu określającego ramy współpracy dziennikarzy z AI. – Narzędzia zaprojektowane na bazie sztucznej inteligencji mogą być i są przydatnymi udogodnieniami w naszej codziennej pracy. Zakres i sposób ich wykorzystania są bardzo dynamiczne. Każdy przypadek traktujemy indywidualnie i omawiamy wewnętrznie w zespole – wyjaśnia Paweł Baryś z działu PR Grupy Polsat - Interia.

Zobacz: Naukowiec punktuje tekst na Onecie za zmyślone przez AI źródła. Tekst znika, portal wyjaśnia
AI i media. Jak pływać, żeby nie utonąć
W dającej się przewidzieć przyszłości era AI w mediach „trwa i trwa mać”. Jednak to nie ChatGPT pojedzie zrobić reportażu wojennego, nie nagłośni sam kolejnej kompromitującej polityka afery, nie dotrze do świadków tragicznego wypadku i z nimi nie porozmawia. Słowem, długo jeszcze mediów w ich podstawowej roli nie zastąpi. Redakcje muszą pamiętać, by we wspomaganiu się AI nie zgubić istoty tego zawodu.
– Posiadanie zbioru zasad korzystania z narzędzi sztucznej inteligencji dla dziennikarzy i redaktorów będzie w mojej ocenie koniecznością dla każdego, kto będzie chciał uchodzić za poważne medium. Potrzeba takich dokumentów, aby sztuczna inteligencja nie zwróciła się przeciwko nam, dziennikarzom. Taka biała księga pozwala unikać kompromitacji w oczach odbiorców i konkurencji – podsumowuje w rozmowie z Wirtualnamedia,pl Anna Wittenberg, dziennikarka technologiczna WNP.pl.











