W rozmowie uczestniczyli: Danuta Breguła-Poniatowska, dyrektorka zarządzająca Onetu, Paulina Gumowska, dyrektorka wydawnicza Grupy PTWP i Marcin Bartnicki, dyrektor Transformacji Produktu Wydawniczego w Wirtualnej Polsce.
1. "Klauzula sumienia" dziennikarzy wobec używania AI nie istnieje – redakcje oczekują, że dziennikarz potrafi i chce z niej korzystać
Choć zdarzały się sytuacje, w których dziennikarze mówili mniej lub bardziej otwarcie: "Nie będę korzystał z AI i nikt mnie do tego nie zmusi", dziś jest to – jak przyznała Danuta Breguła z Onet.pl – postawa praktycznie niefunkcjonująca. W firmach takich jak Ringier Axel Springer Polska proces adopcji narzędzi poszedł tak daleko, że naturalnym oczekiwaniem jest wręcz korzystanie z nich, a wymagania w tej kwestii idą prosto z zagranicznej centrali.

Breguła powiedziała wprost, nawiązując do słów Mathiasa Döpfnera, gobalnego CEO firmy. – Jesteśmy na etapie, w którym pracownik raczej powinien tłumaczyć, dlaczego NIE użył AI.
Zwróciła uwagę, że lata wcześniej podobne opory dotyczyły… korzystania z Google. I tak jak te postawy zniknęły, tak samo znikają obawy wobec sztucznej inteligencji. To ważna zmiana, bo oznacza, że AI przestała być opcją, a stała się elementem warsztatu, tak samo jak wyszukiwarka, telefony czy system CMS.

2. Dyskusja "czy AI zastąpi dziennikarzy" jest już anachroniczna
Paulina Gumowska z Grupy PTWP podkreśliła, że w branży medialnej największy problem polega na tym, że publiczna dyskusja o AI zdominowana jest przez najbardziej powierzchowne pytania: "Czy AI pisze teksty za was?" i "Ile procent informacji generuje sztuczna inteligencja?".
Tymczasem wewnątrz redakcji myśli się dziś zupełnie inaczej. – To nie jest rozmowa o tym, czy AI przejmie pracę dziennikarzy. To rozmowa o tym, jak mądrze z niej korzystać, żeby poprawiać warsztat i efektywność – mówiła.
Gumowska dodała również, że powszechne straszenie AI dawno przestało być uzasadnione. Jej zdaniem media weszły już w fazę pragmatycznej pracy z technologią, gdzie pytaniem numer jeden nie jest to, czy z niej korzystać, ale jak to robić odpowiedzialnie i optymalnie. A to oznacza przesunięcie środka ciężkości: z obaw na praktykę.

3. Wirtualna Polska: nawet 40% tekstów ma jakiś element wygenerowany przez AI, ale każdy przechodzi pełną weryfikację
Marcin Bartnicki z Wirtualnej Polski przyznał otwarcie, że AI na dużą skalę wspiera jego redakcje w tworzeniu treści. Mówimy tu o wykorzystaniu w procesach researchowych, proponowaniu struktur artykułów czy uzupełnianiu prostych fragmentów tekstu.
Bartnicki zaznaczył też, że WP od samego początku prowadzi wewnętrzne badania porównawcze. Wynik? – Czytelnicy nie są w stanie odróżnić tekstów wspomaganych AI od tych pisanych w 100% ręcznie – zdradził.
Wirtualna Polska wprowadzając AI w pracy dziennikarskiej stworzyła specjalną komisję, w której zasiedli np. prawnicy i specjaliści od etyki, a zasady współtworzenia treści są proste, krótkie i jednoznaczne.
Sprowadzają się one do jednego kluczowego zdanie w kontekście odpowiedzialności. – Treści tworzone z użyciem AI traktujemy jak wszystkie inne. Dziennikarz bierze za nie pełną odpowiedzialność, podpisuje się pod nimi swoim nazwiskiem – mówił.

4. Oznaczać czy nie oznaczać treści wygenerowane przez AI
Wydawcy zgadzają się, że wideo, zdjęcia i grafiki wygenerowane przez AI powinny być oznaczane. Wynika to z faktu, że kompetencje informacyjne w Polsce są niskie, a w kwestii wideo i zdjęć jest najwięcej możliwość i nadużyć.
Jednak w przypadku tekstów, zwłaszcza jeśli są podpisane imieniem i nazwiskiem dziennikarza i publikowane przez brand, dla którego rzetelność jest kluczowa, oznaczenie asystowania AI jest kwestionowane.
Danuta Breguła uważa, że "kuchnia powstawania jest mniej istotna niż to czy informacja jest rzetelna, prawdziwa, ciekawa". Jej zdaniem redakcje ciągle odpowiadają za prawdziwość informacji, a nie za to, czy jedno zdanie powstało przy użyciu AI.

5. Odpowiedzialność za treść jest i tak zawsze po stronie redakcji — AI nie zmienia nic w tej kwestii
Paulina Gumowska przypomniała, że także przy automatycznym publikowaniu depesz PAP czy agencyjnych treści odpowiedzialność nie spada z redakcji.
– Jeśli zaciągniemy depeszę, a ona okaże się błędna, to my ponosimy konsekwencje wizerunkowe. A nie PAP – podała przykład.
Zdaniem panelistów to dobry punkt odniesienia dla debaty o AI, ponieważ to nie narzędzie ponosi odpowiedzialność, ale człowiek. To oznacza, że kluczowe jest utrzymanie roli redaktora jako osoby weryfikującej i podpisującej treść.

6. Problem z młodymi dziennikarzami nie wynika z AI, tylko ze spadku prestiżu zawodu
Spytałem też, czy wykorzystanie AI nie powoduje, że młodzi dziennikarze nie mają się gdzie uczyć warsztatu, bo skupiają się na efektywnym generowaniu treści przy użyciu AI. Efektem tego może być fakt, że za parę lat nie wykształcimy kolejnego pokolenia dziennikarzy.
Zdaniem Marcina Bartnickiego problem braku nowych pokoleń dziennikarzy śledczych i autorskich tekstów powstał dużo wcześniej niż AI. Jako przyczynę wskazuje m.in. degradację wizerunku społecznego zawodu oraz łatwość wejścia w kontakt z użytkownikiem przez media społecznościowe. Młodzi dziennikarze muszą nadal przynosić tematy i dobrze je pisać, a AI jest tylko nowym narzędziem wspierającym prostsze newsy
– Luka pokoleniowa nie wzięła się z AI. Wzięła się z tego, że zawód stracił prestiż, a social media dają młodym szybszą drogę do kariery – mówił.
Paneliści wskazywali, że AI nie odbiera młodym możliwości zdobywania doświadczenia – ono po prostu ulega transformacji.
Juniorzy nadal zaczynają od prostych newsów, ale czas pracy skraca się dzięki narzędziom automatyzującym. Nie zmienia to jednak faktu, że prawdziwy rozwój zależy od pomysłów i tematów, a tego żadna technologia za młodych nie zrobi.
7. Koszt używania AI? Zaskakująco niski. Prawdziwe koszty to rozwój własnych narzędzi
Marcin Bartnicki obalił mit, że płaci się fortunę za generowanie treści w tak masowej skali. – To naprawdę niewielkie, pomijalne kwoty z perspektywy budżetu korporacji – powiedział.
Najdroższe są rzeczy dookoła, czyli własne systemy CMS, które uwzględniają asystentów AI, czy budowanie "asystentów redakcyjnych" oraz integracja narzędzi AI z systemami wydawniczymi.
Sam korzystanie z generatywnej AI nie jest kosztowym zabójcą budżetów. Największe inwestycje są strategiczne i dotyczą rozwoju redakcyjnej infrastruktury.
8. Zagrożenie halucynacjami AI: Kluczowa rola krytycznego myślenia
Dużą obawą menadżerów mediów jest niewyłapanie momentu, w którym sztuczna inteligencja zaczyna "halucynować". Danuta Breguła z Onetu wskazuje, że tego procesu nie da się zautomatyzować weryfikacją kolejnym agentem AI, który również może halucynować. Zdolność do weryfikacji i wdrożenia krytycznego myślenia jest zatem "warsztatem przyszłości" w obliczu np. przypisywania cytatów innej osobie przez narzędzia AI
9. Chętnie się chwalimy, niechętnie przyznajemy do błędów. A najlepsze i tak zostawiamy "dla siebie"
Choć przykładów wpadek związanych z użyciem AI nie trzeba szukać daleko, raczej nie było chęci, by wprost przyznać się, że coś poszło nie tak. Ponadto najciekawsze rozwiązania i zastosowania AI, jako element przewagi konkurencyjnej, paneliści zostawili dla siebie.
10. Polska jest nie tyle "do tyłu", co wręcz zaskakująco do przodu w stosunku do Zachodu
W wielu obszarach jesteśmy do przodu względem tradycyjnych zachodnich redakcji. Paneliści zauważyli, że polskie media potrafią wdrażać technologie szybciej, sprawniej i bardziej elastycznie niż duże, ociężałe koncerny zachodnie.
Co ważne, same modele AI nie będą już największym game-changerem. Przyszłość dziennikarstwa zależy od tego, jak redakcje wykorzystają istniejące narzędzia i jak dostosują organizację do nowych realiów.











