Dziennikarze i odbiorcy mediów boją się sztucznej inteligencji. Chodzi o weryfikację źródeł informacji

Australijski uniwersytet RMIT opublikował najnowszy raport o wpływie AI na media. Publikacja wykazała, że zarówno dziennikarze jak i odbiorcy mediów są coraz bardziej zaniepokojeni generatywną sztuczną inteligencją w dziennikarstwie. – Obawa o wykorzystanie sztucznej inteligencji do rozpowszechniania wprowadzających w błąd lub zwodniczych treści znalazła się na szczycie listy wyzwań zarówno dla dziennikarzy, jak i odbiorców wiadomości – powiedział dr T.J. Thomson z Uniwersytetu RMIT w Melbourne w Australii.

Kinga Walczyk
Kinga Walczyk
Udostępnij artykuł:
Dziennikarze i odbiorcy mediów boją się sztucznej inteligencji. Chodzi o weryfikację źródeł informacji
Fot. Pixabay

Jak podaje Wikipedia, generatywna sztuczna inteligencja, analizowana w raporcie, to ogół narzędzi sztucznej inteligencji służących do generowania tekstu, obrazów, filmów i innych danych z wykorzystaniem modeli generatywnych, najczęściej na podstawie podanych przez użytkownika podpowiedzi (promptów).  

Podsumowujący trzyletnie badania raport RMIT “Generative AI & Journalism” został opublikowany w ARC Centre of Excellence for Automated Decision-Making a Society.

Główny autor raportu, dr T.J. Thomson z Uniwersytetu RMIT w Melbourne w Australii, powiedział, że najbardziej niepokojący jest potencjał treści generowanych lub edytowanych przez sztuczną inteligencję do wprowadzania w błąd lub oszukiwania.

– Obawa o wykorzystanie sztucznej inteligencji do rozpowszechniania wprowadzających w błąd lub zwodniczych treści znalazła się na szczycie listy wyzwań zarówno dla dziennikarzy, jak i odbiorców wiadomości – powiedział Thomson.

Stwierdziliśmy, że dziennikarze są słabo przygotowani do identyfikowania treści generowanych lub edytowanych przez sztuczną inteligencję, co pozostawia ich otwartymi na nieświadome przekazywanie takich treści swoim odbiorcom – dodał.

Dzieje się tak m.in. dlatego, że niewiele redakcji ma w swoich zasobach systematyczne procesy weryfikacji materiałów wizualnych, generowanych przez użytkowników.  

Większość dziennikarzy, biorących udział w badaniu, nie była świadoma zakresu, w jakim sztuczna inteligencja jest coraz częściej integrowana zarówno z kamerami oraz oprogramowaniem do edycji i przetwarzania obrazu lub wideo.

– Sztuczna inteligencja jest czasami wykorzystywana bez wiedzy dziennikarzy lub serwisów informacyjnych – zaznaczył Thompson.

Podczas gdy tylko jedna czwarta ankietowanych odbiorców wiadomości generowanych przez media uważała, że spotkała się z generatywną sztuczną inteligencją w dziennikarstwie, około połowa nie była pewna lub tylko podejrzewała, że tak było.

– Wskazuje to na potencjalny brak przejrzystości ze strony organizacji informacyjnych, gdy korzystają one z generatywnej sztucznej inteligencji lub na brak zaufania pomiędzy serwisami informacyjnymi a odbiorcami – powiedział Thomson.

Okazało się, że odbiorcy wiadomości generowanych przez dziennikarzy korzystających ze sztucznej inteligencji, czują się z tym bardziej komfortowo wtedy, gdy sami używają jej do podobnych celów, takich jak np. rozmycie części obrazu.

– Ludzie, z którymi rozmawialiśmy, wspominali, że używali podobnych narzędzi podczas korzystania z aplikacji do wideokonferencji lub podczas korzystania z trybu portretowego na smartfonach – wyjaśnił Thomson.

Thomson powiedział, że zarówno odbiorcy wiadomości, jak i dziennikarze byli ogólnie zaniepokojeni tym, w jaki sposób organizacje informacyjne wykorzystują - i mogą wykorzystywać - generatywną sztuczną inteligencję.

Większość naszych uczestników czułaby się komfortowo, używając sztucznej inteligencji w celu stworzenia ikon do infografiki, ale już dość niekomfortowo z pomysłem awatara sztucznej inteligencji prezentującego na przykład wiadomości – powiedział.

Badania nad generatywną sztuczną inteligencją zidentyfikowały również faworyzowanie środowisk miejskich nad pozamiejskimi, rzadsze pokazywanie kobiet w bardziej wyspecjalizowanych rolach i ignorowanie osób niepełnosprawnych.

– Te uprzedzenia istnieją z powodu ludzkich uprzedzeń osadzonych w danych szkoleniowych i/lub świadomych lub nieświadomych uprzedzeń tych, którzy opracowują algorytmy i modele sztucznej inteligencji – powiedział Thomson.

Jednak nie wszystkie narzędzia AI są sobie równe. Badanie wykazało, że narzędzia, które wyjaśniają swoje decyzje, ujawniają swoje materiały źródłowe i zapewniają przejrzystość wyników dotyczących ich wykorzystania, są mniej ryzykowne dla dziennikarzy w porównaniu z narzędziami, które nie mają tych cech.

Dziennikarze i odbiorcy obawiali się również, że generatywna sztuczna inteligencja zastąpi ludzi w redakcjach, prowadząc do zmniejszenia liczby miejsc pracy w branży.

– Obawy te odzwierciedlają długą historię wpływu technologii na ludzką siłę roboczą w branży dziennikarskiej – powiedział Thompson.

PRACA.WIRTUALNEMEDIA.PL

NAJNOWSZE WIADOMOŚCI

KRRiT przedłuża koncesje. Chodzi m.in. o stacje Polsatu i Canal+

KRRiT przedłuża koncesje. Chodzi m.in. o stacje Polsatu i Canal+

Polsat Box udostępnił za darmo wiele kanałów

Polsat Box udostępnił za darmo wiele kanałów

Współpracownica Agory bez pieniędzy po porodzie? Firma odpowiada "Solidarności"

Współpracownica Agory bez pieniędzy po porodzie? Firma odpowiada "Solidarności"

KRRiT zaakceptowała plany mediów publicznych. Co z likwidacją kanałów TVP?

KRRiT zaakceptowała plany mediów publicznych. Co z likwidacją kanałów TVP?

Dwa nowe tytuły w ofercie InPostu. Zamówisz je do Paczkomatu

Dwa nowe tytuły w ofercie InPostu. Zamówisz je do Paczkomatu

Nowa prezeska wydawcy "Pisma"

Nowa prezeska wydawcy "Pisma"