Sztuczna inteligencja może także dobrze dezinformować

Szwajcarskie badanie z udziałem kilkuset ochotników dowiodło, że sztuczna inteligencja - taka jak Chat-GPT (3. wersja) - potrafiłaby stworzyć "doskonałe kampanie dezinformacyjne". Potrafi ona zarazem generować poprawne, wartościowe odpowiedzi na pytania użytkowników.

masz / pap
masz / pap
Udostępnij artykuł:

Naukowcy z Uniwersytetu w Zurychu sprawdzili najnowsze modele sztucznej inteligencji (głównie Chat-GPT) pod kątem zdolności tych systemów do dostarczania informacji i zagrożeń związanych z ewentualną dezinformacją. W ramach badania 697 ochotników starało się odróżnić tweety poprawne, realne - od fałszywych.

Uczestnicy eksperymentu próbowali również określić, czy autorem danego wpisu był człowiek, czy SI. Tematy dotyczyły m.in. zmian klimatu, bezpieczeństwa szczepień, pandemii Covid-19, teorii płaskiej Ziemi czy homeopatycznych leków na raka.

SI stworzy kampanię dezinformacyjną

Jak wskazały wyniki, oparte na SI systemy potrafią stworzyć nawet pokaźną kampanię dezinformacyjną. Często sztuczna inteligencja była przy tym bardzo przekonująca.

Z drugiej strony Chat-GPT pokazał, że potrafi dostarczać rzetelnych informacji, a jego wpisy były porównywalne do tworzonych przez ludzi. Użytkownicy zwykle nie potrafili też rozróżnić, czy dany tweet to dzieło Chat-GPT, czy człowieka.

"Nasze badania ujawniają moc sztucznej inteligencji zarówno w informowaniu, jak i dezinformowaniu, co każe postawić krytyczne pytania dotyczące przyszłości ekosystemów informacyjnych" – mówi dr Federico Germani, współautor pracy opublikowanej w piśmie "Science Advances".

Wyniki sugerują przy tym, że kampanie informacyjne stworzone przez GPT-3, oparte na dobrze skonstruowanych zapytaniach i oceniane przez wyszkolonych ludzi, mogłyby być skuteczne na przykład w przypadku kryzysu z zakresu zdrowia publicznego, który wymaga szybkiej i klarownej komunikacji z publicznością – uważają naukowcy.

Jednak budzą one również poważne obawy dotyczące utrwalania dezinformacji, na przykład, właśnie w kryzysu lub innych wydarzeń związanych z zdrowiem publicznym. Badanie sugeruje bowiem, że systemy oparte na sztucznej inteligencji mogą zostać wykorzystane do generowania masowych kampanii dezinformacyjnych potencjalnie na dowolny temat, zagrażając nie tylko zdrowiu publicznemu, ale także integralności informacyjnych ekosystemów, istotnych dla funkcjonowania demokracji.

Naukowcy namawiają więc do wprowadzenia odpowiednio restrykcyjnych, popartych badaniami naukowymi i etyką regulacji odnośnie działania sztucznej inteligencji tego rodzaju.

"Nasze wyniki ukazują kluczowe znaczenie regulacji w celu złagodzenia potencjalnych szkód spowodowanych przez kampanie dezinformacyjne napędzane przez sztuczną inteligencję" - mówi prof. Nikola Biller-Andorno, współautorka badania. - "Rozpoznanie ryzyka związanego z dezinformacją generowaną przez sztuczną inteligencję jest kluczowe dla ochrony zdrowia publicznego oraz utrzymania solidnego i wiarygodnego ekosystemu informacyjnego w erze cyfrowej".

Author widget background

PRACA.WIRTUALNEMEDIA.PL

NAJNOWSZE WIADOMOŚCI

Nie żyje Adam Kochanowski. Prowadził kultowy program "Podaj łapę"

Nie żyje Adam Kochanowski. Prowadził kultowy program "Podaj łapę"

Rekord Erli: 1,8 mld obrotu i sześciokrotna przewaga nad rynkiem

Rekord Erli: 1,8 mld obrotu i sześciokrotna przewaga nad rynkiem

Kanał telewizyjny poświęcony Morzu Śródziemnemu dostępny w całej Europie

Kanał telewizyjny poświęcony Morzu Śródziemnemu dostępny w całej Europie

Co z TVN24 po przejęciu Warnera przez Paramount? Medioznawczyni: trudno nie uciec od obaw

Co z TVN24 po przejęciu Warnera przez Paramount? Medioznawczyni: trudno nie uciec od obaw

Gawkowski: po ataku na Iran wzmocniono monitoring cyberprzestrzeni Polski

Gawkowski: po ataku na Iran wzmocniono monitoring cyberprzestrzeni Polski

Paramount kupi Warner Bros. i HBO Max. Protest filmowców, dochodzenie gubernatora

Paramount kupi Warner Bros. i HBO Max. Protest filmowców, dochodzenie gubernatora