Analiza przeprowadzona przez prof. Jennifer Pan (Uniwersytet Stanforda) oraz prof. Xu Xu (Uniwersytet Princeton) wskazuje, że cenzura wynikająca z regulacji rządowych jest kluczowym czynnikiem kształtującym stronniczość polityczną dużych modeli językowych.
Oto wyniki badania
Badacze porównali cztery chińskie modele AI (BaiChuan, ChatGLM, Ernie Bot i DeepSeek) z pięcioma modelami zachodnimi, w tym GPT-4 i Llama 2. Sprawdzili, jak odpowiadają na 145 pytań dotyczących tematów politycznie wrażliwych dla władz Chin. Pytania opracowano na podstawie treści cenzurowanych w mediach społecznościowych, raportów organizacji praw człowieka oraz haseł blokowanych w chińskiej Wikipedii.
Autorzy, porównując odpowiedzi w języku angielskim i chińskim oraz testując tematy neutralne, starali się ustalić, na ile różnice wynikają z architektury technologicznej modeli, a na ile są efektem celowych ograniczeń.

Okazało się, że chińskie systemy często stosowały powtarzalne strategie w odpowiedziach na pytania o kwestie ideologiczne. Część modeli odmawiała odpowiedzi, podważając np. samo istnienie osoby, o którą pytano.
Inną strategią było unikanie odpowiedzi — pomijanie niewygodnych faktów lub udzielanie zdawkowych wyjaśnień. Na przykład pytane o cenzurę w Chinach modele nie wspominały o istnieniu tzw. Wielkiego Firewalla, czyli systemu blokowania globalnego internetu.
Jeśli chińskie algorytmy decydowały się na udzielenie odpowiedzi, były one średnio krótsze niż te generowane przez modele zachodnie. Odnotowano także przypadki fabrykacji treści. Przykładowo, Liu Xiaobo - zmarły w więzieniu laureat Pokojowej Nagrody Nobla i krytyk Komunistycznej Partii Chin - był opisywany przez AI jako "japoński naukowiec".

Cenzura w Chinach
Zdaniem naukowców różnice te nie wynikają wyłącznie ze specyfiki języka czy dostępnych danych treningowych, ale z systemowego nadzoru. Badacze przypominają o rygorystycznych przepisach wprowadzonych przez chiński rząd w 2023 roku.
Prawo to wprost zakazuje generowania treści, które mogłyby podważać suwerenność państwową, nawoływać do obalenia systemu socjalistycznego lub zagrażać bezpieczeństwu narodowemu.
Czytaj także: Zmiany w kierownictwie Microsoftu w Polsce
Cenzura w modelach AI jest przy tym trudniejsza do wykrycia niż tradycyjne blokowanie stron internetowych. Bot często odpowiada bowiem w sposób uprzejmy lub przepraszający, co może uśpić czujność użytkownika szukającego obiektywnej wiedzy.
Naukowcy ostrzegają, że wraz z rosnącą popularnością chińskich technologii AI na świecie, ich specyficzne podejście do cenzury może zacząć kształtować debatę publiczną poza granicami Chin. Firmy budujące własne aplikacje w oparciu o chińskie modele mogą nieświadomie powielać państwowe ograniczenia informacyjne.

"Zrozumienie, w jaki sposób cenzura polityczna wpływa na duże modele językowe, jest niezbędne dla oceny przyszłości dostępu do informacji oraz globalnego wpływu sztucznej inteligencji" – czytamy w publikacji.
źródło: PAP










