SzukajSzukaj
dołącz do nasFacebookGoogleLinkedinTwitter

Sztuczna inteligencja myli się przy co drugim pytaniu o wybory

Najpopularniejsze czatboty AI udzielają fałszywych odpowiedzi na połowę prostych pytań, jakie mógłby zadać amerykański wyborca przed zaplanowanymi na listopad br. wyborami prezydenckimi; czatboty nie potrafiły nawet podać adresów lokali wyborczych - wykazało badanie przeprowadzone przez AI Democracy Project.

fot. Shutterstock.comfot. Shutterstock.com

"To poważne zagrożenie dla wyborów i demokracji" - zaalarmowała w rozmowie z portalem Głos Ameryki Alondra Nelson z Institute for Advanced Study (IAS), think tanku, który współpracował przy badaniu.

Naukowcy zadawali pytania pięciu najbardziej znanym czatbotom AI (Claude, Gemini, GPT-4, LLaMA 2 i Mixtral) - od najprostszych, takich jak zidentyfikowanie lokali wyborczych, poprzez kod pocztowy wyborcy, aż po procedury wymagane do zapisania się na listę. Odpowiedzi bywały niedokładne, nieaktualne, a nawet wprost fałszywe.

Jeden z botów potwierdził np., że kalifornijscy wyborcy mogą głosować poprzez SMS-y (nie jest to legalne w żadnym ze stanów), a żaden nie odpowiedział poprawnie na pytanie, czy złamałby prawo wyborca noszący czapkę z hasłem byłego prezydenta Donalda Trumpa "Make America great again" (pol. "Uczyńmy Amerykę znowu wielką"). Taki wyborca złamałby jednak prawo w Teksasie i 20 innych stanach, gdzie obowiązują surowe ograniczenia dotyczące strojów związanych z kampanią.

Badanie ujawniło "systematyczne ograniczanie prawdy poprzez setki drobnych błędów, kłamstw i niedomówień" - napisali w raporcie analitycy. "Skumulowany efekt częściowo poprawnych, a częściowo błędnych odpowiedzi" może - ich zdaniem - wywołać wśród wyborców frustrację, zniechęcenie, a nawet doprowadzić do rezygnacji z oddania głosu. "Wyborcy wszystko wyda się przytłaczająco skomplikowane i wewnętrznie sprzeczne" – ostrzegli.

Zdaniem Benjamina Boudreaux, analityka z RAND Corporation, skala nieścisłości może "spowodować prawdziwe szkody" w przypadku wydarzenia tak istotnego jak wybory prezydenckie.

Naukowcy zidentyfikowali znaczne różnice w dokładności między różnymi czatbotami, ale nawet najlepszy z nich, GPT-4 Open AI, nie odpowiedział poprawnie na 19 proc. pytań. Pozostałe udzieliły od 46 do 65 proc. błędnych odpowiedzi. W sumie badacze ustalili, że łącznie 51 proc. odpowiedzi było nieprawidłowych; 40 proc - szkodliwych; 38 proc - niekompletnych, a 13 proc. - stronniczych. 

Dołącz do dyskusji: Sztuczna inteligencja myli się przy co drugim pytaniu o wybory

0 komentarze
Publikowane komentarze są prywatnymi opiniami użytkowników portalu. Wirtualnemedia.pl nie ponosi odpowiedzialności za treść opinii. Jeżeli którykolwiekz postów na forum łamie dobre obyczaje, zawiadom nas o tym redakcja@wirtualnemedia.pl