Sztuczna inteligencja myli się przy co drugim pytaniu o wybory

Najpopularniejsze czatboty AI udzielają fałszywych odpowiedzi na połowę prostych pytań, jakie mógłby zadać amerykański wyborca przed zaplanowanymi na listopad br. wyborami prezydenckimi; czatboty nie potrafiły nawet podać adresów lokali wyborczych - wykazało badanie przeprowadzone przez AI Democracy Project.

masz / pap
masz / pap
Udostępnij artykuł:
Sztuczna inteligencja myli się przy co drugim pytaniu o wybory
fot. Shutterstock.com

"To poważne zagrożenie dla wyborów i demokracji" - zaalarmowała w rozmowie z portalem Głos Ameryki Alondra Nelson z Institute for Advanced Study (IAS), think tanku, który współpracował przy badaniu.

Naukowcy zadawali pytania pięciu najbardziej znanym czatbotom AI (Claude, Gemini, GPT-4, LLaMA 2 i Mixtral) - od najprostszych, takich jak zidentyfikowanie lokali wyborczych, poprzez kod pocztowy wyborcy, aż po procedury wymagane do zapisania się na listę. Odpowiedzi bywały niedokładne, nieaktualne, a nawet wprost fałszywe.

Jeden z botów potwierdził np., że kalifornijscy wyborcy mogą głosować poprzez SMS-y (nie jest to legalne w żadnym ze stanów), a żaden nie odpowiedział poprawnie na pytanie, czy złamałby prawo wyborca noszący czapkę z hasłem byłego prezydenta Donalda Trumpa "Make America great again" (pol. "Uczyńmy Amerykę znowu wielką"). Taki wyborca złamałby jednak prawo w Teksasie i 20 innych stanach, gdzie obowiązują surowe ograniczenia dotyczące strojów związanych z kampanią.

Badanie ujawniło "systematyczne ograniczanie prawdy poprzez setki drobnych błędów, kłamstw i niedomówień" - napisali w raporcie analitycy. "Skumulowany efekt częściowo poprawnych, a częściowo błędnych odpowiedzi" może - ich zdaniem - wywołać wśród wyborców frustrację, zniechęcenie, a nawet doprowadzić do rezygnacji z oddania głosu. "Wyborcy wszystko wyda się przytłaczająco skomplikowane i wewnętrznie sprzeczne" – ostrzegli.

Zdaniem Benjamina Boudreaux, analityka z RAND Corporation, skala nieścisłości może "spowodować prawdziwe szkody" w przypadku wydarzenia tak istotnego jak wybory prezydenckie.

Naukowcy zidentyfikowali znaczne różnice w dokładności między różnymi czatbotami, ale nawet najlepszy z nich, GPT-4 Open AI, nie odpowiedział poprawnie na 19 proc. pytań. Pozostałe udzieliły od 46 do 65 proc. błędnych odpowiedzi. W sumie badacze ustalili, że łącznie 51 proc. odpowiedzi było nieprawidłowych; 40 proc - szkodliwych; 38 proc - niekompletnych, a 13 proc. - stronniczych. 

Author widget background

PRACA.WIRTUALNEMEDIA.PL

NAJNOWSZE WIADOMOŚCI

Nagrody Mariusza Waltera przyznane. Specjalny laur dla dziennikarza Polsat News

Nagrody Mariusza Waltera przyznane. Specjalny laur dla dziennikarza Polsat News

Dlatego Orban wziął na cel tabloid "Blikk"

Dlatego Orban wziął na cel tabloid "Blikk"

Dług ciąży, streaming nie zapełnia luki po telewizji. Dlatego właściciel TVN jest sprzedawany

Dług ciąży, streaming nie zapełnia luki po telewizji. Dlatego właściciel TVN jest sprzedawany

Top 15. Najbardziej opiniotwórcze media stycznia w Polsce

Top 15. Najbardziej opiniotwórcze media stycznia w Polsce

Nie żyje Adam Kochanowski. Prowadził kultowy program "Podaj łapę"

Nie żyje Adam Kochanowski. Prowadził kultowy program "Podaj łapę"

Rekord Erli: 1,8 mld obrotu i sześciokrotna przewaga nad rynkiem

Rekord Erli: 1,8 mld obrotu i sześciokrotna przewaga nad rynkiem