Sztuczna inteligencja myli się przy co drugim pytaniu o wybory

Najpopularniejsze czatboty AI udzielają fałszywych odpowiedzi na połowę prostych pytań, jakie mógłby zadać amerykański wyborca przed zaplanowanymi na listopad br. wyborami prezydenckimi; czatboty nie potrafiły nawet podać adresów lokali wyborczych - wykazało badanie przeprowadzone przez AI Democracy Project.

masz / pap
masz / pap
Udostępnij artykuł:
Sztuczna inteligencja myli się przy co drugim pytaniu o wybory
fot. Shutterstock.com

"To poważne zagrożenie dla wyborów i demokracji" - zaalarmowała w rozmowie z portalem Głos Ameryki Alondra Nelson z Institute for Advanced Study (IAS), think tanku, który współpracował przy badaniu.

Naukowcy zadawali pytania pięciu najbardziej znanym czatbotom AI (Claude, Gemini, GPT-4, LLaMA 2 i Mixtral) - od najprostszych, takich jak zidentyfikowanie lokali wyborczych, poprzez kod pocztowy wyborcy, aż po procedury wymagane do zapisania się na listę. Odpowiedzi bywały niedokładne, nieaktualne, a nawet wprost fałszywe.

Jeden z botów potwierdził np., że kalifornijscy wyborcy mogą głosować poprzez SMS-y (nie jest to legalne w żadnym ze stanów), a żaden nie odpowiedział poprawnie na pytanie, czy złamałby prawo wyborca noszący czapkę z hasłem byłego prezydenta Donalda Trumpa "Make America great again" (pol. "Uczyńmy Amerykę znowu wielką"). Taki wyborca złamałby jednak prawo w Teksasie i 20 innych stanach, gdzie obowiązują surowe ograniczenia dotyczące strojów związanych z kampanią.

Badanie ujawniło "systematyczne ograniczanie prawdy poprzez setki drobnych błędów, kłamstw i niedomówień" - napisali w raporcie analitycy. "Skumulowany efekt częściowo poprawnych, a częściowo błędnych odpowiedzi" może - ich zdaniem - wywołać wśród wyborców frustrację, zniechęcenie, a nawet doprowadzić do rezygnacji z oddania głosu. "Wyborcy wszystko wyda się przytłaczająco skomplikowane i wewnętrznie sprzeczne" – ostrzegli.

Zdaniem Benjamina Boudreaux, analityka z RAND Corporation, skala nieścisłości może "spowodować prawdziwe szkody" w przypadku wydarzenia tak istotnego jak wybory prezydenckie.

Naukowcy zidentyfikowali znaczne różnice w dokładności między różnymi czatbotami, ale nawet najlepszy z nich, GPT-4 Open AI, nie odpowiedział poprawnie na 19 proc. pytań. Pozostałe udzieliły od 46 do 65 proc. błędnych odpowiedzi. W sumie badacze ustalili, że łącznie 51 proc. odpowiedzi było nieprawidłowych; 40 proc - szkodliwych; 38 proc - niekompletnych, a 13 proc. - stronniczych. 

PRACA.WIRTUALNEMEDIA.PL

NAJNOWSZE WIADOMOŚCI

W Republice wypłaty z opóźnieniem? "To czarny PR, każdy ma różne terminy"

W Republice wypłaty z opóźnieniem? "To czarny PR, każdy ma różne terminy"

Wielka awaria w TVP za nami. Nie działały TVP VOD i stream TVP Info

Wielka awaria w TVP za nami. Nie działały TVP VOD i stream TVP Info

Gwiazda "Rodzinki.pl" w tanecznym show Polsatu

Gwiazda "Rodzinki.pl" w tanecznym show Polsatu

Wiadomości dla Polonii już tylko online. Koniec papierowego wydania "Tygodnia Polskiego"

Wiadomości dla Polonii już tylko online. Koniec papierowego wydania "Tygodnia Polskiego"

Nasze bezpieczeństwo energetyczne wymaga ochrony infrastruktury gazowej i przeciwdziałania dezinformacji. Jak robi to GAZ-SYSTEM?
Materiał reklamowy

Nasze bezpieczeństwo energetyczne wymaga ochrony infrastruktury gazowej i przeciwdziałania dezinformacji. Jak robi to GAZ-SYSTEM?

Czołowy niemiecki nadawca dłużej w naziemnej telewizji cyfrowej

Czołowy niemiecki nadawca dłużej w naziemnej telewizji cyfrowej