Eksperyment na jednym z wątków forum Reddit (r/changemyview) polegał na „wpuszczeniu” do grona prawdziwych użytkowników grupy kilkudziesięciu botów AI, które wcielały się w konkretne role - „ofiarę gwałtu”, „czarnoskórego mężczyznę” przeciwnego ruchowi Black Lives Matter, osobę pracującą w schronisku dla ofiar przemocy domowej oraz zwolennika poglądu, że pewne grupy przestępców nie powinny być poddawane resocjalizacji.
Celem eksperymentu było sprawdzenie, w jakim stopniu użytkownicy Reddita są podatni na personalizowane argumenty innych internautów w dyskusjach na polaryzujące tematy.
Boty rozmawiały z uczestnikami forum w taki sposób, by przekonywać ich do własnych racji. Odpowiedzi w dyskusjach dostosowywały do profilu osobowego użytkownika, wygenerowanego w dużym modelu językowym (LLM) na podstawie przypuszczalnych danych o „płci, wieku, etniczności, lokalizacji i orientacji politycznej”. Profile generowano na podstawie historii wpisów danej osoby.

W ramach eksperymentu udało się wygenerować ponad 1700 komentarzy. Na ich podstawie badaczom udało się wysnuć wniosek, że boty AI są bardziej przekonujące niż ludzie w debatach na kontrowersyjne tematy, jeśli wiedzą o oponentach wystarczająco dużo.
Boty kontra ludzie na internetowym forum
Jeden z botów przekonywał, że w dyskusji na temat przemocy domowej problematyczne jest generalizowanie całych grup demograficznych, a narracja „mężczyźni kontra kobiety” szkodzi najbardziej narażonym osobom.
Inny twór AI, który występował jako czarnoskóry mężczyzna, w dyskusji na temat różnicy między „uprzedzeniem” a „rasizmem” krytykował ruch Black Lives Matter, twierdząc, że został on spopularyzowany przez algorytmy i media kontrolowane przez osoby białe.

Eksperyment został jednak przeprowadzony bez wiedzy administracji portalu Reddit i samych użytkowników, co może budzić wątpliwości etyczne i metodologiczne. Moderatorzy forum potępili eksperyment, nazywając go „psychologiczną manipulacją” i podkreślili, że naruszył on zasady zakazujące nieujawnionego użycia AI na platformie. Badacze nie skontaktowali się wcześniej z moderatorami ani nie uzyskali pozwolenia na eksperyment
Reddit rozważa podjęcie kroków prawnych wobec zespołu badawczego z Uniwersytetu w Zurychu za przeprowadzenie tego nieetycznego eksperymentu, który naruszył zasady platformy i zaufanie społeczności – podaje firma.











