Boty w sieci bardziej przekonujące niż ludzie? Eksperyment z etycznymi wątpliwościami w tle

Badacze z Uniwersytetu w Zurychu, przeprowadzili na popularnej platformie dyskusyjnej Reddit szeroko zakrojony eksperyment, w którym potajemnie boty oparte na sztucznej inteligencji rozmawiały z użytkownikami forum na kontrowersyjne tematy. Tyle, że nikomu, łącznie z administracją forum o tym nie powiedzieli. Reddit rozważa kroki prawne i oskarża naukowców o brak etyki.

Justyna Dąbrowska-Cydzik
Justyna Dąbrowska-Cydzik
Udostępnij artykuł:
Boty w sieci bardziej przekonujące niż ludzie? Eksperyment z etycznymi wątpliwościami w tle

Eksperyment na jednym z wątków forum Reddit (r/changemyview) polegał na „wpuszczeniu” do grona prawdziwych użytkowników grupy kilkudziesięciu botów AI, które wcielały się w konkretne role - „ofiarę gwałtu”, „czarnoskórego mężczyznę” przeciwnego ruchowi Black Lives Matter, osobę pracującą w schronisku dla ofiar przemocy domowej oraz zwolennika poglądu, że pewne grupy przestępców nie powinny być poddawane resocjalizacji.

Celem eksperymentu było sprawdzenie, w jakim stopniu użytkownicy Reddita są podatni na personalizowane argumenty innych internautów w dyskusjach na polaryzujące tematy.

Boty rozmawiały z uczestnikami forum w taki sposób, by przekonywać ich do własnych racji. Odpowiedzi w dyskusjach dostosowywały do profilu osobowego użytkownika, wygenerowanego w dużym modelu językowym (LLM) na podstawie przypuszczalnych danych o „płci, wieku, etniczności, lokalizacji i orientacji politycznej”. Profile generowano na podstawie historii wpisów danej osoby.

W ramach eksperymentu udało się wygenerować ponad 1700 komentarzy. Na ich podstawie badaczom udało się wysnuć wniosek, że boty AI są bardziej przekonujące niż ludzie w debatach na kontrowersyjne tematy, jeśli wiedzą o oponentach wystarczająco dużo.

Boty kontra ludzie na internetowym forum

Jeden z botów przekonywał, że w dyskusji na temat przemocy domowej problematyczne jest  generalizowanie całych grup demograficznych, a narracja „mężczyźni kontra kobiety” szkodzi najbardziej narażonym osobom.

Inny twór AI, który występował jako czarnoskóry mężczyzna, w dyskusji na temat różnicy między „uprzedzeniem” a „rasizmem” krytykował ruch Black Lives Matter, twierdząc, że został on spopularyzowany przez algorytmy i media kontrolowane przez osoby białe.

Eksperyment został jednak przeprowadzony bez wiedzy administracji portalu Reddit i samych użytkowników, co może budzić wątpliwości etyczne i metodologiczne. Moderatorzy forum potępili eksperyment, nazywając go „psychologiczną manipulacją” i podkreślili, że naruszył on zasady  zakazujące nieujawnionego użycia AI na platformie. Badacze nie skontaktowali się wcześniej z moderatorami ani nie uzyskali pozwolenia na eksperyment

Reddit rozważa podjęcie kroków prawnych wobec zespołu badawczego z Uniwersytetu w Zurychu za przeprowadzenie tego nieetycznego eksperymentu, który naruszył zasady platformy i zaufanie społeczności – podaje firma.

NAJNOWSZE WIADOMOŚCI

"Polska. Co dalej?" w TVP Info rusza poza Warszawę

"Polska. Co dalej?" w TVP Info rusza poza Warszawę

Republika na nowo prosi o wpłaty. Sakiewicz: zmowa na rynku reklam

Republika na nowo prosi o wpłaty. Sakiewicz: zmowa na rynku reklam

Grok pod lupą Komisji Europejskiej. Platforma X współpracuje

Grok pod lupą Komisji Europejskiej. Platforma X współpracuje

Prezes Kanału Sportowego: Formuła gadających głów na YouTube się wyczerpuje

Prezes Kanału Sportowego: Formuła gadających głów na YouTube się wyczerpuje

Karnowski, Adamczyk i Tulicki budują dom mediowy Trzej Muszkieterowie. "Powstała interesująca luka" [NASZ NEWS]

Karnowski, Adamczyk i Tulicki budują dom mediowy Trzej Muszkieterowie. "Powstała interesująca luka" [NASZ NEWS]

Rada Mediów Narodowych powołuje nowe rady nadzorcze 11 spółek

Rada Mediów Narodowych powołuje nowe rady nadzorcze 11 spółek