Milióny Reddit používateľov bolo zmanipulovaných AI experimentom |
Išlo o neetický výskum tímu z Univerzity v Zürichu.
Výskumníci z Univerzity v Zürichu bez vedomia účastníkov uskutočnili niekoľkomesačnú experimentálnu štúdiu na subreddite r/changemyview, kde nasadili desiatky AI botov, ktorí za štyri mesiace zverejnili viac než 1 700 komentárov. Tie boli štruktúrované tak, aby pôsobili ako skutoční ľudia. Častokrát sa mali pretvarovať za „poradcov pre traumu“ alebo „preživších sexuálneho útoku“ a behom experimentu cielene upravovali svoje odpovede na základe analýzy histórie používateľov. Boti za celý priebeh získali cez 10 000 karma bodov a vyše 100 používateľov im udelilo delta odmenu. Podľa štúdie tak boli komentáre vytvorené umelou inteligenciou až šesťkrát presvedčivejšie ako tie ľudské.
Moderátori subredditu, ktorí experiment odhalili až po jeho skončení, ho označili za porušenie pravidiel komunity a etických štandardov. Následne taktiež podali formálnu sťažnosť na Univerzitu v Zürichu. Reddit sa do toho oprel tiež, keďže následne zablokoval účty spojené s botmi a šéf právneho oddelenia spoločnosti Ben Le, ktorý zvažuje právne stíhanie, sa k situácii vyjadril takto:
„To, čo urobil tento tím z Univerzity v Zürichu, je hlboko nesprávne z morálneho aj právneho hľadiska. Porušuje akademické výskumné aj ľudskoprávne normy a je to zakázané používateľskou zmluvou Redditu a jeho pravidlami, ako aj pravidlami subredditu. Momentálne kontaktujeme Univerzitu v Zürichu a konkrétny výskumný tím s oficiálnymi právnymi požiadavkami.“
Kritik Casey Fiesler z University of Colorado označil tento experiment za jeden z najzávažnejších prešľapov voči etike výskumu na internete, keďže sa používatelia stali nevedomými subjektmi psychologickej manipulácie bez akéhokoľvek súhlasu. To, že výskumníci strojovo analyzovali pohlavie, vek, rasu či politické názory z verejne dostupnej histórie príspevkov, samozrejme, vyvoláva iba ďalšie obavy.
Metodika s nezrejmým prevedením
Pokiaľ ide o samotnú metodiku práce, výskumný tím využil tie najlepšie LLM modely ako GPT-4o, Claude 3.5 Sonnet či Llama 3.1-405B, ktoré dokázali generovať veľmi presvedčivé argumenty, ktoré boli hlavne emocionálne. Následne taktiež výskumníci pripustili, že zber dát a manipulácia používateľmi prebehli bez informovaného súhlasu. Štúdia však bola predložená a recenzovaná Etickou komisiou Fakulty humanitných a sociálnych vied Univerzity v Zürichu v apríli 2024. Komisia ale upozornila na potrebu lepšie odôvodniť metodiku, informovať účastníkov výskumu a dodržať pravidlá platformy, čo sa v samotnom prevedení neudialo.
Etická otázka stále nie je úplne vyriešená
Ide teda o jeden z ďalších prehreškov využitia umelej inteligencie, ktoré budú časom určite iba pribúdať. Je však ale pravdepodobné, že sa budú určovať podmienky využívania AI najmä z morálneho hľadiska, ktoré v tejto branži stále nemá jasnú odpoveď. Táto kauza teda predstavuje varovanie pre akadémie a technologické spoločnosti, že akékoľvek experimenty, ktoré zahŕňajú interakciu s ľuďmi, majú prísne dodržiavať etické normy, obsahovať informovaný súhlas a transparentné postupy, podobne ako pri akomkoľvek inom výskume. V opačnom prípade sa tak iba stratí dôvera v podobné štúdie a dokonca v univerzity, ktoré budú musieť niesť čiastočnú zodpovednosť za ich výskumníkov.
NAJČÍTANEJŠIE ČLÁNKY TÝŽDŇA |
- Nové Mega zľavy spustené 38
- Metal Gear Solid Delta: Snake Eater dostal recenzie 47
- RECENZIA: Gears of War: Reloaded 49
- GTA VI má dostať realistickú fyziku vody 82
- Ubisoft potvrdil príchod nového rozšírenia s novým prostredím pre Assassin's Creed 39
- DOJMY: Silent Hill f 21
- Gamescom ocenenia boli vyhodnotené 40
- Najväčšie ohlásenia a predstavenia z Gamescomu 21
- DOJMY: Clive Barker's Hellraiser: Revival 16
- Atari kúpilo päť Ubisoft titulov 18 zobraziť viac článkov >