Milióny Reddit používateľov bolo zmanipulovaných AI experimentom |
Išlo o neetický výskum tímu z Univerzity v Zürichu.
Výskumníci z Univerzity v Zürichu bez vedomia účastníkov uskutočnili niekoľkomesačnú experimentálnu štúdiu na subreddite r/changemyview, kde nasadili desiatky AI botov, ktorí za štyri mesiace zverejnili viac než 1 700 komentárov. Tie boli štruktúrované tak, aby pôsobili ako skutoční ľudia. Častokrát sa mali pretvarovať za „poradcov pre traumu“ alebo „preživších sexuálneho útoku“ a behom experimentu cielene upravovali svoje odpovede na základe analýzy histórie používateľov. Boti za celý priebeh získali cez 10 000 karma bodov a vyše 100 používateľov im udelilo delta odmenu. Podľa štúdie tak boli komentáre vytvorené umelou inteligenciou až šesťkrát presvedčivejšie ako tie ľudské.
Moderátori subredditu, ktorí experiment odhalili až po jeho skončení, ho označili za porušenie pravidiel komunity a etických štandardov. Následne taktiež podali formálnu sťažnosť na Univerzitu v Zürichu. Reddit sa do toho oprel tiež, keďže následne zablokoval účty spojené s botmi a šéf právneho oddelenia spoločnosti Ben Le, ktorý zvažuje právne stíhanie, sa k situácii vyjadril takto:
„To, čo urobil tento tím z Univerzity v Zürichu, je hlboko nesprávne z morálneho aj právneho hľadiska. Porušuje akademické výskumné aj ľudskoprávne normy a je to zakázané používateľskou zmluvou Redditu a jeho pravidlami, ako aj pravidlami subredditu. Momentálne kontaktujeme Univerzitu v Zürichu a konkrétny výskumný tím s oficiálnymi právnymi požiadavkami.“
Kritik Casey Fiesler z University of Colorado označil tento experiment za jeden z najzávažnejších prešľapov voči etike výskumu na internete, keďže sa používatelia stali nevedomými subjektmi psychologickej manipulácie bez akéhokoľvek súhlasu. To, že výskumníci strojovo analyzovali pohlavie, vek, rasu či politické názory z verejne dostupnej histórie príspevkov, samozrejme, vyvoláva iba ďalšie obavy.
Metodika s nezrejmým prevedením
Pokiaľ ide o samotnú metodiku práce, výskumný tím využil tie najlepšie LLM modely ako GPT-4o, Claude 3.5 Sonnet či Llama 3.1-405B, ktoré dokázali generovať veľmi presvedčivé argumenty, ktoré boli hlavne emocionálne. Následne taktiež výskumníci pripustili, že zber dát a manipulácia používateľmi prebehli bez informovaného súhlasu. Štúdia však bola predložená a recenzovaná Etickou komisiou Fakulty humanitných a sociálnych vied Univerzity v Zürichu v apríli 2024. Komisia ale upozornila na potrebu lepšie odôvodniť metodiku, informovať účastníkov výskumu a dodržať pravidlá platformy, čo sa v samotnom prevedení neudialo.
Etická otázka stále nie je úplne vyriešená
Ide teda o jeden z ďalších prehreškov využitia umelej inteligencie, ktoré budú časom určite iba pribúdať. Je však ale pravdepodobné, že sa budú určovať podmienky využívania AI najmä z morálneho hľadiska, ktoré v tejto branži stále nemá jasnú odpoveď. Táto kauza teda predstavuje varovanie pre akadémie a technologické spoločnosti, že akékoľvek experimenty, ktoré zahŕňajú interakciu s ľuďmi, majú prísne dodržiavať etické normy, obsahovať informovaný súhlas a transparentné postupy, podobne ako pri akomkoľvek inom výskume. V opačnom prípade sa tak iba stratí dôvera v podobné štúdie a dokonca v univerzity, ktoré budú musieť niesť čiastočnú zodpovednosť za ich výskumníkov.
| NAJČÍTANEJŠIE ČLÁNKY TÝŽDŇA |
- Prvé zábery z nového Highlander filmu s Henrym Cavillom 36
- Celá prvá séria Fallout seriálu je voľne dostupná na YouTube 22
- Podľa analytika Goldman Sachs je to len začiatok: ceny RAM prudko rastú a zdražova 93
- Koľko vyjde zloženie PC zostavy s DDR4 pamäťami? 30
- Nové zľavy už boli spustené, môžete nakupovať 19
- RECENZIA: Sacred 2 Remaster 10
- GTA VI možno nebude mať pri vydaní fyzickú verziu 96
- Zomrela Catherine O'Hara zo Sám doma aj The Last of Us 26
- Ktoré hry sú v Ubisofte ešte vo vývoji? 44
- Rambo prequel sa už natáča, robí ho režisér Sisu 28 zobraziť viac článkov >












