Milióny Reddit používateľov bolo zmanipulovaných AI experimentom |
Išlo o neetický výskum tímu z Univerzity v Zürichu.
Výskumníci z Univerzity v Zürichu bez vedomia účastníkov uskutočnili niekoľkomesačnú experimentálnu štúdiu na subreddite r/changemyview, kde nasadili desiatky AI botov, ktorí za štyri mesiace zverejnili viac než 1 700 komentárov. Tie boli štruktúrované tak, aby pôsobili ako skutoční ľudia. Častokrát sa mali pretvarovať za „poradcov pre traumu“ alebo „preživších sexuálneho útoku“ a behom experimentu cielene upravovali svoje odpovede na základe analýzy histórie používateľov. Boti za celý priebeh získali cez 10 000 karma bodov a vyše 100 používateľov im udelilo delta odmenu. Podľa štúdie tak boli komentáre vytvorené umelou inteligenciou až šesťkrát presvedčivejšie ako tie ľudské.
Moderátori subredditu, ktorí experiment odhalili až po jeho skončení, ho označili za porušenie pravidiel komunity a etických štandardov. Následne taktiež podali formálnu sťažnosť na Univerzitu v Zürichu. Reddit sa do toho oprel tiež, keďže následne zablokoval účty spojené s botmi a šéf právneho oddelenia spoločnosti Ben Le, ktorý zvažuje právne stíhanie, sa k situácii vyjadril takto:
„To, čo urobil tento tím z Univerzity v Zürichu, je hlboko nesprávne z morálneho aj právneho hľadiska. Porušuje akademické výskumné aj ľudskoprávne normy a je to zakázané používateľskou zmluvou Redditu a jeho pravidlami, ako aj pravidlami subredditu. Momentálne kontaktujeme Univerzitu v Zürichu a konkrétny výskumný tím s oficiálnymi právnymi požiadavkami.“
Kritik Casey Fiesler z University of Colorado označil tento experiment za jeden z najzávažnejších prešľapov voči etike výskumu na internete, keďže sa používatelia stali nevedomými subjektmi psychologickej manipulácie bez akéhokoľvek súhlasu. To, že výskumníci strojovo analyzovali pohlavie, vek, rasu či politické názory z verejne dostupnej histórie príspevkov, samozrejme, vyvoláva iba ďalšie obavy.
Metodika s nezrejmým prevedením
Pokiaľ ide o samotnú metodiku práce, výskumný tím využil tie najlepšie LLM modely ako GPT-4o, Claude 3.5 Sonnet či Llama 3.1-405B, ktoré dokázali generovať veľmi presvedčivé argumenty, ktoré boli hlavne emocionálne. Následne taktiež výskumníci pripustili, že zber dát a manipulácia používateľmi prebehli bez informovaného súhlasu. Štúdia však bola predložená a recenzovaná Etickou komisiou Fakulty humanitných a sociálnych vied Univerzity v Zürichu v apríli 2024. Komisia ale upozornila na potrebu lepšie odôvodniť metodiku, informovať účastníkov výskumu a dodržať pravidlá platformy, čo sa v samotnom prevedení neudialo.
Etická otázka stále nie je úplne vyriešená
Ide teda o jeden z ďalších prehreškov využitia umelej inteligencie, ktoré budú časom určite iba pribúdať. Je však ale pravdepodobné, že sa budú určovať podmienky využívania AI najmä z morálneho hľadiska, ktoré v tejto branži stále nemá jasnú odpoveď. Táto kauza teda predstavuje varovanie pre akadémie a technologické spoločnosti, že akékoľvek experimenty, ktoré zahŕňajú interakciu s ľuďmi, majú prísne dodržiavať etické normy, obsahovať informovaný súhlas a transparentné postupy, podobne ako pri akomkoľvek inom výskume. V opačnom prípade sa tak iba stratí dôvera v podobné štúdie a dokonca v univerzity, ktoré budú musieť niesť čiastočnú zodpovednosť za ich výskumníkov.
| NAJČÍTANEJŠIE ČLÁNKY TÝŽDŇA |
- Nové Alza dni zľavy spustené 16
- RECENZIA: Ninja Gaiden 4 38
- Shuhei Yoshida tvrdí, že grafický výkon v PlayStation konzolách dosiahol svoj limi 72
- USB-C bude musieť byť v EU aj v nabíjačkách a zdrojoch 37
- Sarah Bond: Nový Xbox bude veľmi hi-end a veľmi prémiový 110
- Bližší pohľad na novú verziu PlayStation 5 Pro a aj nový Dualsense 25
- RECENZIA: Darkenstein 3D 11
- Meta ukončí samostatnú aplikáciu Messenger pre Mac a Windows 34
- RECENZIA: The Outer Worlds 2 26
- RECENZIA: Keeper 33 zobraziť viac článkov >
















