Milióny Reddit používateľov bolo zmanipulovaných AI experimentom |
Išlo o neetický výskum tímu z Univerzity v Zürichu.
Výskumníci z Univerzity v Zürichu bez vedomia účastníkov uskutočnili niekoľkomesačnú experimentálnu štúdiu na subreddite r/changemyview, kde nasadili desiatky AI botov, ktorí za štyri mesiace zverejnili viac než 1 700 komentárov. Tie boli štruktúrované tak, aby pôsobili ako skutoční ľudia. Častokrát sa mali pretvarovať za „poradcov pre traumu“ alebo „preživších sexuálneho útoku“ a behom experimentu cielene upravovali svoje odpovede na základe analýzy histórie používateľov. Boti za celý priebeh získali cez 10 000 karma bodov a vyše 100 používateľov im udelilo delta odmenu. Podľa štúdie tak boli komentáre vytvorené umelou inteligenciou až šesťkrát presvedčivejšie ako tie ľudské.
Moderátori subredditu, ktorí experiment odhalili až po jeho skončení, ho označili za porušenie pravidiel komunity a etických štandardov. Následne taktiež podali formálnu sťažnosť na Univerzitu v Zürichu. Reddit sa do toho oprel tiež, keďže následne zablokoval účty spojené s botmi a šéf právneho oddelenia spoločnosti Ben Le, ktorý zvažuje právne stíhanie, sa k situácii vyjadril takto:
„To, čo urobil tento tím z Univerzity v Zürichu, je hlboko nesprávne z morálneho aj právneho hľadiska. Porušuje akademické výskumné aj ľudskoprávne normy a je to zakázané používateľskou zmluvou Redditu a jeho pravidlami, ako aj pravidlami subredditu. Momentálne kontaktujeme Univerzitu v Zürichu a konkrétny výskumný tím s oficiálnymi právnymi požiadavkami.“
Kritik Casey Fiesler z University of Colorado označil tento experiment za jeden z najzávažnejších prešľapov voči etike výskumu na internete, keďže sa používatelia stali nevedomými subjektmi psychologickej manipulácie bez akéhokoľvek súhlasu. To, že výskumníci strojovo analyzovali pohlavie, vek, rasu či politické názory z verejne dostupnej histórie príspevkov, samozrejme, vyvoláva iba ďalšie obavy.
Metodika s nezrejmým prevedením
Pokiaľ ide o samotnú metodiku práce, výskumný tím využil tie najlepšie LLM modely ako GPT-4o, Claude 3.5 Sonnet či Llama 3.1-405B, ktoré dokázali generovať veľmi presvedčivé argumenty, ktoré boli hlavne emocionálne. Následne taktiež výskumníci pripustili, že zber dát a manipulácia používateľmi prebehli bez informovaného súhlasu. Štúdia však bola predložená a recenzovaná Etickou komisiou Fakulty humanitných a sociálnych vied Univerzity v Zürichu v apríli 2024. Komisia ale upozornila na potrebu lepšie odôvodniť metodiku, informovať účastníkov výskumu a dodržať pravidlá platformy, čo sa v samotnom prevedení neudialo.
Etická otázka stále nie je úplne vyriešená
Ide teda o jeden z ďalších prehreškov využitia umelej inteligencie, ktoré budú časom určite iba pribúdať. Je však ale pravdepodobné, že sa budú určovať podmienky využívania AI najmä z morálneho hľadiska, ktoré v tejto branži stále nemá jasnú odpoveď. Táto kauza teda predstavuje varovanie pre akadémie a technologické spoločnosti, že akékoľvek experimenty, ktoré zahŕňajú interakciu s ľuďmi, majú prísne dodržiavať etické normy, obsahovať informovaný súhlas a transparentné postupy, podobne ako pri akomkoľvek inom výskume. V opačnom prípade sa tak iba stratí dôvera v podobné štúdie a dokonca v univerzity, ktoré budú musieť niesť čiastočnú zodpovednosť za ich výskumníkov.
| NAJČÍTANEJŠIE ČLÁNKY TÝŽDŇA |
- RECENZIA: Crimson Desert 172
- Nové megazľavy spustené 46
- Recenzie na Crimson Desert vychádzajú 84
- Vyšla parodická hra Pingeon Come: Bentleyrance 33
- Nvidia predstavila DLSS 5, príde na jeseň 139
- Zomrel Chuck Norris 114
- Microsoft pripravuje veľké úpravy Windows 11, príde flexibilnejší taskbar, menej r 79
- RECENZIA: Marathon 50
- V reakcii na hodnotenia Crimson Desert klesli akcie Pearl Abyss o takmer 30% 83
- DLSS 5 zachová umelecký štýl autorov, sami si vyberú, čo a ako zapracujú 175 zobraziť viac článkov >













