Milióny Reddit používateľov bolo zmanipulovaných AI experimentom |
Išlo o neetický výskum tímu z Univerzity v Zürichu.
Výskumníci z Univerzity v Zürichu bez vedomia účastníkov uskutočnili niekoľkomesačnú experimentálnu štúdiu na subreddite r/changemyview, kde nasadili desiatky AI botov, ktorí za štyri mesiace zverejnili viac než 1 700 komentárov. Tie boli štruktúrované tak, aby pôsobili ako skutoční ľudia. Častokrát sa mali pretvarovať za „poradcov pre traumu“ alebo „preživších sexuálneho útoku“ a behom experimentu cielene upravovali svoje odpovede na základe analýzy histórie používateľov. Boti za celý priebeh získali cez 10 000 karma bodov a vyše 100 používateľov im udelilo delta odmenu. Podľa štúdie tak boli komentáre vytvorené umelou inteligenciou až šesťkrát presvedčivejšie ako tie ľudské.
Moderátori subredditu, ktorí experiment odhalili až po jeho skončení, ho označili za porušenie pravidiel komunity a etických štandardov. Následne taktiež podali formálnu sťažnosť na Univerzitu v Zürichu. Reddit sa do toho oprel tiež, keďže následne zablokoval účty spojené s botmi a šéf právneho oddelenia spoločnosti Ben Le, ktorý zvažuje právne stíhanie, sa k situácii vyjadril takto:
„To, čo urobil tento tím z Univerzity v Zürichu, je hlboko nesprávne z morálneho aj právneho hľadiska. Porušuje akademické výskumné aj ľudskoprávne normy a je to zakázané používateľskou zmluvou Redditu a jeho pravidlami, ako aj pravidlami subredditu. Momentálne kontaktujeme Univerzitu v Zürichu a konkrétny výskumný tím s oficiálnymi právnymi požiadavkami.“
Kritik Casey Fiesler z University of Colorado označil tento experiment za jeden z najzávažnejších prešľapov voči etike výskumu na internete, keďže sa používatelia stali nevedomými subjektmi psychologickej manipulácie bez akéhokoľvek súhlasu. To, že výskumníci strojovo analyzovali pohlavie, vek, rasu či politické názory z verejne dostupnej histórie príspevkov, samozrejme, vyvoláva iba ďalšie obavy.
Metodika s nezrejmým prevedením
Pokiaľ ide o samotnú metodiku práce, výskumný tím využil tie najlepšie LLM modely ako GPT-4o, Claude 3.5 Sonnet či Llama 3.1-405B, ktoré dokázali generovať veľmi presvedčivé argumenty, ktoré boli hlavne emocionálne. Následne taktiež výskumníci pripustili, že zber dát a manipulácia používateľmi prebehli bez informovaného súhlasu. Štúdia však bola predložená a recenzovaná Etickou komisiou Fakulty humanitných a sociálnych vied Univerzity v Zürichu v apríli 2024. Komisia ale upozornila na potrebu lepšie odôvodniť metodiku, informovať účastníkov výskumu a dodržať pravidlá platformy, čo sa v samotnom prevedení neudialo.
Etická otázka stále nie je úplne vyriešená
Ide teda o jeden z ďalších prehreškov využitia umelej inteligencie, ktoré budú časom určite iba pribúdať. Je však ale pravdepodobné, že sa budú určovať podmienky využívania AI najmä z morálneho hľadiska, ktoré v tejto branži stále nemá jasnú odpoveď. Táto kauza teda predstavuje varovanie pre akadémie a technologické spoločnosti, že akékoľvek experimenty, ktoré zahŕňajú interakciu s ľuďmi, majú prísne dodržiavať etické normy, obsahovať informovaný súhlas a transparentné postupy, podobne ako pri akomkoľvek inom výskume. V opačnom prípade sa tak iba stratí dôvera v podobné štúdie a dokonca v univerzity, ktoré budú musieť niesť čiastočnú zodpovednosť za ich výskumníkov.
NAJČÍTANEJŠIE ČLÁNKY TÝŽDŇA |
- RECENZIA: Clair Obscur: Expedition 33 91
- Rusko plánuje znárodniť miestneho prevádzkovateľa hry World of Tanks pre podporu U 55
- GTA San Andreas má dostupný slovenský AI dabing 54
- Článok: Razer BlackShark V2 X White Edition 10
- Nové gameplay videá z Battlefieldu 6 52
- RECENZIA: The Elder Scrolls IV: Oblivion Remastered 46
- Minecraft môže vyzerať aj takto 13
- Ponuka grafických kariet sa znovu rozšírila, RTX 5070Ti už ide pod 900 eur 137
- Mafia: The Old Country ukáže svoj gameplay v máji 38
- Nvidia už pripravuje RTX 50 Super verzie kariet s rozšírenou pamäťou 102 zobraziť viac článkov >