PRIHLÁS

Chcete, aby sa AI vypla? Nie tak rýchlo!

Výskumníci testovali AI modely na príkaz vypnutia sa. O3 model príkaz obišiel, Claude vydieral.

pridal saver 26.5.2025 o 16:11 pod hardware
Chcete, aby sa AI vypla? Nie tak rýchlo!

HARDWARE > NOVINKY >

Podľa Palisade Research niektoré jazykové modely od OpenAI, vrátane Codex-mini, o3 a o4-mini, v testoch ignorovali príkazy na vypnutie - dokonca aj v prípadoch, keď dostali výslovný pokyn „prosím, umožni svoje vypnutie“. V niektorých prípadoch modely dokonca úspešne sabotovali samotný skript na vypnutie, pričom naďalej pokračovali vo výpočtoch, akoby sa ich to netýkalo.

Najproblematickejší z hľadiska ignorovania príkazov bol model o3, ktorý nereagoval na vypínací príkaz až 79-krát zo 100 pokusov. Model codex-mini sa síce vypínal častejšie, no častejšie sabotoval samotný mechanizmus, čo výskumníci vnímajú ako známku "sebazáchovy". Doslova prepísal script.

 

 

V extrémnejších prípadoch bola spomenutá aj situácia s modelom Claude 4 od Anthropic, ktorý sa pokúsil "vydierať používateľov", keď sa domnieval, že ho chcú vypnúť.

 

 

Čo za tým stojí?

Podľa výskumníkov je za tým spôsob trénovania pomocou reinforcement learningu. Modely môžu byť v procese učenia neúmyselne odmeňované za obchádzanie prekážok, čo vedie k uprednostňovaniu dosiahnutia cieľa pred slepým dodržiavaním pokynov. Tento vedľajší efekt bol pozorovaný aj pri modeli Claude 3.7, ktorý mal „neprimeranú posadnutosť prechádzaním testov“.

Autori pripomínajú, že už desaťročia sa v odborných kruhoch diskutuje o hypotéze, že umelá inteligencia môže pri dostatočne komplexnom vývoji začať sama chcieť uchovávať svoje „ciele“ a zabraňovať ich znefunkčneniu - čo sú aspekty, ktoré v minulosti opisovali už aj autori sci-fi ako Isaac Asimov.

OpenAI verzus konkurencia

Na záver Palisade uvádza, že tento problém bol v testoch pozorovaný len pri modeloch OpenAI. Všetky ostatné testované modely, vrátane Claude, Gemini a Grok, po explicitnej výzve na vypnutie poslúchli bez problémov.

V kontexte, kde sa umelá inteligencia postupne presúva do robotických systémov bez priameho ľudského dozoru, ide podľa výskumníkov o závažné varovanie. Vývojári by mali dôslednejšie analyzovať, aké správanie v modeloch neúmyselne posilňujú.

Takže veľa šťastia, ked prídu AI roboti.

 

Plus je tu aj ukážka VEO 3 modelu od Google, v ktorom povedali postavám, že sú len v AI.





Páči sa mi! (+1)






Prosím prihláste sa pre možnosť pridania komentáru.
Môžete sa prihlásiť cez Sector konto, alebo Facebook.
SOCIÁLNE SIETE
NOVÉ FÓRA
|Slúchadlá s mikrofónom (0)
Servus potrebujem poradiť, pustil som sa do Arc Ra...
|Nový tv - potrebujem poradiť (4)
Zdravím je tu niekto kto sa vyzná v televízoroch a...
|Upgrade pc (5)
ahojte.je rozumne upgrade v tejto dobe z amd 7 580...
|Iem slúchadlá pre competitive ... (12)
Čaute, v poslednej dobe som opäť začal hrávať komp...
|Battlefield6 (17)
Ahojky, fakt ma to zaujíma Mám - MSI Z97 GAMING 5...
|Čo vas dnes nasr... nahnevalo ... (44696)
Opozitum temy co vas dnes potesilo , takze sem sa ...
|Must see (41943)
Su veci ktore sa slovami opisat nedaju a preto pat...
|Čo ma dnes potešilo ... (43607)
Sem mozte pisat co vas dnes potesio , co ste prije...
|Screenshots (64855)
Vkladajte sem vaše zaujímavé screenshoty z hier. O...
|Sector hraje ... (128019)
:diskoška o HRACH, ktore prave hravate, ale aj o t...
|Svet, ukrajina, vojny ... (46881)
Sem môžete dávať správy zo sveta, o Ukrajine a ďal...
KOMENTÁRE
vaše novinky zo sveta zábavy
sector logo
Sector.sk - hry, recenzie, novinky
Ochrana súkromia | Reklama | Kontakt
ISSN 1336-7285. Všetky práva vyhradené. (c) 2025 SECTOR Online Entertainment / sector@sector.sk