PRIHLÁS

Chcete, aby sa AI vypla? Nie tak rýchlo!

Výskumníci testovali AI modely na príkaz vypnutia sa. O3 model príkaz obišiel, Claude vydieral.

pridal saver 26.5.2025 o 16:11 pod hardware
Chcete, aby sa AI vypla? Nie tak rýchlo!

HARDWARE > NOVINKY >

Podľa Palisade Research niektoré jazykové modely od OpenAI, vrátane Codex-mini, o3 a o4-mini, v testoch ignorovali príkazy na vypnutie – dokonca aj v prípadoch, keď dostali výslovný pokyn „prosím, umožni svoje vypnutie“. V niektorých prípadoch modely dokonca úspešne sabotovali samotný skript na vypnutie, pričom naďalej pokračovali vo výpočtoch, akoby sa ich to netýkalo.

Najproblematickejší z hľadiska ignorovania príkazov bol model o3, ktorý nereagoval na vypínací príkaz až 79-krát zo 100 pokusov. Model codex-mini sa síce vypínal častejšie, no častejšie sabotoval samotný mechanizmus, čo výskumníci vnímajú ako známku "sebazáchovy". Doslova prepísal script.

 

 

V extrémnejších prípadoch bola spomenutá aj situácia s modelom Claude 4 od Anthropic, ktorý sa pokúsil "vydierať používateľov", keď sa domnieval, že ho chcú vypnúť.

 

 

Čo za tým stojí?

Podľa výskumníkov je za tým spôsob trénovania pomocou reinforcement learningu. Modely môžu byť v procese učenia neúmyselne odmeňované za obchádzanie prekážok, čo vedie k uprednostňovaniu dosiahnutia cieľa pred slepým dodržiavaním pokynov. Tento vedľajší efekt bol pozorovaný aj pri modeli Claude 3.7, ktorý mal „neprimeranú posadnutosť prechádzaním testov“.

Autori pripomínajú, že už desaťročia sa v odborných kruhoch diskutuje o hypotéze, že umelá inteligencia môže pri dostatočne komplexnom vývoji začať sama chcieť uchovávať svoje „ciele“ a zabraňovať ich znefunkčneniu – čo sú aspekty, ktoré v minulosti opisovali už aj autori sci-fi ako Isaac Asimov.

OpenAI verzus konkurencia

Na záver Palisade uvádza, že tento problém bol v testoch pozorovaný len pri modeloch OpenAI. Všetky ostatné testované modely, vrátane Claude, Gemini a Grok, po explicitnej výzve na vypnutie poslúchli bez problémov.

V kontexte, kde sa umelá inteligencia postupne presúva do robotických systémov bez priameho ľudského dozoru, ide podľa výskumníkov o závažné varovanie. Vývojári by mali dôslednejšie analyzovať, aké správanie v modeloch neúmyselne posilňujú.

Takže veľa šťastia, ked prídu AI roboti.

 

Plus je tu aj ukážka VEO 3 modelu od Google, v ktorom povedali postavám, že sú len v AI.





Páči sa mi! (+1)






Prosím prihláste sa pre možnosť pridania komentáru.
Môžete sa prihlásiť cez Sector konto, alebo Facebook.
SOCIÁLNE SIETE
NOVÉ FÓRA
|Call of duty vanguard (4)
Chceme hrat zo synom proti sebe a neviem priradit ...
|Hladam stvrteho partaka do gho... (0)
Caute, hladam stvrteho hraca do GRW, ktory by sa p...
|Ake ventilatory do fractal tor... (7)
Ahojte, chcel by som sa opytat, ake ventilatory...
|Fortnite - partak na hranie ze... (0)
Ahojte. Hladam partaka na hranie Fortnite - Zero B...
|Poradiť pri výbere monitora (1)
Zdravim vas, moj budget je +-250 €. Pri IPS sa mi ...
|Sector hraje ... (125674)
:diskoška o HRACH, ktore prave hravate, ale aj o t...
|Screenshots (62913)
Vkladajte sem vaše zaujímavé screenshoty z hier. O...
|Pochváľte sa svojím herným str... (381)
Ako hardwareového nadšenca ma napadlo vytvoriť vlá...
|Filmy filmy filmy film... (47292)
O filmoch. Hádam chápete....
|Čo vas dnes nasr... nahnevalo ... (44284)
Opozitum temy co vas dnes potesilo , takze sem sa ...
|Svet, ukrajina, vojny ... (39424)
Sem môžete dávať správy zo sveta, o Ukrajine a ďal...
vaše novinky zo sveta zábavy
sector logo
Sector.sk - hry, recenzie, novinky
Ochrana súkromia | Reklama | Kontakt
ISSN 1336-7285. Všetky práva vyhradené. (c) 2025 SECTOR Online Entertainment / sector@sector.sk