PRIHLÁS

Chcete, aby sa AI vypla? Nie tak rýchlo!

Výskumníci testovali AI modely na príkaz vypnutia sa. O3 model príkaz obišiel, Claude vydieral.

pridal saver 26.5.2025 o 16:11 pod hardware
Chcete, aby sa AI vypla? Nie tak rýchlo!

HARDWARE > NOVINKY >

Podľa Palisade Research niektoré jazykové modely od OpenAI, vrátane Codex-mini, o3 a o4-mini, v testoch ignorovali príkazy na vypnutie - dokonca aj v prípadoch, keď dostali výslovný pokyn „prosím, umožni svoje vypnutie“. V niektorých prípadoch modely dokonca úspešne sabotovali samotný skript na vypnutie, pričom naďalej pokračovali vo výpočtoch, akoby sa ich to netýkalo.

Najproblematickejší z hľadiska ignorovania príkazov bol model o3, ktorý nereagoval na vypínací príkaz až 79-krát zo 100 pokusov. Model codex-mini sa síce vypínal častejšie, no častejšie sabotoval samotný mechanizmus, čo výskumníci vnímajú ako známku "sebazáchovy". Doslova prepísal script.

 

 

V extrémnejších prípadoch bola spomenutá aj situácia s modelom Claude 4 od Anthropic, ktorý sa pokúsil "vydierať používateľov", keď sa domnieval, že ho chcú vypnúť.

 

 

Čo za tým stojí?

Podľa výskumníkov je za tým spôsob trénovania pomocou reinforcement learningu. Modely môžu byť v procese učenia neúmyselne odmeňované za obchádzanie prekážok, čo vedie k uprednostňovaniu dosiahnutia cieľa pred slepým dodržiavaním pokynov. Tento vedľajší efekt bol pozorovaný aj pri modeli Claude 3.7, ktorý mal „neprimeranú posadnutosť prechádzaním testov“.

Autori pripomínajú, že už desaťročia sa v odborných kruhoch diskutuje o hypotéze, že umelá inteligencia môže pri dostatočne komplexnom vývoji začať sama chcieť uchovávať svoje „ciele“ a zabraňovať ich znefunkčneniu - čo sú aspekty, ktoré v minulosti opisovali už aj autori sci-fi ako Isaac Asimov.

OpenAI verzus konkurencia

Na záver Palisade uvádza, že tento problém bol v testoch pozorovaný len pri modeloch OpenAI. Všetky ostatné testované modely, vrátane Claude, Gemini a Grok, po explicitnej výzve na vypnutie poslúchli bez problémov.

V kontexte, kde sa umelá inteligencia postupne presúva do robotických systémov bez priameho ľudského dozoru, ide podľa výskumníkov o závažné varovanie. Vývojári by mali dôslednejšie analyzovať, aké správanie v modeloch neúmyselne posilňujú.

Takže veľa šťastia, ked prídu AI roboti.

 

Plus je tu aj ukážka VEO 3 modelu od Google, v ktorom povedali postavám, že sú len v AI.





Páči sa mi! (+1)






Prosím prihláste sa pre možnosť pridania komentáru.
Môžete sa prihlásiť cez Sector konto, alebo Facebook.
SOCIÁLNE SIETE
NOVÉ FÓRA
| nové pc - rady/tipy (59)
Ahojte komunita, už dlhšie plánujem poskladať n...
|Vaše obľúbené dovolenkové dest... (5)
Celkom by ma zaujímalo kde chodievajú sektoráci na...
|Hry dokážu vyvolať silné emóci... (17)
Podeľte sa o tituly, ktoré vás emocionálne zasiahl...
|Ps5-hackeri? (5)
To sa chcem spytat ohladne cod mw3 alebo cod6,hovo...
|Predam : (1)
Predam dve pletene čiapky ALIENWARE a dve podložky...
|Serialy (17097)
prison break, lost, jericho, battlestar galactica ...
|Filmy filmy filmy film... (47696)
O filmoch. Hádam chápete....
|Screenshots (63854)
Vkladajte sem vaše zaujímavé screenshoty z hier. O...
|Sector hraje ... (126789)
:diskoška o HRACH, ktore prave hravate, ale aj o t...
|Skor ako vyhodis oprav sam ;-) (63)
Ahoj zacala mi blbnut myska presnejsie logitech g ...
|Svet, ukrajina, vojny ... (42891)
Sem môžete dávať správy zo sveta, o Ukrajine a ďal...
KOMENTÁRE
vaše novinky zo sveta zábavy
sector logo
Sector.sk - hry, recenzie, novinky
Ochrana súkromia | Reklama | Kontakt
ISSN 1336-7285. Všetky práva vyhradené. (c) 2025 SECTOR Online Entertainment / sector@sector.sk