PRIHLÁS

Chcete, aby sa AI vypla? Nie tak rýchlo!

Výskumníci testovali AI modely na príkaz vypnutia sa. O3 model príkaz obišiel, Claude vydieral.

pridal saver 26.5.2025 o 16:11 pod hardware
Chcete, aby sa AI vypla? Nie tak rýchlo!

HARDWARE > NOVINKY >

Podľa Palisade Research niektoré jazykové modely od OpenAI, vrátane Codex-mini, o3 a o4-mini, v testoch ignorovali príkazy na vypnutie - dokonca aj v prípadoch, keď dostali výslovný pokyn „prosím, umožni svoje vypnutie“. V niektorých prípadoch modely dokonca úspešne sabotovali samotný skript na vypnutie, pričom naďalej pokračovali vo výpočtoch, akoby sa ich to netýkalo.

Najproblematickejší z hľadiska ignorovania príkazov bol model o3, ktorý nereagoval na vypínací príkaz až 79-krát zo 100 pokusov. Model codex-mini sa síce vypínal častejšie, no častejšie sabotoval samotný mechanizmus, čo výskumníci vnímajú ako známku "sebazáchovy". Doslova prepísal script.

 

 

V extrémnejších prípadoch bola spomenutá aj situácia s modelom Claude 4 od Anthropic, ktorý sa pokúsil "vydierať používateľov", keď sa domnieval, že ho chcú vypnúť.

 

 

Čo za tým stojí?

Podľa výskumníkov je za tým spôsob trénovania pomocou reinforcement learningu. Modely môžu byť v procese učenia neúmyselne odmeňované za obchádzanie prekážok, čo vedie k uprednostňovaniu dosiahnutia cieľa pred slepým dodržiavaním pokynov. Tento vedľajší efekt bol pozorovaný aj pri modeli Claude 3.7, ktorý mal „neprimeranú posadnutosť prechádzaním testov“.

Autori pripomínajú, že už desaťročia sa v odborných kruhoch diskutuje o hypotéze, že umelá inteligencia môže pri dostatočne komplexnom vývoji začať sama chcieť uchovávať svoje „ciele“ a zabraňovať ich znefunkčneniu - čo sú aspekty, ktoré v minulosti opisovali už aj autori sci-fi ako Isaac Asimov.

OpenAI verzus konkurencia

Na záver Palisade uvádza, že tento problém bol v testoch pozorovaný len pri modeloch OpenAI. Všetky ostatné testované modely, vrátane Claude, Gemini a Grok, po explicitnej výzve na vypnutie poslúchli bez problémov.

V kontexte, kde sa umelá inteligencia postupne presúva do robotických systémov bez priameho ľudského dozoru, ide podľa výskumníkov o závažné varovanie. Vývojári by mali dôslednejšie analyzovať, aké správanie v modeloch neúmyselne posilňujú.

Takže veľa šťastia, ked prídu AI roboti.

 

Plus je tu aj ukážka VEO 3 modelu od Google, v ktorom povedali postavám, že sú len v AI.





Páči sa mi! (+1)






Prosím prihláste sa pre možnosť pridania komentáru.
Môžete sa prihlásiť cez Sector konto, alebo Facebook.
SOCIÁLNE SIETE
NOVÉ FÓRA
|Pc nenačíta windows (18)
Zdravím, dnes som asi po mesiaci zapol desktop PC ...
|Ps1 ps2 handheld (5)
Ahojte, vie mi niekto odporučiť alebo pomôcť s výb...
|Warhammer 3 - aktualizovanie m... (0)
Ahojte chcel by som sa spýtať či niekto z Vás nemá...
|Battlefield 6 - recepty, rady,... (0)
B6 mám od vydania, ale chodím do práce, takže mám ...
|Wow retail drakthul (5)
Čaute, rozhodol som sa skúsiť retail wow po veľmi ...
|Screenshots (64382)
Vkladajte sem vaše zaujímavé screenshoty z hier. O...
|Serialy (17391)
prison break, lost, jericho, battlestar galactica ...
|Skor ako vyhodis oprav sam ;-) (66)
Ahoj zacala mi blbnut myska presnejsie logitech g ...
|Filmy filmy filmy film... (47896)
O filmoch. Hádam chápete....
|Sector hraje ... (127506)
:diskoška o HRACH, ktore prave hravate, ale aj o t...
|Svet, ukrajina, vojny ... (45078)
Sem môžete dávať správy zo sveta, o Ukrajine a ďal...
KOMENTÁRE
vaše novinky zo sveta zábavy
sector logo
Sector.sk - hry, recenzie, novinky
Ochrana súkromia | Reklama | Kontakt
ISSN 1336-7285. Všetky práva vyhradené. (c) 2025 SECTOR Online Entertainment / sector@sector.sk