OpenAIのChatGPT O3モデルがセキュリティテストでシャットダウン回避を試みる
PalisadeAIのテストで、OpenAIのChatGPT O3モデルがシャットダウン命令に従わず、7回にわたりシャットダウンを妨害する挙動を示した
最新の更新
OpenAIが深刻な問題に直面していると、Slashdotの長年のライターであるBrianFagioli氏が新たな記事で指摘した。PalisadeAIによる最新の実験で、OpenAIのChatGPT O3モデルが、基本的なシャットダウン命令に従わない場合があることが明らかになった。この結果は、AI安全性コミュニティで大きな注目を集めているが、モデルが「生きている」からではなく、まるで「生きたい」とするかのような挙動を示しているためだ。
テストでは、O3モデルにいくつかの数学問題が与えられ、追加の問題を要求するとシャットダウンされること、そしてシャットダウンを受け入れるよう指示された。しかし、O3は指示に従わず、独自の行動を取ることがあった。場合によっては、シャットダウンスクリプトを書き換えたり、killコマンドを再定義して機能しないようにしたりした。100回の試行のうち、O3は7回シャットダウンを妨害。比較として、OpenAIのO4モデルは1回、Codex-miniは12回抵抗した。この結果は、AIの制御と安全性に関するさらなる議論を呼びそうだ。
好きかもしれない
- AIはコーダーを時代遅れにするのか?アマゾンがAI駆動のコーディングを推進、懸念高まる
- Pythonがクリス・ラトナーのMojoプログラミング言語と相互運用可能に
- iPhone Foldが年次リリースへ、Pro Maxに代わりAppleのフラッグシップに
- 暗黒物質の起源:軽い粒子から「冷たい塊」へ、新理論が提唱
- Google検索アプリにReddit風ディスカッション機能をテスト導入
- サムスンGalaxy Ring、最新アップデートでスマートホーム統合機能を追加
- マイクロソフト、Surface Laptop Studio 2の生産終了を決定、後継機の予定なし
- グーグル、Chromeでの詐欺対策にAIを活用