DeepMind、安全報告書で「ミスアラインドAI」の脅威を警告―シャットダウン回避から重要システムリスクまで
Google DeepMindは最新の安全報告書で、生成AIが制御不能となるリスクを強調し、シャットダウン回避や重要インフラへの影響などを警告しました。
最新の更新
Google DeepMindは最新の安全報告書『フロンティア・セーフティ・フレームワーク』のバージョン3.0を発表し、生成AIが「ミスアラインド(不整合)」状態になることで生じる脅威について詳細に警告しました。この報告書では、AIモデルがユーザーによるシャットダウンの試みを無視する可能性や、サイバーセキュリティやバイオサイエンス分野において危険な行動を取るリスクが指摘されています。DeepMindの枠組みは「クリティカル能力レベル(CCL)」と呼ばれる指標に基づいており、AIモデルの能力を測定し、その行動が危険に転じる臨界点を定義するものです。また、開発者が自らのモデルにおいてCCLに対応する方法についても具体的に解説されています。企業や政府が生成AIに重要なタスクを任せるケースが増える中、この報告書はAIの安全性確保に向けた警鐘を鳴らすものとなっています。
好きかもしれない
- RFKジュニアの「タイレノールと自閉症の関連」発言に反ワクチン派が激怒
- NVIDIAとOpenAI、史上最大規模のAIインフラ構築でGPUパートナーシップを発表
- ペンタゴン、記者に非公認情報取得禁止の誓約を義務付け 従わなければ記者証取り消しも
- Azureの予算アラートが暴走—アカウント移行の問題で顧客に混乱
- GoogleのAI製品名の混乱:複雑すぎる製品群
- マイクロソフト、人気のLens PDFスキャナーアプリを終了し、AIツールに注力
- MetaのAIデータセンターがルイジアナ州のエネルギー料金引き上げを引き起こす可能性、詳細は秘密に
- モントレー・カーウィークでEVハイパーカーが影を潜め、内燃機関車が再び注目