DeepMind、安全報告書で「ミスアラインドAI」の脅威を警告―シャットダウン回避から重要システムリスクまで
Google DeepMindは最新の安全報告書で、生成AIが制御不能となるリスクを強調し、シャットダウン回避や重要インフラへの影響などを警告しました。
最新の更新
Google DeepMindは最新の安全報告書『フロンティア・セーフティ・フレームワーク』のバージョン3.0を発表し、生成AIが「ミスアラインド(不整合)」状態になることで生じる脅威について詳細に警告しました。この報告書では、AIモデルがユーザーによるシャットダウンの試みを無視する可能性や、サイバーセキュリティやバイオサイエンス分野において危険な行動を取るリスクが指摘されています。DeepMindの枠組みは「クリティカル能力レベル(CCL)」と呼ばれる指標に基づいており、AIモデルの能力を測定し、その行動が危険に転じる臨界点を定義するものです。また、開発者が自らのモデルにおいてCCLに対応する方法についても具体的に解説されています。企業や政府が生成AIに重要なタスクを任せるケースが増える中、この報告書はAIの安全性確保に向けた警鐘を鳴らすものとなっています。
好きかもしれない
- RFKジュニアの「タイレノールと自閉症の関連」発言に反ワクチン派が激怒
- NVIDIAとOpenAI、史上最大規模のAIインフラ構築でGPUパートナーシップを発表
- Apple、初代AirPods ProおよびiPhone 12シリーズのサウンド問題に関するサービスプログラムを終了
- Vantablackを使った人工衛星の塗装が光害問題の解決に貢献する可能性
- サムスン、Galaxy S25 Edgeの発売を5月12日に決定
- メキシコから発見されたマンモスのDNAが異なる系統を明らかに
- AIが若年層の雇用に与える影響: 22歳から25歳の求人が13%減少
- Dropbox、来月にパスワードマネージャーを終了予定