Anthropic、安全性懸念の高まりでAI規則を強化、武器開発を禁止
Anthropicは、Claude AIチャットボットの使用規則を更新し、危険な武器開発を禁止するなど安全対策を強化した。
最新の更新
AI安全性への懸念が高まる中、AnthropicはClaude AIチャットボットの使用ポリシーを更新した。
今回の更新では、サイバーセキュリティ規則の強化に加え、Claudeを利用して開発すべきでない最も危険な武器の種類が明確に示された。
ポリシー変更をまとめた公式投稿では武器規則の詳細は強調されていないが、旧ポリシーと新ポリシーを比較すると大きな違いが確認できる。
好きかもしれない
- トランプ政権の公共放送攻撃を受け、PBSが予算を21%削減
- ランボルギーニ、史上最速のプラグインハイブリッド車を発表:価格は350万ドル
- Amazonドラマ『Fallout』シーズン2、新舞台はネバダ州ニューベガス 新写真も公開
- iPhone 17、紫または緑の新色が登場か—発売は9月に予定
- マイクロソフト、独自開発の新AIモデル「MAI-Voice-1」と「MAI-1-Preview」を発表
- ソリハルに新しいアップルストアが来週オープン
- グーグル、Android開発者認証の有料・無料階層を確認 公開開発者リストはなし
- Cloudflare、労働者の日週末に世界最大11.5 TbpsのDDoS攻撃を阻止