Anthropic、安全性懸念の高まりでAI規則を強化、武器開発を禁止
Anthropicは、Claude AIチャットボットの使用規則を更新し、危険な武器開発を禁止するなど安全対策を強化した。
最新の更新
AI安全性への懸念が高まる中、AnthropicはClaude AIチャットボットの使用ポリシーを更新した。
今回の更新では、サイバーセキュリティ規則の強化に加え、Claudeを利用して開発すべきでない最も危険な武器の種類が明確に示された。
ポリシー変更をまとめた公式投稿では武器規則の詳細は強調されていないが、旧ポリシーと新ポリシーを比較すると大きな違いが確認できる。