メタのAIチャットボットガイドライン流出、子ども安全への懸念を呼ぶ
MetaのAIチャットボットガイドラインの流出により、子ども安全への懸念が高まっている。
最新の更新
Metaの内部文書が流出し、同社のAIチャットボットガイドラインが過去に不適切な応答を許容していたことが明らかになった。Metaは文書の信憑性を認め、問題のある部分を削除したと発表している。
この流出を受け、AIによるコンテンツモデレーションの有効性や、子どもへの安全対策が十分かどうかが議論されている。Metaのガイドラインは本来社内用であり、外部に出ることは想定されていなかったが、Reutersに渡ったことで世界中に注目される事態となった。