Anthropic、ユーザーチャットデータでAIモデルをトレーニング開始、ユーザーの選択によるオプトアウトが必要
Anthropicは、ユーザーがオプトアウトしない限り、ユーザーチャットデータを使用してAIモデルをトレーニングすることを発表。データの保存期間は最大5年間。
最新の更新
Anthropicは、ユーザーチャットデータを使用してAIモデルをトレーニングすることを発表しました。新しいチャットのトランスクリプトやコーディングセッションを含むデータは、ユーザーがオプトアウトしない限り、AIモデルの学習に利用されることになります。さらに、同社はデータ保存期間を最大5年間に延長する方針も示しており、これもユーザーがオプトアウトしない限り適用されます。すべてのユーザーは9月28日までにオプトアウトするかどうかを選択する必要があり、オプトアウトしない場合、同社は即座にユーザーデータをAIモデルのトレーニングに使用し、5年間保存することになります。Anthropicはこの新しい方針を木曜日に公開したブログポストで発表しました。
好きかもしれない
- NASA、2030年までに月面に原子炉設置を目指す
- NASAのデータが示す火星内部の不規則な構造、古代の衝突の痕跡を示唆
- OpenAIのペアレンタルコントロールが論争に:ユーザーは“大人として扱え”と要求
- NASA、5Gを利用したエアタクシーの通信テストを実施
- Google Pixel Watch 4のリーク情報: カラー、サイズ、バンドのオプションが明らかに
- NASAとノースロップ・グラマン、月面や火星探査の研究を含む国際宇宙ステーションへのミッションを発射予定
- ブルーオリジン、AI搭載の宇宙監視センサーを「ブルーリング」初飛行に搭載
- 英国のデジタルID義務化計画に大規模反発、100万人以上が署名で撤回要求