研究者が警告、LLMが「ゴミデータ」で脳腐敗を引き起こす可能性
研究者たちは、LLMが低品質な「ゴミデータ」で訓練されることが、認知機能の低下や「脳腐敗」を引き起こす可能性があることを警告している。
最新の更新
LLM(大規模言語モデル)を高品質なデータで訓練すれば、性能が向上することは明白ですが、逆に低品質な「ゴミデータ」で訓練するとどれだけ問題が発生するかについて、テキサスA&M大学、テキサス大学、パーデュー大学の研究者たちが新たに調査を行いました。今月発表されたプレプリント論文では、研究者たちが、膨大な量の「 trivial で挑戦的でないオンラインコンテンツ」を消費することで、人間の注意力や記憶、社会的認知に問題が生じるという既存の研究にインスピレーションを得て、「LLM脳腐敗仮説」を提唱しています。この仮説は、「ゴミのようなウェブテキストでの継続的な事前訓練が、LLMに持続的な認知低下を引き起こす」という考え方に要約されます。
好きかもしれない
- Apple、EUでアプリ追跡透明性機能を無効化する可能性を警告
- Apple、英国でApp Store手数料に関する画期的な訴訟で敗訴
- クアルコム、Computex 2025で新チップ発表を見送り、Snapdragon X Eliteの進展に注力
- 『バイオハザード レクイエム』発表:2026年に新たなサバイバルホラー登場
- 蛍光タンパク質に埋め込まれた量子ビット、細胞内量子バイオセンサーとして登場
- Apple銀座、四フロアにわたる新デザインで9月26日に再オープン
- 火星の氷、古代微生物の生命を保存する可能性をNASAの研究が示唆
- グーグル、リアルタイムAI音声検索『Search Live』を米国で提供開始