ホームページ :テクノロジーを簡単に楽しむ、未来を自由に見る

ChatGPTの知能向上に伴う幻覚問題の急増

ChatGPTの最新モデルが知能向上を遂げる一方、誤った情報や幻覚の発生率が急増し、信頼性に課題を残している

最新の更新

人工知能(AI)の進化が続く中、OpenAIが開発するChatGPTの最新モデルが注目を集めているが、その進歩には深刻な問題が伴っていることが明らかになった。『ニューヨーク・タイムズ』が報じたOpenAIの調査によると、ChatGPTの知能向上に伴い、事実と異なる情報や「幻覚(hallucination)」と呼ばれる誤情報の生成頻度が急増している。

ChatGPTの最新フラッグシップモデルである「GPT o3」と「o4-mini」は、人間の論理的思考を模倣するよう設計されており、従来のモデルが主に流暢な文章生成に重点を置いていたのに対し、段階的な思考プロセスを重視している。OpenAIは、GPT o3が化学、生物学、数学の分野で博士課程の学生に匹敵、またはそれ以上の性能を発揮すると主張している。しかし、同社の最新報告によれば、これらのモデルは信頼性において重大な課題を抱えている。

調査の結果、GPT o3は公人に関するベンチマークテストの3分の1で幻覚を生成し、昨年リリースされた「o1」モデルの誤り率の2倍を記録した。さらに、軽量設計のo4-miniモデルは同様のタスクで48%もの幻覚を生成し、性能の悪さが際立った。

AIチャットボットが生成する幻覚や誤情報は、技術の初期から問題視されてきたが、モデルが進化するにつれてその頻度が減少するはずだった。しかし、今回の結果は逆の傾向を示しており、ChatGPTの応答を額面通りに受け取るユーザーにとって深刻なリスクとなる可能性がある。

OpenAIは引き続きこれらの問題に対処するための研究を進めているが、現時点では、ChatGPTの高度な知能と信頼性のバランスを取ることが大きな課題となっている。今後、AIのさらなる進化が期待される一方で、誤情報の抑制が技術普及のカギを握るだろう。