GPT-5、数学証明生成でつまずき 人間の常時監督が必要、ルクセンブルク大学数学者らが発見
ルクセンブルク大学の数学者らがGPT-5をテストした結果、定性的な四次モーメント定理を明示的な収束率を含む定量形式に拡張する試みで、AIが重大な誤りを犯し、継続的な人間の修正を必要とする問題が明らかになった。
最新の更新
OpenAIの最新AIモデルGPT-5が、数学分野での証明生成において重大な限界を示す結果が発表された。ルクセンブルク大学の数学者らが実施した2025年9月の実験では、GPT-5がMalliavin-Steinフレームワークにおける未解決の問題に挑んだが、AIの出力に深刻な誤りが見つかり、常に人間の監督を要することが判明した。
実験の背景には、GPT-5が凸最適化問題を解決したという主張があった。これを受けて、研究者らは定性的な四次モーメント定理を、ガウス設定およびポアソン設定での明示的な収束率を含む定量形式に拡張できるかを検証した。しかし、GPT-5は提供された文書から容易に導出可能な共分散の性質を見落とすなど、重要な誤りを繰り返した。研究者らは、この経験を「慎重な検証を必要とするジュニアアシスタントと働くようなもの」と表現している。
この結果は、AIの数学研究への活用に警鐘を鳴らすものだ。特に、博士課程の学生がAIに過度に依存すると、誤りを通じた根本的な数学スキルの発展機会を失うリスクがあると警告されている。一方で、GPT-5の進化は顕著であり、将来的なさらなる改善が期待されるが、現時点では人間の専門家による検証が不可欠である。
AI業界全体で、こうした数学的推論の限界が議論を呼んでおり、OpenAIのモデルが「専門家レベル」の知能を謳う中での現実的な課題を浮き彫りにしている。