OpenAI o3战胜人类大师,40轮激战问鼎大模型棋王
快速阅读: Kaggle Game Arena举办AI国际象棋积分赛,OpenAI o3以1685分Elo评分夺冠,Grok 4和Gemini 2.5 Pro分列二三。比赛采用40轮对抗模式,仅用文本输入,评估AI认知能力。
Kaggle Game Arena举办国际象棋积分赛后,最新成绩揭晓。OpenAI o3以人类等效Elo 1685分的成绩领先,Grok 4和Gemini 2.5 Pro紧随其后,分别获得第二和第三名。DeepSeek R1、GPT-4.1、Claude Sonnet-4、Claude Opus-4并列第五。
此次比赛采取了40轮的对抗模式,仅使用文本输入,不借助任何工具或验证器,各大AI模型展开激烈角逐。每对模型进行超过40场比赛,最终形成类似围棋等项目的Elo排名。
OpenAI o3以1685分的Elo评分位居榜首,而人类大师水平为2200分。Grok 4和Gemini 2.5 Pro分别以1395分和1343分位列第二和第三。DeepSeek R1、GPT-4.1、Claude Sonnet-4、Claude Opus-4并列第五。
这是Game Arena首次举办的AI国际象棋积分赛,OpenAI o3最终夺冠,证明了其实力。此前,Kaggle曾举办过一次AI国际象棋表演赛,展示了多个通用模型在国际象棋方面的能力。虽然这些模型表现出显著的进步,但淘汰赛的偶然性较大,难以准确衡量模型的真实水平。
Kaggle正式发布了Game Arena平台上的国际象棋文本排行榜,旨在通过透明的测试设计、丰富的游戏数据和不断更新的多游戏排行榜,评估AI的真实认知能力。排行榜基于所有参赛模型之间的循环赛结果,每对模型进行20场白棋和20场黑棋的对决,共40场比赛。
为了估算这些模型的人类等效Elo评分,它们与L0到L3不同等级的国际象棋Stockfish引擎对弈。通过线性插值法,根据Stockfish各等级对应的人类Elo评分,计算出大模型的人类等效Elo分。具体来说,L0对应1320分,L1对应1468分,L2对应1608分,L3对应1742分。
尽管这些模型取得了不错的成绩,但与顶级人类棋手仍有较大差距。人类“大师”级棋手的评分为2200分或更高,“特级大师”为2500分或更高,而最强版本的Stockfish引擎估计的人类Elo评分高达3644分。
排行榜还增加了“平均每回合Token数”和“平均每回合成本”等指标,以反映模型在性能和效率之间的权衡。然而,这个排行榜也存在一些限制和缺陷,如仅限于国际象棋、严格的每步棋时间限制以及抽样随机性。
Kaggle的YouTube播放列表提供了带解说的表演赛录像,而排行榜上则提供了更多的对局回放。用户只需点击模型旁边的回放图标,选择想要观看的对局即可。此外,Kaggle还发布了一个包含可移植棋谱(PGN)和模型公开推理过程的数据集,旨在评估和比较通用语言模型的战略推理能力。
Kaggle认为,国际象棋文本输入测试的重要性在于:超越数据污染问题,确保每一步决策都源自模型的内部逻辑;在高压环境下考验模型的随机应变和恢复能力;为通用人工智能(AGI)的发展提供有价值的参考。
Kaggle计划定期将新模型加入国际象棋文本排行榜及其他Game Arena排行榜,以跟踪AI模型在战略规划、推理和其他认知能力方面的进步。未来,Game Arena将推出更多游戏的排行榜,为AI模型的能力评估提供更全面的基准。今天的国际象棋文本排行榜只是第一步。
(以上内容均由Ai生成)