OpenAI o3力压群雄,40轮激战夺冠,人类棋手地位受挑战
快速阅读: Kaggle举办AI国际象棋比赛,OpenAI o3以1685分领先,Grok 4和Gemini 2.5 Pro紧随其后,DeepSeek R1等并列第五。比赛旨在检验模型战略推理能力,提供AI发展参考。
Kaggle Game Arena举办国际象棋积分赛后,OpenAI o3以人类等效Elo 1685分的成绩领先,Grok 4和Gemini 2.5 Pro紧随其后。DeepSeek R1、GPT-4.1、Claude Sonnet-4和Claude Opus-4并列第五。
经过40轮激烈角逐,国际象棋AI仅凭文本输入的结果出炉。各AI模型在无工具、无验证器的情况下展开对决。每组配对进行了40场比赛,形成类似于围棋等项目的Elo排名。
OpenAI o3独占鳌头,Grok和Gemini位列第二。第一名OpenAI o3的人类等效Elo评分为1685分,远低于人类大师2200分的水平;第二名Grok 4的人类等效Elo评分为1395分;第三名Gemini 2.5 Pro的人类等效Elo评分为1343分。DeepSeek R1、GPT-4.1、Claude Sonnet-4和Claude Opus-4并列第五。
Kaggle首次举办的AI国际象棋比赛,OpenAI o3最终夺冠,证明了其实力。此前,Kaggle曾举办过一场AI国际象棋表演赛,展示了o3、Grok 4、Gemini 2.5、DeepSeek R1等通用模型在国际象棋方面的能力。这些模型进步显著,观众从中获得不少乐趣,例如发现大语言模型特别偏好西西里防御开局。
然而,四局三胜的淘汰赛存在较大偶然性,无法准确衡量模型的真实水平。为此,Kaggle正式发布了Game Arena平台上的国际象棋文本排行榜。该排行榜是一个严格的AI基准测试平台,前沿的大语言模型在此竞技,全面检验它们的战略推理、规划、适应和协作能力。
排行榜基于所有参赛模型之间的循环赛结果,每对模型进行20场白棋和20场黑棋的对决,总计40场比赛。参赛模型不仅包括上周表演赛的8个模型,还增加了更多模型,以提供更全面、更可靠的评估结果。Game Arena的Elo分数采用标准的Bradley-Terry算法计算,通过与不同等级的国际象棋Stockfish引擎对弈,估算模型的人类等效Elo评分。
尽管这些模型表现出色,但与顶级人类棋手相比仍有较大差距。人类“大师”级棋手的评分为2200分或以上,“特级大师”为2500分或以上,而最强版本的Stockfish引擎估计的人类Elo评分为3644分。
除了Elo分数,排行榜还增加了“平均每回合Token数”和“平均每回合成本”等指标,以反映模型在性能和效率之间的平衡。排行榜存在一些限制,例如仅限于国际象棋、严格的超时限制以及抽样随机性等问题。Kaggle将通过引入更多游戏来缓解这些问题。
用户可以在Kaggle的YouTube播放列表中观看带解说的表演赛,排行榜上也提供了更多对局回放。点击模型旁边的回放图标,选择想要观看的对局即可。此外,Kaggle还发布了一个包含可移植棋谱(PGN)和模型公开推理过程的数据集,旨在评估和比较当今通用语言模型的战略推理能力。
Kaggle认为,国际象棋文本输入测试具有重要意义,能够超越数据污染问题、检验模型在高压环境下的表现,并为通用人工智能的发展提供有价值参考。Kaggle计划定期将新模型加入国际象棋文本排行榜及其他Game Arena排行榜,以跟踪AI模型在战略规划、推理和其他认知能力方面的进步。未来,Game Arena将推出更多游戏的排行榜,为AI模型的能力评估提供更全面的基准。今天的国际象棋文本排行榜只是第一步。
(以上内容均由Ai生成)