分享好友 最新动态首页 最新动态分类 切换频道
9.11 和 9.9 哪个大?幼儿园小朋友能回答的问题,难倒一众AI…
2024-12-27 00:10

9.11 和 9.9 哪个大?

这一连人类幼儿园儿童都能回答的问题,曾经(至今)难倒了众多大语言模型(LLM)。

图片

然而,要想达到通用人工智能(AGI)的水平,LLM 不仅要完成“比大小”这种简单的逻辑推理,还需要完成难度更高的推理,比如“对复杂规则的理解与执行以及多步骤规划”,这是 LLM 智能体(agent)和决策系统的核心能力。

因此,如何有效评估 LLM 作为基于规则的执行者和规划者角色,至关重要。但是,目前学界和业界少有这方面的研究。

来自清华大学和智谱的研究团队推出了一项新的基准测试——LogicGame,旨在全面评估 LLM 在规则理解、执行和规划方面的能力。先看评测结果:

图片

图|LogicGame 的评测结果和样例展示。上图为各种模型在执行和规划类别中的表现;下图(左、右)分别为两个执行和规划类别案例研究。

除了看到 o1-preview、o-mini 的遥遥领先,我们也看到超过一半的模型得分不到 10%,如上图红色区域所示。

这一评测结果揭示了一个不容忽视的事实:大多数 LLM 在基于规则的逻辑推理上都存在着明显的缺陷。

相关研究论文以“LogicGame: Benchmarking Rule-Based Reasoning Abilities of Large Language Models”为题,已发表在预印本网站 arXiv 上。

图片

与传统基准测试不同,LogicGame 包含一系列多样化的游戏,每个游戏都有一套初始状态规则,这要求模型不仅能够理解这些预定义的规则,还可以应用它们来解决问题。而且,LogicGame 还同时考虑了最终结果和中间步骤,从而对模型性能进行全面的评估。

研究结果显示,通过设定不同难度的游戏场景,LogicGame 能够精确地衡量模型在规则理解和多步骤执行及规划任务上的表现。

LogicGame:“四级”难度游戏场景

遵循规则与推理的结合是完成许多现实世界任务的关键。然而,现有基准测试常常无法充分捕捉这一点。

为了填补这一空白,研究团队通过广泛的研究和众包开发了一套新颖的问题集。他们发现这些任务与某些游戏机制相似,因为现实世界的任务通常与游戏有着共同特征,比如需要遵循特定的规则,进而进行决策。因此,他们采用了游戏化的方法,从而能够对模型遵循规则的推理能力进行细致的评估。

其中,LogicGame 的数据构建,包含以下四个部分:

设计规则推理问题,灵感来自现实世界场景。由于现实世界任务往往具有游戏特征,例如需要遵循特定规则和做出决策,因此 LogicGame 采用了游戏化方法来评估模型的规则遵循和推理能力。

开发输出约束,确保模型输出符合标准格式。为了方便精确评估和简化匹配步骤,模型响应被要求遵循结构化的 JSON 输出格式。对于单步问题(Level 0),模型只需要输出最终答案,评估仅基于答案的正确性。对于涉及多步骤或更复杂推理的问题(Level 1、2、3 和某些 Level 0 问题),既要评估答案,也要评估步骤。

实现不同难度级别,并包含示例问题。有四个难度级别,评估模型推理能力的范围,从简单的规则应用到复杂的推理链。难度梯度由相关规则的复杂程度和得出解决方案所需的推理步骤数量决定。

为了确保公平性和更广泛的适用性,LogicGame 包含了中文和英文版本基准。

如下图,每个模型都会收到一组特定于给定问题的规则作为输入 prompt,以及一个相应的问题和一个 JSON 格式的输出约束,包括答案和步骤。

图片

图|LogicGame 中分类和评测方法的说明。分类中插图用紫色突出显示涉及数学的类别。

LogicGame 的评测方法使用自动化方法,不仅要评估答案的正确性,还要评估得出答案的步骤的正确性,具体包括评估模型的答案准确率(A-Acc)、步骤准确率(P-Acc)和答案步骤准确率(AP-Acc)。

每个问题答案的评分是通过比较模型的响应和参考答案来确定的。同样,根据 JSON 格式约束的定义,每个问题步骤的评分也是通过评估模型步骤与参考步骤的一致程度来实现的。

A-Acc:该指标用于评估所有给定问题答案的正确性,为每个答案提供二进制评估(0/1),从而表明其是否正确。

P-Acc:该指标评估步骤的正确性,根据所提供步骤与预期步骤之间的字符级相似度来衡量匹配百分比。在极少数情况下,如果 0 级问题是单步推理,其中没有提供步骤可供评判,则在评分时步骤准确性与答案准确性视为一致同等对待。

AP-Acc:该综合指标评估答案和步骤的整体准确性。其计算方法是使用逻辑 AND 运算将答案准确性和步骤准确性结合起来,得出一个总分。

这一评测方法确保模型遵循规则进行推理,并全面评估模型的推理能力。

表现如何?OpenAI o1 遥遥领先

如下图,不论在中英文版本中,在执行类别的最高难度 Level 3 下,o1-preview、o1-mini 在 14 个被评测模型中的得分遥遥领先,国内模型的得分未能破 10,甚至出现了多个 0 分;在规划类别的最高难度 Level 3 下,OpenAI o1 的领先优势亦是如此。

图片

图|14 个模型在 LogicGame 中文版本上的 AP-Acc% 指标性能。

图片

图|14 个模型在 LogicGame 英文版本上的 AP-Acc% 指标性能。

在执行类别中,随着 shot 数目的增加,模型的准确性有了显著提高。具体来说,更强大的模型(如 GPT-4o)在从 0-shot 转换到 1-shot 和 2-shot 时,AP-Acc 分数会有更大的提升,表明它们能够更好地利用额外的上下文信息来提高执行精度。

图片

图|LogicGame 中文版本在执行和规划类别上的少样本差异。

我们还观察到,在执行任务中,添加示例通常会提高模型在执行任务中的表现,尤其是在简单任务(Level 0)中。

图片

图|LogicGame 中文版本在不同难度级别上的 shot 差异设置与上图类似。

然而,1-shot 和 2-shot 设置对模型在不同难度级别上的影响有所不同。模型在 Level 0 中从示例中受益最大,但随着难度级别的提高,示例的影响会逐渐减弱。

在规划任务中,添加示例对模型在规划任务中的表现影响更为复杂。一些模型在从 0-shot 转换到 1-shot 或 2-shot 设置时,表现会下降,这表明额外的上下文信息可能会引入噪声,干扰模型对关键信息的理解。总体而言,1-shot 对模型的影响最明显,但随着难度级别的增加,其影响会逐渐减弱,而 2-shot 则更加不稳定,没有明显的规律。

在一项案例研究中,LLM 在黑白棋(Reversi)游戏中的表现几乎“惨不忍睹”,除了 OpenAI o1,其他模型的得分几乎为(接近于)0,这同样表明 LLM 在处理复杂规则和进行多步推理方面依然困难。

图片

图|表现最差的五个类别的 AP-Acc% 平均得分。热图中显示了每个类别的 AP-ACC% 平均得分,模型在执行和规划场景中的表现都很差,特别是在“Reversi”中,许多模型的得分接近零。

图片

图|一个带有模型输出的 Reversi 游戏示例,包括答案和步骤。

研究团队对这一失败表现进行了分析,认为有以下三点原因:

细节处理不足:例如,Claud 3.5 Sonnet 模型无法正确处理细节(如放置部分棋子或翻转部分棋子),这表明它们对规则的理解不够深入。

执行/规划规则理解不足:模型无法正确执行或规划游戏中的操作,这表明它们对游戏机制(如翻转机制)的理解存在缺陷。

过度更改:llama-3-8b-chat 模型对棋盘状态进行了过度更改,这表明它们对游戏规则的理解存在明显的偏差。

LLM 的推理能力仍有待提高

在这篇论文中,研究团队为评估 LLM 基于规则的推理能力,提出了一种新颖的基准 LogicGame,这一基准包含多个难度级别,重点评估模型对规则的理解、基于这些规则的执行以及规划能力。

同时,他们还开发了评估结果和推理过程的方法,确保模型忠实地遵循给定的规则,而不仅仅是猜测答案。

广泛的实验表明,目前的大模型在基于规则的推理任务中仍然表现出明显的不足。

对此,研究团队认为,LLM 的推理能力仍有待提高,尤其是在理解复杂规则、进行多步推理以及学习和应用新规则方面。

为使 LLM 能够更好地理解和执行规则,它们的推理能力还需要进一步改进,比如通过更有效的训练方法或引入新的推理机制。

此外,为了更全面地评估 LLM 的推理能力,需要开发更有效的评估方法。例如,通过引入更复杂的规则和更困难的推理任务。

一起来 battle!

想要证明你的大模型逻辑推理能力有多强?不妨参与 LogicGame 评测,与国内外众多大模型一起来 battle。

研究团队在 GitHub 上维护了一个 Leaderboard,分别展示模型在 LogicGame 中英文版和中文版的表现,其按照 AP-Acc% 进行排名,主要评估指标包括:

AP-Acc%(答案和步骤正确率)

A-Acc%(答案正确率)

P-Acc%(步骤正确率)

IFError%(指令遵循错误率)

JSError%(Json格式输出错误率)

图片

图|14 个大模型在中文版 LogicGame 上的表现

图片

图|14 个大模型在英文版 LogicGame 上的表现

那么,如何获取你的模型在 LogicGame 中英文版和中文版的表现呢?

研究团队在 GitHub 上存放了用于展示的 dev 数据,并提供了 Codabench(一个专门用于模型评测的平台,能够提供高效、公正且统一的评估环境)提交时所需的输入数据。你可以下载 zh_all 和 en_all 文件(分别代表中文版和英文版的数据全集),将其输入你的模型以获取模型回复,并将此回复作为 Codabench 提交时的输入数据,即可获得评测结果反馈。

最新文章
百度蜘蛛池价格:蜘蛛池创建教程图片大全,轻松搭建高效SEO工具
百度蜘蛛池价格合理,提供详细创建教程及图片,助您轻松搭建高效SEO工具。本文目录导读:什么是蜘蛛池?蜘蛛池创建教程蜘蛛池创建教程图片大全随着互联网的快速发展,搜索引擎优化(SEO)成为了许多企业和个人获取流量、提高品牌知名度的重
河南玄同智能科技申请边缘分布场景下的状态应用的全链路监控专利,具备延迟低、数据安全性强和系统响应速度快的优点
金融界2024年12月18日消息,国家知识产权局信息显示,河南玄同智能科技有限公司申请一项名为“边缘分布场景下的状态应用的全链路监控方法和系统”的专利,公开号CN 119127614 A,申请日期为2024年9月。专利摘要显示,本发明公开了一种边缘
四乙烯行业现状分析及发展前景预测报告2025-2030年
四乙烯行业现状分析及发展前景预测报告2025-2030年,是北京亚博中研信息咨询有限公司推出的优质行业报告。报告价格:纸质版6400元/份,电子版6500元/份,合订本7500元/份。一份报告的平均价格在6400元-7000元/份之间,需要注意的是,这些价
用AI生成超逼真美女写真,教你如何轻松制作专属头像!
在这个科技日新月异的时代,AI工具的飞速发展让我们惊叹不已。其中,AI绘画与生成超逼真美女写真不仅吸引了无数年轻人的目光,更成为了许多自媒体创作者的得力助手。想象一下,只需轻轻一扫,立刻便能拥有一张高质量的专属头像,分享给朋友
韩漫漫画登录页面免费漫画入口免费下拉下载
韩漫漫画登录页面免费漫画入口免费下拉能够带给大家丰富的漫画供你阅读!各种精彩好看的漫画都能在这里找到,各种类型的漫画这里应有尽有。简洁的界面设计,能够带给大家非常舒适的阅读观看体验。喜欢韩漫的小伙伴不要错过哦!通过许多有趣
用AI造谣发50万篇引流图文,广州6人落网
南都此前曾调查利用AI造谣乱象。据此前报道,南都记者调查发现,除了ChatGPT等常用人工智能工具,南都记者通过关键词搜索,在网络上发现许多“AI洗稿”“伪原创生成器”“AI写作”等网站、小程序,其功能多样,能满足创作公众号文章、视频
抖音流量池怎么打开 抖音小店代运营
抖音流量池怎么打开?流量池主要参考评论数、转发数、抖音1数、完播率这四个维度的数据,来分析视频是否值得被推荐,想要进入流量池,还得提升这4项指标。1)评论数:A、在视频描述里,设置一些互动问题,引导用户留言评论,提升评论量。比如
Windows优化大师无广告官方版
1. 系统信息:Windows优化大师可以检测系统的硬件和软件信息,例如CPU信息、内存信息等,同时还可以查看更多系统详细信息,包括核心、内存、硬盘、网络、Internet、多媒体和其他设备等。2. 磁盘缓存:提供磁盘最小缓存、磁盘最大缓存以及缓
长安CS35PLUS着力打造智能驾趣新生活 配置超高
全新长安CS35 PLUS作为中庸稳重小型suv,这款新车在设计上无疑是非常霸气的。在外形方面,长安CS35 PLUS整体的设计时尚大气的,整个车头前脸看起来精致,全LED点亮后显得很有精神气。车身侧面的腰线依旧是长安汽车独到的线条设计,妖娆的身
相关文章
推荐文章
发表评论
0评