当前位置: 首页 > news >正文

苹果AI科学家研究证明基于LLM的模型存在缺陷 因为它们无法推理

苹果公司人工智能科学家的一篇新论文发现,基于大型语言模型的引擎(如 Meta 和 OpenAI 的引擎)仍然缺乏基本的推理能力。该小组提出了一个新的基准–GSM-Symbolic,以帮助其他人衡量各种大型语言模型(LLM)的推理能力。 他们的初步测试表明,查询措辞的细微变化会导致答案的显著不同,从而损害模型的可靠性。

在这里插入图片描述
研究小组通过在查询中添加人类可以理解的上下文信息来研究数学推理的"脆弱性",但这些信息不应影响解决方案的基本数学。 这导致了不同的答案,而这是不应该发生的。

该小组在报告中写道:“具体来说,[即使]在 GSM 符号基准中只改变问题中的数值,所有模型的性能都会下降。此外,这些模型中数学推理的脆弱性[表明],随着问题中分句数量的增加,它们的性能也会显著下降。”

研究发现,哪怕只增加一个看似与给定数学问题相关的句子,都会使最终答案的准确率降低高达 65%。研究得出结论:“根本无法在这个基础上建立可靠的代理,在这个基础上改变一两个无关紧要的单词或添加一些无关紧要的信息就能得到不同的答案。”

一个能说明问题的特殊例子是一个需要真正理解问题的数学问题。 团队开发的任务名为"GSM-NoOp",类似于小学生可能会遇到的数学"文字题"。

查询以得出结果所需的信息开始。“奥利弗周五摘了 44 个猕猴桃。 然后周六他摘了 58 个猕猴桃。 周日,他摘的猕猴桃数量是周五的两倍。”

然后,查询添加了一个看似相关但实际上与最终答案无关的子句,指出在周日采摘的猕猴桃中,“有五个比平均值小一点”,而所要求的答案只是问"奥利弗有多少个猕猴桃?"

关于周日采摘的一些猕猴桃大小的说明应该与采摘的猕猴桃总数无关。 然而,OpenAI 的模型以及 Meta 的 Llama3-8b 从总结果中减去了五个较小的猕猴桃。

这一错误逻辑得到了 2019 年的一项研究的支持,该研究通过询问前两届超级碗四分卫的年龄,可靠地混淆了人工智能模型。 通过添加他们参加比赛的背景和相关信息,以及在另一场碗赛中担任四分卫的第三人,模型得出了错误的答案。

新研究得出结论:“我们没有发现语言模型中存在形式推理的证据。 LLMS 的行为"最好用复杂的模式匹配来解释”,研究发现这种模式匹配"事实上非常脆弱,[仅仅]改变名称就能改变结果"。


http://www.mrgr.cn/news/49675.html

相关文章:

  • Python | Leetcode Python题解之第478题在圆内随机生成点
  • AI学习指南深度学习篇-迁移学习的基本原理
  • 2.1 使用点对点信道的数据链路层
  • C++入门基础知识112—【关于C++嵌套 switch 语句】
  • XML 和 SimpleXML 简介
  • java数据库操作-cnblog
  • 苹果最新论文:LLM只是复杂的模式匹配 而不是真正的逻辑推理
  • 【LeetCode热题100】哈希
  • chattts一步步的记录,先跑起来。
  • 探索嵌入式系统中 STM32 与树莓派的高效通信方式
  • 多线程(三):线程等待获取线程引用线程休眠线程状态
  • Python速成笔记——知识(GUI自动化处理屏幕和按键输出)
  • SQLI LABS | SQLI LABS 靶场初识
  • tkinter库的应用小示例:文本编辑器
  • linux命令之fold
  • Windows 安装Redis(图文详解)
  • python【函数】
  • 如何使用Pandas库处理大型数据集?
  • Qt获取磁盘信息+表格显示
  • 深入探索Spring Cloud Gateway:微服务网关的最佳实践