飞艇事件

你的位置: 飞艇事件 > 新闻动态 >
新闻动态
推理模型规划任务成功率从5%到95%,DeepMind遗传算法新研究火了
发布日期:2025-01-24 10:10    点击次数:198

瞄准推理时扩展(Inference-time scaling),DeepMind 新的进化搜索策略火了!

所提出的" Mind Evolution "(思维进化),能够优化大语言模型(LLMs)在规划和推理中的响应。

由于提升显著,Reddit/ � � 一时间出现了大量讨论:

由于结合了遗传算法,使用 Mind Evolution 能让 Gemini 1.5 Flash 任务成功率从原本的 5% 左右,一下提升 90 个百分点。

而且成本方面,和最接近这一性能的传统方法 Sequential-Revision+ 相比,所使用的 tokens 数量仅为后者的几分之一。

响应更好,成本还降低了,还是无需微调的结果。

这令人熟悉的配方又直接"迷倒"了一大片网友:

与此同时,Mind Evolution 还有一大优势也令人津津乐道:

它可以直接处理自然语言问题,而无需像传统一样需要将任务问题进一步形式化(即将实际问题转化为精确的、可被算法处理的数学或逻辑形式)。

也就是说,仅需一个最终检查解决方案是否正确的评估器,任务形式化也不需要了。

将问题形式化,需要大量领域专业知识和对问题的透彻理解,才能找出所有需用符号表示的关键元素及其关系,这大大限制了 Inference-time scaling 的适用范围。

总之按网友形容,这项研究就像给大语言模型升级大脑而不刷爆信用卡,酷酷酷!!

下面来看具体是如何做到的。

结合了进化搜索原理和 LLMs 的自然语言能力

首先,OpenAI 的 o1 系列模型率先引入了推理时扩展(inference-time scaling)的概念,通过增加思维链(Chain-of-Thought)推理过程的长度,在数学、编程、科学推理等任务上取得了显著的性能提升。

换句话说,通过让模型思考更多、更深,其响应也会越来越好。

而为了更多利用推理时扩展,先前研究还提出了自一致性(self-consistency)、基于反馈的顺序修正(如 Sequential-Revision +),以及由辅助验证器或评估器引导的搜索(如 Best-of-N)。

基于同样目的,DeepMind 提出了Mind Evolution这一针对 LLMs 的新进化搜索策略。

结合了进化搜索原理与 LLMs 的自然语言能力,既允许对可能的解决方案进行广泛探索,也允许对有希望的候选方案进行深入细化。

具体而言,Mind Evolution 依赖于两个关键组件:搜索算法和遗传算法。

搜索算法比较常见,一般用来让 LLMs 找到最佳推理路径以获得最优解;而遗传算法结合大语言模型,在自然语言处理任务中,通过迭代优化候选解决方案,以更好地满足任务目标。

举个例子,假如面临上图中的任务:

请计划从西雅图到洛杉矶和南达科他州的 5 天旅行,预算为 800 美元。我们希望至少有一顿晚餐吃日本料理,并且偏好入住私人酒店客房。

Mind Evolution 整体处理流程如下(类似遗传算法):

样本解决方案生成(Sample solutions):使用 LLMs 生成多个初始旅行计划;

评估(Evaluate):对生成的解决方案给出反馈,指出问题,如成本超出预算限制、用餐偏好未满足等;

改进(Refine,包括选择、交叉、变异):根据评估反馈,对解决方案进行改进;

终止条件(Terminate):当满足以下条件之一时终止,如找到有效或最佳解决方案,或达到最大计算预算(Gen N)。

这里尤其需要提到改进过程,其中选择是指依据评估反馈,选择更有可能改进的解决方案;交叉指将不同解决方案的部分内容进行组合,实现类似生物基因重组的效果,生成新的候选解决方案;变异是指对解决方案进行随机调整,增加种群多样性,以探索更多可能的解决方案。

最终,评估、选择和重组的循环将持续进行,直到算法达到最优解或耗尽预设的迭代次数。

另外值得一提的是,Mind Evolution 具体是通过" The fitness function "(适应度函数)来消除任务形式化问题。

简单说,适应度函数适配自然语言规划任务,解决方案以自然语言呈现。

如此一来,在有程序性解决方案评估器时,系统可规避问题形式化,并且除给出数值评分外,还能提供文本反馈,帮助 LLMs 理解具体问题并开展针对性优化。

此外,Mind Evolution 还采用" island "(岛屿)方法来确保多样化探索。

在每一个阶段,算法都会创建各自独立进化的解决方案组。然后,它将最优解从一组"迁移"到另一组,以结合并创造新的解决方案。

那么,Mind Evolution 实际表现如何呢?

规划表现均优于其他基线方法

实验阶段,研究人员将它和其他基线进行了对比。

1-pass:使用 o1-preview,模型只生成一个答案;

Best-of-N,模型生成多个答案并选择最佳答案;

Sequential Revisions+:模型独立提出 10 个候选解决方案,然后分别对 80 次迭代进行修订。

可以看出,尽管缺少遗传算法组件,Sequential Revisions+ 在旅行规划上的成功率最为接近 Mind Evolution。

不过随着从左至右任务复杂性的增加,Mind Evolution 与其他方法之间的差距越来越大,优势愈发凸显。

整体来看,在所有测试中,Mind Evolution 的表现都远远超过了基线,尤其是在任务变得更加困难时。

在 TravelPlanner(评估旅行规划)和 Natural Plan(评估会议规划)这两项基准测试中,未采用 Mind Evolution的 Gemini 1.5 Flash 任务成功率分别为 5.6% 和 20.8%,而采用 Mind Evolution之后,其任务成功率分别提升至 95.6% 和 85.0%。

而且,如果继续将 Gemini 1.5 Flash 未解决的问题丢给 1.5Pro,其成功率更是上升至100% 和 98.4%。

另外成本方面,和最接近上述性能的传统方法 Sequential-Revision+ 相比,所使用的 tokens 数量仅为后者的几分之一。

除此之外,研究人员引入了一项新测试任务——StegPoet。

需要在创意写作中嵌入隐写信息,属于自然语言规划任务范畴。

简单说,它要求在创作富有创意的文本内容时,还要将特定的信息以隐写的方式巧妙融入其中,这既需要逻辑推理能力,也对 LLMs 在创造性表达方面的能力提出了更高要求。

而从相关实验来看,Mind Evolution 也经受住了这一复杂任务的考验。

总体来说,这项研究通过将广泛搜索(随机探索)与深度搜索(利用 LLM 进行解决方案细化)相结合,进一步提升了模型在规划和推理上的响应。

更多细节欢迎查阅原论文。

论文:

https://arxiv.org/abs/2501.09891

参考链接:

[ 1 ] https://venturebeat.com/ai/deepmind-new-inference-time-scaling-technique-improves-planning-accuracy-in-llms/

[ 2 ] https://www.reddit.com/r/singularity/comments/1i5o6uo/google_deepmind_evolving_deeper_llm_thinking/

[ 3 ] https://x.com/_akhaliq/status/1881182840857178146