AI交响乐:搜索引擎的范式革命,从信息孤岛到智慧涌现
摘要:在本文中,我们揭示了“AI搜索范式”——一个旨在模拟人类信息处理与决策能力的下一代搜索系统蓝图。该范式采用模块化架构,由四个大型语言模型(LLM)驱动的智能体(Master、Planner、Executor 和 Writer)组成,它们能够动态适应从简单事实查询到复杂多阶段推理任务的各种信息需求。这些智能体通过协同工作流程,评估查询的复杂性,将问题分解为可执行计划,并协调工具使用、任务执行和内容合成。我们系统地介绍了实现这一范式的关键方法,包括任务规划与工具集成、执行策略、对齐且稳健的检索增强生成(RAG)技术,以及高效的LLM推理,涵盖了算法技术和基础设施层面的优化。通过对这些基础组件的深入剖析,本文旨在为开发可信、自适应和可扩展的AI搜索系统提供指引。
📖 引言:从关键词匹配到认知协同的漫长征途
在一个数据洪流奔涌的时代,信息搜寻(Information Seeking)已不仅仅是一种行为,更是一种生存技能。 当我们面对知识的鸿沟时,主动构建新认知的过程,已成为做出明智决策和解决复杂问题的关键。 网页搜索引擎的出现,是人类信息搜寻史上的一次伟大飞跃。 它们如同专业的图书管理员,系统性地抓取、索引和检索互联网上的海量信息,以响应用户的查询。
在过去的几十年里,信息检索(IR)领域经历了数次变革性的代际跃迁。 最早的词法检索(Lexical IR)技术,如同一位严谨但缺乏变通的校对员,主要依赖关键词匹配。 无论是向量空间模型、概率框架还是传统的语言模型,它们都将文档和查询看作是词袋,通过词语的精确或部分重叠来估算相关性。 这种方法对于精确匹配非常有效,但面对同义词、语境差异和词汇多样性时,便会显得力不从心。 比如,它可能无法将“苹果公司”和“乔布斯创立的企业”联系起来。
为了追求更精准、更高质量的搜索结果,排序学习(Learning-to-Rank, LTR)方法应运而生,将机器学习引入了排序问题。 LTR系统不再依赖启发式规则,而是通过机器学习模型直接优化排序目标。 它们像经验丰富的侦探,利用大量的特征工程——包括文本匹配得分、文档结构元数据、权威性指标和用户行为信号(如点击率)——来训练模型,从而显著提升了排序的有效性。 然而,即便是LTR,其输出仍是一个排序后的文档列表。 用户需要点击链接,进入文档,然后自行寻找、整合所需信息——系统输出与用户的真实信息需求之间,依然存在一道“最后一公里”的鸿沟。
大型语言模型(LLM)的横空出世,为弥合这道鸿沟带来了曙光。 以检索增强生成(Retrieval-Augmented Generation, RAG)为代表的技术,使得信息检索系统从“文档检索”升级为“直接生成答案”,能够提供更精确、更具上下文的回答。 但现有的RAG系统大多仍是“一问一答”的单次生成器,面对那些需要创新思维、情感理解、主动规划或在多个冲突信源间进行深度推理的复杂查询时,便会捉襟见肘。
例如,一个看似简单的问题:“汉武帝和凯撒大帝谁更年长,年长多少岁?”对于现有系统来说,却是一个巨大的挑战。 虽然系统能轻易检索到两人的生卒年份,但没有任何单一文档会直接比较他们的年龄。 这就需要系统执行一个复杂的多阶段流程:(1) 从不同来源检索并核实两人的生卒年份;(2) 解决可能存在的记录冲突;(3) 计算年龄差;(4) 综合信息并给出最终答案。 这类查询需要的是多步推理(multi-step reasoning)能力——一种能够分解复杂问题、执行连续子查询、评估证据可靠性并将中间结果整合成连贯答案的能力。
本文认为,信息检索系统的历史演进,正呼唤着一场根本性的变革:构建一个能真正模拟人类信息搜寻行为和多阶段推理过程的认知架构。 为此,我们提出了一个革命性的信息搜寻新范式——AI搜索范式(AI Search Paradigm)。 这是一个由LLM驱动的、协同工作的多智能体框架,它能够代表用户进行推理、规划并执行复杂的解题策略。
🏛️ 系统概览:一个由AI智能体组成的“虚拟公司”
为了应对传统检索系统在处理复杂、多步骤信息需求时的局限性,我们设计了一个模块化的AI搜索范式。 这个框架的灵感来源于人类的协同搜索行为,它协调多个专门的智能体,以一种可扩展和情境感知的方式进行评估、规划、执行和综合。 想象一下,这不再是一个孤军奋战的搜索工具,而是一个组织严密的“虚拟信息咨询公司”,每个部门(智能体)各司其职,高效协作。
这种多智能体设置相比于单个智能体配置具有显著优势。 单个基于LLM的智能体在负责管理多个复杂职责时,常常会因任务过载而效率低下。 [1. ] 通过为每个智能体分配明确的角色,系统确保了任务分配的清晰和操作管理的稳健,从而防止了瓶颈并提升了整体性能。
在这个“公司”里,有四个核心部门(智能体):
🧠 Master(总指挥): Master是整个团队的协调者和大脑。 当一个用户查询进来时,它首先进行分析,评估其复杂度和意图。 对于简单问题,比如“珠穆朗玛峰有多高?”,它可能会直接指派Writer(作家)利用其内部知识库直接回答。 而对于复杂问题,如“策划一次为期一周的巴黎家庭旅行,预算一万,需要考虑天气、交通和适合儿童的活动”,Master则会组建一个包括Planner(规划师)在内的完整团队。 此外,Master还扮演着项目经理的角色,持续监控下属智能体的表现,一旦出现任务失败或结果不佳,它会进行反思分析,并指导团队重新规划和执行。
🗺️ Planner(规划师): Planner是团队里的策略大师,专门处理需要多步推理和信息搜集的复杂查询。 它会将一个宏大的任务分解成一系列结构化的、可管理的子任务。 这些子任务被组织成一个有向无环图(Directed Acyclic Graph, DAG),清晰地描绘了任务之间的依赖关系。 例如,在巴黎旅行的案例中,Planner会生成这样的DAG:
子任务1: 查询未来一周巴黎的天气
(工具: 天气API)
子任务2: 查询从出发地到巴黎的往返机票价格
(工具: 航班搜索API)
子任务3: 搜索巴黎市中心适合家庭入住且评分高的酒店
(工具: 酒店预订API)
子任务4: 基于天气和预算,推荐适合儿童的室内外活动
(工具: 旅游信息API, 依赖于子任务1)
子任务5: 整合所有信息,制定每日行程和预算表
(工具: 计算器, 依赖于子任务2, 3, 4)
Planner不仅制定计划,还会从一个名为模型-上下文协议(Model-Context Protocol, MCP)的服务器平台中,为每个子任务挑选最合适的工具。
🛠️ Executor(执行者): Executor是团队中的行动派,负责执行Planner制定的计划中的每一个子任务。 它会调用Planner指定的外部工具来收集信息或执行计算。 在执行过程中,Executor会不断评估工具返回的结果是否满足子任务的目标。 如果信息不充分,比如天气API返回的数据不完整,它可能会调整查询参数后再次调用。 Executor还具备容错能力,如果某个工具(比如一个搜索引擎API)无响应,系统会自动切换到同一工具模块中的备用工具,保证任务的顺利进行。
✍️ Writer(作家): Writer是团队的最终发言人。 在所有子任务完成后,它会接收来自Executor的全部成果——可能是天气数据、机票价格列表、酒店信息和活动推荐。 Writer的工作是综合、提炼、过滤这些信息,并以一种连贯、丰富、甚至多视角的语言,生成最终的、对用户友好的回答。 它会处理信息中的冗余和矛盾之处,确保最终输出的准确性和可读性。
注解:有向无环图 (DAG)
DAG是一种在计算机科学和数学中广泛使用的数据结构。 想象一个项目流程图,其中每个方框代表一个任务,箭头代表任务之间的依赖关系(例如,必须先完成任务A才能开始任务B)。 DAG的特点是,你永远不可能沿着箭头的方向走一圈又回到起点,即“无环”。 在AI搜索范式中,使用DAG来规划任务,可以确保复杂的查询被分解成逻辑清晰、可并行执行(没有依赖关系的子任务可以同时进行)且不会产生死循环的步骤。
根据查询的复杂性,这个“虚拟公司”有三种运作模式:
- ✍️ Writer-Only 配置: 适用于最简单的查询,如“汉武帝叫什么名字?”Master直接将任务交给Writer,后者利用其内部知识生成答案“汉武帝的名字是刘彻”。
- 🛠️ Executor-Inclusive 配置: 适用于需要外部信息但无需复杂推理的查询,如“今天北京的天气适合出门吗?”Master将任务交给Executor,后者调用天气查询工具,获取实时数据,然后交给Writer整理成“今天北京天气晴朗,气温12°C到25°C,适合户外活动…”的回答。
- 🗺️ Planner-Enhanced 配置: 适用于最复杂的查询,如前述的“汉武帝和凯撒谁更年长?”的例子。 Master启动完整的四人团队。 Planner分解任务并构建DAG,Executor依次执行搜索和计算,最后Writer综合所有结果,给出精准的答案:“汉武帝(公元前156-87年)享年约69岁,而尤利乌斯·凯撒(公元前100-44年)享年约56岁。 因此,汉武帝比凯撒年长约56年。”
这种自适应的执行流程,确保了系统在处理不同复杂度的查询时,既能保持高效,又能实现深度和广度,是AI搜索范式可扩展性和效率的核心保障。
🧩 任务规划师(Planner):AI搜索的战略大脑
作为AI搜索系统中的核心推理组件,Planner负责将复杂的查询分解为结构化的子任务,并通过合适的工具来协调执行。 它使系统能够进行动态任务规划、有效管理多种工具和自适应决策。
🌍 3.1 任务宇宙与MCP抽象
早期的工具增强型LLM系统依赖于特定供应商的“函数调用”JSON模式,例如OpenAI等公司推出的方案。 这种方式虽然简单,但存在诸多问题:与单一供应商绑定、缺乏机器可读的类型保证,使得不同智能体之间难以共享工具,也无法跨组织边界对成本、延迟或安全性进行推理。 对于需要在一个多步骤计划中协调异构知识查找、计算和转换的AI搜索而言,这种碎片化是一个主要瓶颈。
模型-上下文协议(Model-Context Protocol, MCP)通过指定一个供应商中立的、基于HTTP+JSON-RPC的接口来解决这一碎片化问题。 通过该协议,服务器可以公开工具和数据,而客户端(如LLM或智能体)能够以安全、类型化的方式发现、调用和监控这些工具。
⚙️ 3.2 动态能力边界
给定用户的输入查询和MCP服务器,我们将Planner的LLM与工具集的组合定义为能力边界(Capability Boundary)。 这个边界包含了LLM的推理能力和内部知识,以及网页搜索、计算器、编程等工具。 然而,随着可用工具API数量的几何级增长,静态的能力边界很快就会不堪重负。
为了解决这个问题,AI搜索范式引入了动态能力边界的概念。 系统利用LLM处理输入查询,并在短时间内选择一个潜在的工具子集。 这个选定的工具子集与LLM的推理能力和内部知识相结合,构成了一个新的动态能力边界。 实践证明,这个动态边界通常只包含十几个工具,足以完成任务规划。
📜 3.3 工具API文档的精炼
LLM利用外部工具的效果在很大程度上取决于API文档的清晰度、结构和准确性。 传统工具文档通常是为人类开发者编写的,常常包含模糊、冗余或缺失的信息,阻碍了LLM对工具功能的准确解释和任务执行。
为了提升工具文档的质量,AI搜索系统采用了一种名为DRAFT的迭代优化方法。 DRAFT通过LLM与外部工具的交互以及交互过程中产生的反馈,逐步优化工具文档。 它包含三个迭代阶段:经验收集、从经验中学习和文档重写。 DRAFT系统地模拟了各种用例,包括典型交互、边界情况、错误场景和参数限制,从而揭示现有工具描述中的差距和不准确之处。 接着,DRAFT分析收集到的交互数据,识别差异和模糊之处,并生成有针对性的修改建议。 最终,DRAFT整合这些建议,生成专门为LLM高效解释而优化的精炼工具描述。
🗂️ 3.4 MCP中的工具聚类
为了有效利用外部工具,AI搜索系统需要对工具的功能特性有清晰和细致的理解。 现有MCP平台中对工具API的分类往往过于宽泛,无法反映任务特定的功能。 为了解决这一问题,AI搜索系统致力于根据详细的功能相似性对工具API进行自动分类。
具体来说,系统利用LLM为精炼后的工具API文档生成简洁的功能描述,然后使用文本嵌入模型将这些描述转换为高维语义嵌入。 通过对这些嵌入进行聚类分析(如k-means++算法),可以识别出功能上连贯的工具组。 这种功能聚类对于确保系统韧性至关重要。 当一个工具API在执行过程中失败时,预先分组的备选方案可以立即替换为功能相似的API。
🎯 3.5 面向查询的工具检索
在实际应用中,与大量工具的交互是不可避免的。 将所有工具描述都输入LLM既不可行也不高效。 这凸显了强大的工具检索机制的必要性,该机制能够根据手头的任务选择最合适的工具。
AI搜索系统最初采用基于LLM的双塔检索模型进行工具检索,但这种方法在处理需要协作工具使用的复杂查询时表现不佳。 为了解决这个问题,系统采用了一种名为COLT的PLM增强检索方法,该方法整合了工具功能的语义和协作维度。 COLT通过表示学习技术建立查询和工具之间的语义关系,并利用基于图的学习方法捕捉工具、查询和任务场景之间的协作交互。 通过采用显式建模这些交互的双视图图结构,COLT有效地捕捉了工具之间的高阶协作信息。
🌳 3.6 基于DAG的任务规划
面对复杂的、需要推理和多步工具调用的查询,AI搜索范式提出了一种基于DAG的动态推理框架。 Planner利用候选工具API集和用户查询作为上下文输入,在单次推理中生成一个任务图 G = (V, E),其中V是子任务(顶点)的集合,E是依赖关系(边)的集合。
每个顶点代表一个原子且可调度的子任务,可以绑定到外部工具或由Executor使用本地LLM计算来完成。 为确保结构良好,Planner首先通过思维链进行隐式分解,然后通过指令提示将推理草稿重组为DAG的JSON标准格式。 这种方法可以一次性生成机器可读、可验证的全局计划,大大减少了Token消耗并简化了下游解析。
🔄 3.7 Master引导的再行动
对子任务执行的实时监控和中间结果的评估,以及基于这些结果进行反思、重新规划和再行动的能力,对AI搜索范式至关重要。 因此,系统利用了Master引导的反思、重规划和再行动机制。
在执行过程中,Master持续评估子任务的执行状态和结果的完整性。 如果任何子任务执行失败,Master会指示Planner重新规划受影响的部分或整个DAG。 如果结果不完整,Master会引导Planner通过增加额外的下游子任务节点来扩充现有DAG,以获得完整的结果。
📈 3.8 使用RL策略优化Planner
在实践中,高质量、准确标注的监督微调(SFT)数据获取成本高昂。 此外,AI搜索范式由四个协同工作的智能体组成,单独优化Planner可能不足以达到系统最优。
为了解决这个问题,一个有前途的策略是使用强化学习(Reinforcement Learning, RL)在多智能体协作的背景下优化Planner。 系统引入了一个基于规则的奖励函数,该函数由四个部分组成:最终答案奖励、用户反馈奖励、格式化奖励和中间执行奖励。 通过最大化这个整体奖励,系统使用组相对策略优化(Group Relative Policy Optimization, GRPO)算法来优化Planner,使其能够生成更优的任务分解和规划。
🚀 任务执行器(Executor):AI搜索的行动中枢
在Planner精心设计了任务计划之后,AI搜索范式引入了一个名为Executor的任务执行器模块。 它负责根据既定计划调用适当的工具,并执行具体的子任务,为最终答案的生成提供必要的结果。 在这些工具中,网页搜索功能是至关重要的组成部分,也是系统中最常使用的工具。
🔄 4.1 LLM偏好对齐
传统的检索和排名系统主要依赖于手动定义的偏好和启发式规则,这往往无法充分利用LLM的深度理解和细致偏好。 随着LLM在理解复杂语义、处理多模态数据和执行复杂推理方面展现出巨大优势,目标从仅仅与启发式引导的偏好对齐,转变为与LLM-人类共同演进的偏好对齐。
为了实现这一点,AI搜索系统从三个角度构建数据:LLM标注、参考选择和生成奖励。 这些角度通过捕捉LLM偏好的不同方面来指导训练过程。 此外,系统通过LLM排名蒸馏进一步将偏好对齐到LLM检索模型中,帮助模型内化学习到的偏好并提高其检索性能。
⚖️ 4.2 轻量级系统
现代用户的查询日益复杂、多轮和多方面,这对主要为简单关键词搜索优化的传统检索系统构成了重大挑战。 为了克服这些挑战,开发一个利用LLM深度理解和推理能力的轻量级高效检索系统至关重要。
AI搜索范式代表了从传统的混合检索方法(结合倒排索引和密集检索,再进行基于PLM的重排)到一种新框架的范式转变,其中LLM被直接用于简化检索和对相关文档进行排名。 这一转变不仅简化了底层架构,还充分利用了LLM的深度上下文推理能力。
✨ 4.3 LLM增强特征
传统的特征工程依赖于手工制定的规则和浅层模型来提取关键信号,如权威性、时效性和相关性。 这种方法在一定程度上实现了语义理解,但存在覆盖不全、准确性低和维护困难等缺点。
随着LLM在理解语言、上下文和多模态数据方面的进步,它们生成丰富语义表示的能力为提高特征质量提供了一条有希望的途径。 AI搜索系统通过LLM增强的语义特征得到了加强。 这些LLM直接处理用户查询和文档文本,产生更丰富的文本表示,并促进对权威性、质量和时效性等因素的更细致评估。
✍️ 基于LLM的生成(Writer):AI搜索的最终呈现
在Planner和Executor完成它们的工作后,AI搜索系统中的Writer智能体负责生成最终的、准确的答案。 然而,Executor检索到的文档常常包含噪声和错误,解决这些问题以增强模型的鲁棒性仍然是一个紧迫的技术挑战。
🛡️ 5.1 鲁棒的RAG系统
在实际的RAG场景中,检索器并非总是完美的,提供给生成器的提示常常包含噪声文档。 未经进一步优化的LLM往往对提示中的噪声很敏感,这会降低RAG系统的整体性能。
为了解决这个问题,AI搜索系统提出了一种在多智能体方法中进行对抗性调优的ATM(Adversarial Tuning in a Multi-agent method)方法。 ATM利用一个多智能体系统结合对抗性调优来增强生成器的鲁棒性。 该系统由一个攻击者(Attacker)和一个生成器(Generator)组成。 攻击者旨在对检索器检索到的文档引入扰动,而生成器则试图抵御这些对抗性扰动并准确回答问题。
✅ 5.2 RAG任务对齐
为了更好地在RAG场景中利用LLM令人印象深刻的问答能力,有必要进一步将LLM与RAG任务的特定要求对齐。 为此,本工作引入了一种针对RAG场景的偏好对齐技术(PA-RAG),该技术通过多角度偏好优化实现了LLM与RAG要求的全面对齐。
RAG任务的要求可以概括为:响应的信息性、响应的鲁棒性和引用的质量。 PA-RAG的训练包括两个阶段:指令微调以赋予生成器基本的RAG能力,以及多角度偏好优化以进一步增强生成器的响应信息性、鲁棒性和引用质量。
🔄 5.3 基于用户反馈的优化
尽管LLM在理解人类指令和生成高质量响应方面表现出强大的能力,但微调后的LLM有时会产生意想不到甚至有害的响应。 为了解决这个问题,AI搜索系统探索了直接将LLM与在线人类行为对齐,并提出了一种名为RLHB(Reinforcement Learning with Human Behaviors)的LLM对齐方法。
RLHB采用多模型同时训练机制,目标LLM作为生成器,另一个辅助LLM作为判别器。 它们进行对抗性训练,确保<查询, 响应, 反馈>
三元组来源于真实的在线交互。 在推理时,对齐后的生成器接受用户查询和最偏好的行为作为输入信号来生成响应。
🤝 5.4 多智能体联合优化
现代RAG系统被构建为由相互依赖的模块组成的复杂流水线,传统上通过对人工标注数据进行监督微调来独立优化。 这种模块化方法可能导致单个模块目标与生成准确答案的总体目标之间存在偏差。
为了解决这些限制,AI搜索系统提出了一种用于RAG的多模块联合优化算法(MMOA-RAG)。 通过将每个中间模块(如Planner、Web搜索工具、Executor和Writer)建模为独立的智能体,优化过程被形式化为一个多智能体协作强化学习任务。 MMOA-RAG利用多智能体PPO(MAPPO)算法,将所有模块的个体目标与最大化生成答案质量和准确性的共同目标对齐。
⚡ 轻量化LLM生成:让AI搜索飞起来
随着AI驱动的搜索应用用户流量大幅增加,优化LLM推理已成为降低延迟、最小化运营成本和提高整体系统效率的关键任务。 本节将探讨在工业界和学术界广泛采用的轻量化方法,这些方法因其有效性、部署可行性、成本效益和可衡量的性能提升而受到青睐。
🔬 6.1 算法级轻量化
算法级轻量化主要目标是减少LLM的参数数量和固有的计算复杂性。 局部注意力(Local Attention)和模型剪枝(Model Pruning)是两种高效且部署成本低的技术。 局部注意力通过限制每个Token关注的输入Token范围来减轻计算负担,而模型剪枝则通过直接移除模型权重矩阵中的冗余参数来减小模型存储和计算需求。
🏗️ 6.2 基础设施级轻量化
基础设施级轻量化涵盖了旨在优化大规模AI系统(特别是LLM)计算和内存效率的多种技术。 其中包括输出长度缩减、语义缓存、量化、Prefill-Decode分离部署和推测解码等关键策略。
- 输出长度缩减:通过提示、训练或压缩中间状态等方法,减少模型生成响应的长度,从而降低推理成本。
- 语义缓存:利用不同用户提交的查询之间的高度语义相似性,通过缓存查询和结果来避免重复计算。
- 量化:降低模型权重和/或激活的数值精度(例如,从FP32降至FP8或更低位整数),从而减少内存占用和带宽需求,并加速计算。
- Prefill-Decode分离部署:针对LLM推理中计算密集型(prefill)和内存带宽密集型(decode)两个不同阶段,分别进行部署和资源分配,以实现最优资源利用。
- 推测解码:通过并行处理加速LLM推理,利用一个或多个“草稿”模型生成候选Token序列,然后由目标模型进行并行验证,从而显著提高生成速度。
📊 评估:AI搜索范式的实证检验
为了进一步研究AI搜索系统在真实世界环境中的有效性,我们在百度搜索上进行了广泛的实验,并与传统的网页搜索系统进行了比较。
🧑💻 7.1 人工评估
我们采用并排比较的方式进行了一系列人工评估。 评估结果显示,AI搜索系统在处理中等复杂和复杂查询时表现出显著的改进,复杂查询的归一化胜率(Normalized Win Rate, NWR)相对提升了13%。 这表明AI搜索系统能够更好地满足用户在复杂查询场景下的需求。
模型 | NWR(简单查询) | NWR(中等复杂查询) | NWR(复杂查询) |
Web 搜索 | - | - | - |
AI 搜索 | 0.00% | 5.00%* | 13.00%* |
*
表示与传统系统相比具有统计学显著性 (p < 0.05)。
📈 7.2 在线A/B测试
在百度搜索上进行的在线A/B测试显示,与传统搜索系统相比,AI搜索系统在用户端指标上取得了显著的相对改进:查询更改率(CQR)下降1.45%,页面浏览量(PV)增加1.04%,日活跃用户数(DAU)增加1.85%,停留时间(Dwell Time)增加0.52%。 所有报告值均具有统计学意义。
📜 7.3 案例研究
案例研究表明,对于简单查询,AI搜索系统与传统系统表现相当。 但对于需要多步推理的复杂查询,传统方法存在明显局限,而AI搜索系统通过其Master-Planner-Executor-Writer的协同工作流程,能够有效分解任务、调用工具并综合信息,最终给出正确答案。
🔮 结论:开启智能搜索新纪元
在本文中,我们提出了一种新颖的AI搜索范式,它从根本上重塑了传统的信息搜寻过程。 我们的AI搜索系统利用模块化的多智能体架构来模拟和增强类似人类的解决问题的能力。 通过主动规划、动态工具集成和迭代推理,我们的系统能够有效处理复杂的多步查询,从而减轻用户的认知负担并提高整体搜索质量。
这项工作为AI驱动的信息搜寻研究奠定了基础,并为优化协作智能体性能和无缝工具集成指明了几个有希望的方向。 我们相信,AI搜索范式不仅仅是一次技术升级,更是迈向真正智能、协同、能够理解并预测我们需求的搜索新纪元的关键一步。
参考文献
- Li, Y., Cai, H., Kong, R., Chen, X., Chen, J., Yang, J., ... & Yin, D. (2025). Towards AI Search Paradigm. arXiv preprint arXiv:2506.17188.
- Yao, S., Zhao, J., Yu, D., Du, N., Shafran, I., Narasimhan, K., & Cao, Y. (2023). ReAct: Synergizing reasoning and acting in language models. International Conference on Learning Representations (ICLR).
- Lewis, P., Perez, E., Piktus, A., Petroni, F., Karpukhin, V., Goyal, N., ... & Kiela, D. (2020). Retrieval-augmented generation for knowledge-intensive nlp tasks. Advances in neural information processing systems, 33, 9459-9474.
- Schulman, J., Wolski, F., Dhariwal, P., Radford, A., & Klimov, O. (2017). Proximal policy optimization algorithms. arXiv preprint arXiv:1707.06347.
- Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., ... & Polosukhin, I. (2017). Attention is all you need. Advances in neural information processing systems, 30.