Plaza 新闻汇总

构建有效的代理:Anthropic Claude 的经验与实践

在过去的一年中,Anthropic 与数十个团队合作,在各个行业构建大型语言模型 (LLM) 代理。始终如一的是,最成功的实施并非使用复杂的框架或专门的库,而是构建了简单且可组合的模式。

本文分享了 Anthropic 从与客户合作和自身构建代理中获得的经验,并为开发人员提供了构建有效代理的实用建议。

**什么是代理?**

“代理”可以有多种定义。有些客户将代理定义为完全自主的系统,可以在较长时间内独立运行,使用各种工具来完成复杂的任务。其他客户则使用该术语来描述遵循预定义工作流的更具规定性的实现。在 Anthropic,将所有这些变体都归类为代理系统,但在工作流和代理之间存在重要的架构区别:

* 工作流是通过预定义的代码路径来编排 LLM 和工具的系统。

* 另一方面,代理是 LLM 动态引导自身过程和工具使用、控制其完成任务方式的系统。

下文将详细探讨这两种类型的代理系统。在附录 1(“实践中的代理”)中,描述了客户在使用这些系统时发现特别有价值的两个领域。

**何时(以及何时不)使用代理**

在使用 LLM 构建应用程序时,建议找到最简单的解决方案,只有在需要时才增加复杂性。这可能意味着根本不构建代理系统。代理系统通常以延迟和成本换取更好的任务性能,因此应考虑这种权衡何时有意义。

当需要更多复杂性时,工作流为明确定义的任务提供可预测性和一致性,而代理是在需要大规模灵活性以及模型驱动的决策时更好的选择。然而,对于许多应用程序,使用检索和上下文示例优化单个 LLM 调用通常就足够了。

**何时以及如何使用框架**

许多框架可以简化代理系统的实现,包括:

* LangChain 的 LangGraph;

* Amazon Bedrock 的 AI 代理框架;

* Rivet,一个拖放式 GUI LLM 工作流构建器;

* Vellum,另一个用于构建和测试复杂工作流的 GUI 工具。

这些框架通过简化标准的低级任务(如调用 LLM、定义和解析工具以及将调用链接在一起)使入门变得容易。但是,它们通常会创建额外的抽象层,这会模糊底层提示和响应,从而使调试变得更加困难。它们也可能让人忍不住在简单设置就足够的情况下添加复杂性。

建议开发人员首先直接使用 LLM API:许多模式可以用几行代码实现。如果确实使用了框架,请确保了解底层代码。对底层内容的错误假设是客户错误的一个常见来源。可以参考提供的示例实现。

**构建块、工作流和代理**

在本节中,将探讨在生产环境中看到的代理系统的常见模式。将从基础构建块——增强型 LLM 开始,并逐步提高复杂性,从简单的组合工作流到自主代理。

**构建块:增强型 LLM**

代理系统的基本构建块是通过检索、工具和内存等增强功能增强的 LLM。当前的模型可以主动使用这些功能——生成自己的搜索查询、选择合适的工具以及确定要保留哪些信息。

建议关注实现的两个关键方面:将这些功能定制到特定的用例,并确保它们为 LLM 提供易于使用且记录良好的接口。虽然实现这些增强功能的方法有很多,但一种方法是通过最近发布的模型上下文协议,该协议允许开发人员通过简单的客户端实现与不断增长的第三方工具生态系统集成。

在本指南的其余部分,假定每个 LLM 调用都可以访问这些增强功能。

**工作流:提示链**

提示链将任务分解成一系列步骤,其中每个 LLM 调用都处理前一个调用的输出。可以在任何中间步骤中添加编程检查(请参见下图中的“gate”),以确保流程仍在正轨上。

**何时使用此工作流:**此工作流非常适合可以轻松且干净地分解成固定子任务的情况。主要目标是通过使每个 LLM 调用都成为一项更简单的任务来权衡延迟以提高准确性。

**提示链有用的示例:**

* 生成营销文案,然后将其翻译成不同的语言。

* 编写文档大纲,检查大纲是否满足某些条件,然后根据大纲编写文档。

**工作流:路由**

路由对输入进行分类并将其定向到专门的后续任务。此工作流允许关注点分离,并构建更专业的提示。如果没有此工作流,针对一种输入进行优化可能会损害其他输入的性能。

**何时使用此工作流:**路由非常适合于需要单独处理的不同类别且分类可以准确地处理(通过 LLM 或更传统的分类模型/算法)的复杂任务。

**路由有用的示例:**

* 将不同类型的客户服务查询(一般问题、退款请求、技术支持)定向到不同的下游流程、提示和工具。

* 将简单/常见的问题路由到较小的模型(例如 Claude 3.5 Haiku),并将困难/不常见的问题路由到更强大的模型(例如 Claude 3.5 Sonnet),以优化成本和速度。

**工作流:并行化**

LLM 有时可以同时处理任务,并以编程方式汇总其输出。此工作流(并行化)体现在两个关键变体中:

* 分段:将任务分解成并行运行的独立子任务。

* 投票:多次运行同一任务以获取不同的输出。

**何时使用此工作流:**当可以并行化以提高速度的子任务或需要多个视角或尝试以获得更高置信度结果时,并行化非常有效。对于具有多方面考虑因素的复杂任务,LLM 在每个考虑因素由单独的 LLM 调用处理时通常表现更好,从而允许专注于每个特定方面。

**并行化有用的示例:**

* 分段:实现防护措施,其中一个模型实例处理用户查询,而另一个模型则筛选不适当的内容或请求。这往往比让同一个 LLM 调用同时处理防护措施和核心响应表现更好。

* 自动评估 LLM 性能,其中每个 LLM 调用都会评估模型在给定提示上的性能的不同方面。

* 投票:审查代码是否存在漏洞,其中几个不同的提示审查代码,如果发现问题则标记代码。

* 评估给定内容是否不合适,多个提示评估不同的方面或需要不同的投票阈值来平衡误报和误判。

**工作流:协调器-工作器**

在协调器-工作器工作流中,中央 LLM 会动态地分解任务,将其委托给工作器 LLM,并综合其结果。

**何时使用此工作流:**此工作流非常适合无法预测所需子任务数量的复杂任务(例如,在编码中,需要更改的文件数量以及每个文件中更改的性质可能取决于任务)。虽然它在拓扑结构上相似,但与并行化的关键区别在于它的灵活性——子任务不是预定义的,而是由协调器根据特定输入确定的。

**协调器-工作器有用的示例:**

* 每次对多个文件进行复杂更改的编码产品。

* 涉及从多个来源收集和分析信息以查找可能相关信息的任务。

**工作流:评估器-优化器**

在评估器-优化器工作流中,一个 LLM 调用生成响应,而另一个 LLM 调用在一个循环中提供评估和反馈。

**何时使用此工作流:**此工作流在有明确评估标准且迭代改进提供可衡量价值时特别有效。两个适合的迹象是,首先,当人类表达他们的反馈时,LLM 响应可以得到明显的改进;其次,LLM 可以提供此类反馈。这类似于人类作家在制作精美的文档时可能会经历的迭代写作过程。

**评估器-优化器有用的示例:**

* 文学翻译,其中翻译 LLM 最初可能无法捕捉到细微差别,但评估 LLM 可以提供有用的批评。

* 需要多轮搜索和分析才能收集全面信息的复杂搜索任务,其中评估器决定是否需要进一步搜索。

**代理**

随着 LLM 在关键功能(理解复杂输入、参与推理和计划、可靠地使用工具以及从错误中恢复)方面的成熟,代理正在生产环境中出现。代理从人类用户的命令或互动对话开始工作。一旦任务明确,代理就会独立地进行计划和操作,可能会返回到人类以获取更多信息或判断。在执行期间,代理必须在每个步骤中从环境中获取“基本事实”(例如工具调用结果或代码执行)以评估其进度。代理可以暂停以在检查点或遇到阻塞时获取人类反馈。任务通常在完成时终止,但通常也包括停止条件(例如最大迭代次数)以保持控制。

代理可以处理复杂的任务,但它们的实现通常很简单。它们通常只是使用基于环境反馈的工具循环的 LLM。因此,必须清晰且周到地设计工具集及其文档。在附录 2(“提示工程工具”)中扩展了工具开发的最佳实践。

**自主代理**

**何时使用代理:**代理可用于难以或不可能预测所需步骤数量的开放式问题,以及无法对固定路径进行硬编码的情况。LLM 可能会操作多个回合,并且必须在一定程度上信任其决策。代理的自主性使其成为在受信任环境中扩展任务的理想选择。

代理的自主性意味着更高的成本,以及错误累积的可能性。建议在沙盒环境中进行广泛的测试,以及适当的防护措施。

**代理有用的示例:**

以下是 Anthropic 自身实现的一些示例:

* 一个解决 SWE-bench 任务的编码代理,这些任务涉及基于任务描述对许多文件进行编辑;

* Anthropic 的“计算机使用”参考实现,其中 Claude 使用计算机完成任务。

**组合和自定义这些模式**

这些构建块不是规定性的。它们是开发人员可以塑造和组合以适应不同用例的常见模式。与任何 LLM 功能一样,成功的关键是衡量性能并迭代实现。重申一下:只有在它能明显改善结果时才应考虑增加复杂性。

**总结**

在 LLM 领域取得成功并不在于构建最复杂的系统,而在于构建适合您需求的正确系统。从简单的提示开始,通过全面的评估对其进行优化,并且仅当更简单的解决方案不足时才添加多步骤代理系统。

在实现代理时,尝试遵循三个核心原则:

* 保持代理设计的简单性。

* 通过明确显示代理的计划步骤来优先考虑透明度。

* 通过彻底的工具文档和测试精心设计代理-计算机接口 (ACI)。

框架可以帮助您快速入门,但不要犹豫,在迁移到生产环境时减少抽象层并使用基本组件进行构建。通过遵循这些原则,可以创建不仅功能强大而且可靠、可维护且受用户信任的代理。

**致谢**

撰写者:Erik Schluntz 和 Barry Zhang。这项工作借鉴了 Anthropic 在构建代理方面的经验以及客户分享的宝贵见解,对此表示衷心的感谢。

**附录 1:实践中的代理**

Anthropic 与客户合作发现,AI 代理有两个特别有前景的应用,证明了上述模式的实用价值。这两个应用程序都说明了代理如何为需要对话和行动、具有明确成功标准、能够启用反馈循环以及集成有意义的人工监督的任务增加最大价值。

**A. 客户支持**

客户支持将熟悉的聊天机器人界面与通过工具集成的增强功能相结合。这非常适合更开放的代理,因为:

* 支持交互自然遵循对话流程,同时需要访问外部信息和操作;

* 可以集成工具来提取客户数据、订单历史记录和知识库文章;

* 可以以编程方式处理发出退款或更新工单等操作;

* 可以通过用户定义的解决方案清晰地衡量成功。

几家公司已经通过基于用量的定价模型证明了这种方法的可行性,这些模型仅对成功的解决方案收费,从而显示出对代理有效性的信心。

**B. 编码代理**

软件开发领域展现了 LLM 功能的巨大潜力,其功能从代码补全发展到自主解决问题。代理特别有效,因为:

* 可以通过自动化测试验证代码解决方案;

* 代理可以使用测试结果作为反馈来迭代解决方案;

* 问题空间定义明确且结构良好;

* 可以客观地衡量输出质量。

在 Anthropic 的自身实现中,代理现在可以根据拉取请求描述本身解决 SWE-bench Verified 基准中的真实 GitHub 问题。但是,虽然自动化测试有助于验证功能,但人工审查对于确保解决方案符合更广泛的系统要求仍然至关重要。

**附录 2:提示工程工具**

无论构建哪种代理系统,工具都可能是代理的重要组成部分。工具使 Claude 能够通过在 Anthropic 的 API 中指定其确切结构和定义来与外部服务和 API 交互。当 Claude 响应时,如果计划调用工具,它将在 API 响应中包含一个工具使用块。工具定义和规范应与整体提示一样多地给予提示工程关注。在本简短的附录中,描述了如何提示工程工具。

通常有几种方法可以指定相同的操作。例如,可以通过编写 diff 或重写整个文件来指定文件编辑。对于结构化输出,可以在 markdown 或 JSON 中返回代码。在软件工程中,这些差异在视觉上是相同的,可以无损地从一个转换为另一个。但是,某些格式比其他格式更难让 LLM 编写。编写 diff 需要在写入新代码之前知道块标头中更改的行数。与 markdown 相比,在 JSON 中编写代码需要额外转义换行符和引号。

在决定工具格式方面的建议如下:

* 给模型足够的标记来“思考”,然后再陷入困境。

* 使格式与模型在互联网上自然出现的文本格式尽可能接近。

* 确保没有格式“开销”,例如必须准确地计算数千行代码或对它编写的任何代码进行字符串转义。

一条经验法则是考虑人机界面 (HCI) 需要多少工作,并计划在创建良好的代理计算机接口 (ACI) 上投入相同的工作量。以下是一些关于如何做到这一点的想法:

* 设身处地为模型着想。根据描述和参数,使用此工具是否显而易见,或者是否需要仔细考虑?如果是,那么对于模型来说可能也是如此。一个好的工具定义通常包括使用示例、边缘情况、输入格式要求以及与其他工具的清晰边界。

* 如何更改参数名称或描述以使事情更清晰?可以将其视为为团队中的初级开发人员编写一个很棒的文档字符串。当使用许多类似的工具时,这一点尤其重要。

* 测试模型如何使用工具:在 Anthropic 的工作台中运行许多示例输入,以查看模型会犯什么错误,然后进行迭代。

* 使工具更易用。更改参数,使其更难出错。

在为 SWE-bench 构建代理时,Anthropic 实际上花费更多的时间来优化工具而不是整体提示。例如,Anthropic 发现,在代理移出根目录后,模型会使用相对文件路径的工具时出错。为了解决这个问题,Anthropic 将工具更改为始终需要绝对文件路径——并且发现模型完美地使用了这种方法。

原文地址
2024-12-21 06:40:32