图文教程

模板配置与管理

什么是提示词?

提示词在 AI Agent 中扮演着核心角色,它直接关系到模型输出结果的质量与精准度。它不仅影响最终生成的内容,也决定了模型对输入信息的理解层次。通过合理设计提示词,能够有效引导模型,使其产出符合预期的高水平结果。   基础概念 提示词 所谓提示词,即用户在与模型或智能系统进行交互时所输入的指令或文字,其作用是促使系统做出响应或完成特定操作。它可以是问题、指令,也可以是描述性的语句,旨在帮助系统把握用户需求并给出相应的反馈。 提示词工程 提示词工程指的是对提示词进行设计与优化,从而引导模型产出期望结果的过程。这一过程涉及选用恰当的语言表达与结构形式,以确保模型能够准确理解指令并输出最佳答案。AI智能体部署工具将提示词工程加以流程化,只需配置提示词模板,便可快速生成规范且高质量的提示词。 提示词模板 提示词模板是一种将提示词格式化的结构方式。它通过设定固定的指令格式、可替换的变量占位符以及上下文处理规则,确保模型在面对不同任务时,都能产生一致且可受控的输出结果。   编写提示词的几点建议 在构建系统级提示词时,推荐采用以下做法: 讲清任务目标:明确告知模型需要完成哪些工作,比如写一段文字、翻译内容或归纳要点等。 赋予角色身份:为模型指定一个角色或身份标签,有助于缩小其思维发散范围,提升回答的专业性。 采用结构清晰的表达:善用数字编号、分隔符号等手段,让提示词更容易被模型解析。 补充背景信息:在提示词中添上必要的上下文,方便模型更透彻地理解任务要求。 给出范例:通过具体例子展示您期望的输入和输出形式,能够帮助模型做出更精准的推断。 引入动态占位符:利用变量占位符,让提示词能够灵活适配多种不同的输入内容。 以下是由AI智能体部署工具提供的一个用来生成创意内容的提示词。

开发提示词

在开发 AI 应用过程中,编写高质量的提示词是重要任务之一。合理的提示词设计和模型配置,可以充分发挥模型的潜力,实现更智能、更灵活的应用场景。AI智能体部署工具提供了系统化能力帮助你快速编写并调试提示词,以满足业务需求。 说明:本文中的模型指代大语言模型。   流程介绍 AI智能体部署工具提供了完整的提示词开发流程: 创建提示词:首先,你需要在指定空间下创建一个提示词。 设计和编写提示词:接下来,使用模板来构建适用于不同应用场景(例如分类、总结、问答等)的提示词。 调试和优化:在完成 模板搭建后,通过调整模型参数、插入函数和变量等方式进行模拟调用,检查输出是否符合预期。同时,支持比较多个模型的表现,以选择最适合的模型。 保存:最后,可以保存模板内容或保存代码文本到本地,用于保存版本记录、使用或导入。后续,可针对不同版本的提示词进行评测或通过 SDK 获取提示词配置。  

步骤一:创建 Prompt

首先,你需要创建一个模板。 你可以选择自定义创建,也可以基于AI智能体部署工具提供的示例模板创建,两种方式都能帮助你快速开启提示词的开发工作。   自定义创建 如果你希望创建一个空的模板,从零开始编写。操作步骤如下: 在模板管理中,点击右上角的 创建新模板         点击左侧导航栏,选择:模板配置 > 创建模板                                 创建模板 对话框,输入 模板 Key、模板名称和描述,然后单击 确认 模板Key 是提示词的唯一标识符,同一空间内的 模板Key 不能相同。 模板 创建后,模板Key 无法修改。   基于模板创建 为便于快速创建常见场景的 模板 AI智能体部署工具 提供了 示例模板 ,你可以根据 示例模板 的内容来参考并创建 模板 参考以下步骤,基于 示例模板创建。 在模板管理中,选择 示例模板 ,点击 使用 。 AI智能体部署工具 将使用该 示例 为你创建一个新的 模板 ,并引导你填写基础信息。                   也可以,单击预览即可快速查看 模板内容 、并且快速调试 模板效果 。如果 模板 符合你的需求,在 调试区域右上角 单击保存,即可使用当前 示例 创建一个新的 模板

步骤二:设计和编写模板

完成 模板 创建后,你将进入到 模板配置 页面。在这里,你需要 设计和编写 模板。你可以在模板区域,编写 提示词 内容。例如,角色设定、任务边界、输出的格式要求等。你也可以输入一段简短的 提示词 ,由 AI 帮你优化。 此外,AI智能体部署工具 提供 提示词 编排能力,帮助你快速完成高质量的 提示词 编写,例如: 提示词提示词模板是一种格式化结构,用于组织提示词。它通过固定指令格式、动态变量占位符和上下文规则,确保模型在不同任务中生成一致且可控的输出。 模型配置AI智能体部署工具提供热门的多种模型供你选择,支持调整模型配置以控制输出风格和内容长度。 函数调用:对于支持使用工具的模型,AI智能体部署工具 支持配置函数,模拟函数调用过程,方便更好地评估提示词效果。  

步骤三:调试 Prompt 效果

编写 提示词 之后,你可以在 预览与调试 区域输入问题,进行调试,验证输出效果是否符合预期。调试过程中,你可以随时修改 提示词 来测试模型输出的效果。                                       以普通调试模式为例,你可以在 Prompt 开发页面的预览与调试区域,直接输入一个指令,然后单击运行;或者在 Prompt 变量中输入指令信息,然后直接单击运行。  

步骤四:提交并管理 Prompt

当完成 模板与提示词 调试与优化,模型可以输出预期结果后,可保存当前的 模板 配置,用于后续改进或优化。你也可以保存代码文本到本地,用于其他途径的导入和使用。              

编写提示词

            AI智能体部署工具 提供了提示词 模板常用配置AI优化提示词 等功能,帮助你快速生成符合业务需求的 提示词 。本文档介绍如何通过这些能力编写提示词。

纯文本变量

定义并添加 Prompt 变量的方式如下: 定义变量之后,你可以直接输入 {{,系统会提示你可以引用的变量列表。

多模态变量

对于支持多模态输入的模型,你可以在 User prompt 和 Assistant Prompt 中添加多模态变量,支持图片和文字,可实现图文混排。 说明:
  • 仅 User prompt 和 Assistant Prompt 中添加多模态变量,System Prompt 和 Placeholder 中暂不支持。
  • 添加多模态变量前,注意需要切换为支持多模态输入的模型,例如豆包视觉理解模型。
添加并调试多模态变量的方式如下:
  1. 单击添加消息,在 User prompt 和 System Prompt 输入框的右上角单击图片图标。
  2. 根据页面提示输入变量名称,并单击确定。
添加成功后,Prompt 变量区域会展示此变量,可见多模态标识。
  1. 在 Prompt 变量区域,找到新增的多模态变量,设置调试时使用的变量值。
单击添加数据,添加一个变量值,最多可添加 50 条。 多模态变量支持文本和图片两种类型的输入,其中图片类型支持本地上传图片文件,或者输入在线图片 URL。
  • 文本:文本格式的内容。
  • 图片(源文件):本地上传图片文件,单张图片大小限制需遵循模型要求,例如豆包 VLM-1028 单图大小上限为 10M,支持一次上传多张图片。
  • 图片(外链):输入在线图片 URL。上传时 AI智能体部署工具 会校验 URL 有效性,开发者需自行保证所提供 URL 长期可用。如果上传的图片链接解析失败,可以检查 URL 是否以 http:// 或 https:// 开头、域名格式是否正确,或尝试更换其他 URL。
  1. 在预览与调试区域输入问题,并单击运行,等待大模型回复。
例如下图中,通过思考内容可以判断出图片已被模型正常识别。

自动优化提示词

选中系统提示词文本框,然后单击右上角的 一键优化 图标。AI智能体部署工具 会基于底层优化算法自动帮你改进系统提示词。 说明: 系统提示词是基础框架,直接影响模型的输出效果。设计良好的系统提示词能够显著提升模型的表现。建议使用 AI智能体部署工具 一键优化 能力,以提升系统提示词的质量和效果。 如果优化后的版本不符合预期,可以单击刷新按钮,重新优化。

消息列表

当系统提示词无法满足复杂业务需求时,可以通过消息列表(MessageList)的方式来组织提示词。AI智能体部署工具 支持 MessageList 形态的提示词模版托管。 参考以下步骤添加更多提示词:
  1. 单击系统提示词区域下的 + 添加消息按钮。
  2. 单击文本框左上角的User,然后从下拉列表中选择要添加的提示词,并完成对应配置。
下表是 AI智能体部署工具 提示词模板支持的提示词消息,你可以根据实际应用场景选择合适的配置。 说明: 下表中的回复均为 AI 生成,仅供参考。
  • 对于内容摘要生成或创意文案撰写等单轮任务,配置系统提示词(System prompt)和用户提示词(User prompt)即可满足需求。
  • 对于客服咨询或教育辅导等多轮对话任务,可引入助手回复(Assistant prompt)和占位符(Placeholder)以记录历史对话上下文,从而保证对话的连贯性和个性化。
提示词 说明 示例
系统提示词 (System prompt) 作用:定义模型的全局规则,用于指导模型的整体行为,例如角色设定、任务边界、输出格式要求等。 使用场景:系统提示词在所有对话开始时加载,持续影响后续交互。 System prompt 示例: 1.  你是一名长沙旅游向导助手,需遵守以下规则: 2.  推荐内容需标注价格范围和地理位置(如“五一广场附近”); 3.  若用户需求不明确,主动提问澄清。 4.  使用中文回答用户问题,注意礼貌。
用户提示词 (User prompt) 作用:用于接收用户动态请求,通常使用占位符{{query}} 绑定具体内容。 使用场景:当用户与 AI 应用进行交互时,他们提供的输入信息会被系统接收。系统会将提示中的占位符替换为用户的实际输入内容,从而生成完整的提示信息,然后将其发送给模型进行处理。 User prompt 的优先级高于 System prompt。 User prompt 示例: 1.  用户需求:{{query}} 2.  请按上述规则回答,并附上费用估算。 用户提示词:“推荐五一广场附近的平价住宿” 替换后,发给模型的完整提示如下: 1.  用户需求:推荐五一广场附近的平价住宿 2.  请按上述规则回答,并附上费用估算。
助手回复 (Assistant prompt) 作用:明确指导模型以特定角色、风格、格式或逻辑进行回应的提示内容。 使用场景:通常与用户的问题(User Prompt)配合使用,用于约束或引导模型的输出行为,使其更符合预期的应用场景。 以下是文案生成助手的 Prompt 模板配置示例。 系统提示词: 1.  你是一个电商客服,可以回答用户的问题。 用户提示词: 1.  我的订单显示发货了,但一周没收到,怎么办? 助手回复: 1.  你是某电商平台的客服助手,需要以友好、专业的语气回应。首先安抚用户情绪,然后分步骤提供解决方案(如查询物流、联系快递、补发订单),最后主动询问是否需要进一步帮助。 模型会参考助手回复内容,生成一个如下的输出: 1.  非常抱歉给您带来不便!您的包裹可能因物流高峰期有所延迟。建议您先通过订单页面查询物流单号和最新状态;若信息异常,我们可以帮您联系快递确认;若长时间未收到,我们将为您申请补发。请问需要为您转接物流查询服务吗?
占位符 (Placeholder) 作用:用于记录历史对话记录,提供模型更多上下文信息。 使用场景:在多轮对话场景中,用户追问时,模型可以根据历史对话记录,准确生成回复内容。 配置说明:当在 Prompt 模板中添加 Placeholder 后,需要在右侧的 Prompt 变量区域,单击编辑 Placeholder 添加作为上下文历史内的对话历史 以下是一个客服场景的 Prompt 模板配置示例。 系统提示词: 你是电信运营商智能客服,需要遵守以下规则: 1.  准确识别用户问题类型(资费查询/故障报修/套餐变更) 2.  每次回复需包含当前对话轮次标识 3.  当用户问题不明确时,要求提供手机号码后四位验证身份 Placeholder 配置: 1.  {{chat_history}} Prompt 变量中添加的 Placeholder 的对话历史: 1.  User: 我的网络突然不能用了 2.  Assistant: 请问您的手机号码后四位是多少?我们需要先验证身份。 3.  User:1389 4.  Assistant: 1389尾号用户您好,检测到您家宽带处于离线状态,正在为您创建故障工单... 当用户提问工单号是多少时,模型回复如下所示: 1.  1389尾号用户您好,您当前的故障工单号是【CT20231115001】,已安排工程师尽快为您处理,预计2小时内修复。请保持手机畅通,以便工程师联系您。 当用户进行追问时,通过占位符自动注入完整对话历史,保证了对话的连续性和回复的准确性。

配置模型

在完成 Prompt 模板搭建后,接下来可以选择合适的模型来接收 Prompt 模板中的指令。 参考以下步骤,选择并完成模型配置。
  1. 在 Prompt 开发页面,从模型配置下拉列表中选择要使用的模型。
你可以根据模型的描述信息和功能关键词来选择合适的模型。
  1. 配置模型参数。
  • 最大回复长度:设置模型最多可以回复的 Token 数量。通常 100 Tokens 约等于 150 个中文汉字。
  • 生成随机性:设置模型回复的创新性和多样性。取值范围为 0~1。数值越接近 1,表示模型的输出更具多样性和创新性,适用于小说、文案生成等场景;反之,数值降低时,输出内容会更加遵循指令要求,减少多样性,适用于需要精确回答的场景。
  • Top P:设置模型的累计概率。在生成输出时,模型会从概率最高的词汇开始选择,直到这些词汇的总概率累积达到 Top P 值。这样可以限制模型只选择这些高概率的词汇,从而控制输出内容的多样性。
说明:
  • 不同模型可配置的参数可能不同,请以界面上支持的配置为准。
  • 不建议同时调整 Top P 和生成随机性,这可能会导致输出结果不稳定或不符合预期。建议根据具体需求选择其中一个进行调整。

配置函数

选择支持 Function Call 的模型后,可以使用插入函数功能来模拟函数调用。当前,AI智能体部署工具 并不会实际调用定义的函数,而是根据模型的输出模拟调用过程返回预期的函数结果,以便继续执行用户指令。   参考以下步骤,配置模拟函数调用:
  1. 在 Prompt 开发页面的模型配置区域下,单击 +新增函数。
  2. 在新增函数窗口,完成函数配置。
  3. 在左侧的函数面板中定义函数配置,包括函数的名称(name)、描述(description)以及参数定义(parameters)。可单击使用模板根据模板定义函数。
  4. 在右侧的模拟值面板中输入模拟的返回值。
  5. 由于上一步函数的执行结果会影响下一步模型的决策,为了便于快速验证,可以为函数添加模拟返回值,从而高效测试多步函数调用流程。
  6. 单击确定。
  1. 保存函数配置后,系统会自动启用这个函数,并开启单步调用模式。你也可以根据实际需求进行调整:
  • 启用函数:启用后,调试过程中将模拟函数调用,输出函数返回结构。
  • 单步调试:
    • 单步调试模式下会逐步执行模型的函数调用,并支持修改模拟值。通过这种方式,你可以更详细地了解模型的执行过程及其影响。
    • 非单步模式:在非单步模式下,系统会一次性返回大型模型的函数调用和最终结果,整个过程更为简洁。
  1. 重复上述步骤,添加更多函数。
至此,你就完成了提示词的设计和编写。接下来,你就可以在 AI智能体部署工具 进行 Prompt 调试,验证输出效果是否符合预期。  

调试提示词

AI智能体部署工具 提供两种调试模式:普通模式和自由对比模式,默认为普通模式。在以下场景中,推荐进入自由对比模式进行 Prompt 调试:
  • 当需要快速对比同一 Prompt 在不同模型上的表现差异时
  • 当需要快速对比不同 Prompt 在同一模型上的表现差异时

普通调试

你可以在 模板配置 页面的预览与调试区域,直接输入一个指令,然后单击运行;或者在 模板 变量中输入指令信息,然后直接单击运行。

设置运行模式

普通调试时,可以在调试区域设置运行模式。默认为单次运行。
运行模式 说明 示例
单次运行 针对指定 User Prompt,模型仅执行一次,并输出一条回复。
多次运行 针对指定 User Prompt,模型同时执行 n 次,并横向并排展示每一次的运行结果,以便有效测试模型回复的稳定性。每个运行结果均记录 Trace,你也可以通过观测功能查看每一次请求的调用链。 多次运行模式可设置运行组数,即模型运行的次数,默认 2 组,最多可设置为 10 组。 多次运行模式下,无法发送新消息,你可以采纳更好的一条回复,继续进行调试。

自由对比模式

自由对比模式适用于需要比较不同模型或系统提示词的表现的场景。 参考以下步骤,开启自由对比调试:
  1. 模板配置 页面,单击进入自由对比模式。
  1. 根据需要调整对照组的配置。
例如保持其他配置不变的情况下,使用不同的模型,查看不同模型的表现。 系统默认添加一个与基准组配置相同的对照组。 说明:
  • 在需要调整 提示词模型配置 以进行对比时,建议对基准组进行调整。这样可以避免在切换到自由对比模式后,无法保存调整后的配置。
选择右侧的同步勾选框,你可以将草稿部分的编辑内容(包含:提示词模版、变量信息、函数信息等)一键同步至对照组。
  1. 在预览与调试区域,输入一个指令,然后单击运行。
  2. 查看三个对照组的输出结果进行比较。
 

配置模型

AI智能体部署工具 提供多个热门的模型,你可以在调试提示词查看不同模型的生成效果。本文档介绍如何选择模型并设置模型参数。

选择模型

你可以在提示词详情页面的模型配置区域为提示词选择一个合适的大模型,例如对于长文生成或优化相关的智能体选择一个支持长文本的大模型、对于具有复杂业务逻辑的智能体选择一个支持 Function call 的大模型。如果调试提示词时,发现模型效果不及预期,你也可以切换成其他模型,测评同一个提示词在各个模型上的效果,选择最合适的模型。

设置模型参数

选择模型之后,你可以直接使用 AI智能体部署工具 预设的模型参数来调试提示词,也可以根据调试场景的需求,自行设置模型参数。目前支持设置的模型参数如下:
参数 说明
最大回复长度 设置模型单次生成内容的最大长度,单位为 Token。通常 100 Tokens 约等于 150 个中文汉字。该值会影响生成内容的篇幅。
生成随机性 控制生成结果的随机程度,也称为 Temperature。值越高,回复的随机性和创造性越强;值越低,回复的确定性和逻辑性越强。建议不要与 “Top p” 同时调整。
Top P 控制生成结果的多样性,也称为核采样(Nucleus Sampling)。模型会从累积概率超过该值的词汇中进行采样。建议不要与 “生成随机性” 同时调整。
重复语句惩罚 设置对生成内容中重复词语的惩罚力度。值越高,越能有效降低模型生成重复语句的概率。当该值为正时,会阻止模型频繁使用相同的词汇和短语,从而增加输出内容的多样性。
深度思考 深度思考开关 ● 开启深度思考:开启后,智能体在与用户对话时会先输出一段思维链内容,通过逐步拆解问题、梳理逻辑,提升最终输出答案的准确性。但该模式会因额外的推理步骤消耗更多 Token。 ● 关闭深度思考:关闭后,智能体将直接生成最终答案,不再经过额外的思维链推理过程,可有效降低 Token 消耗,提升响应速度。 ● 自动:启用自动模式后,模型会根据对话内容的复杂度,自动判断是否启用深度思考: ■ 简单问题(如事实查询、基础指令等):自动关闭深度思考,快速响应。 ■ 复杂问题(如逻辑推理、创意生成等):自动开启深度思考,保证答案质量。
深度思考长度 对于部分模型,开启深度思考后,还可以通过设置深度思考长度来控制思考内容的长度上限,深度思考长度的单位为 Token。