少量示例提示
LLMs 在遵循给定结构方面非常有能力。通过提供几个示例,说明助手应如何对给定提示做出响应,LLM 可以生成与这些示例格式紧密相符的响应。
Portkey 通过提示模板的 raw prompt 功能增强了这种能力。您可以轻松地将少量示例添加到您的模板中,并随时动态更新它们,而无需修改提示模板!
它是如何工作的?
让我们考虑一个用例,在这个用例中,给定候选人简历和职位描述,LLM 预计以特定的 JSON 格式输出候选人笔记。
这是我们的原始提示的样子:
[
{
"role": "system",
"message": "You output candidate notes in JSON format when given a candidate profile and a job description.",
},
{{few_shot_examples}},
{
"role": "user",
"message": "Candidate Profile: {{profile}} \n Job Description: {{jd}}"
},
]让我们定义我们的变量:
如您所见,我们在上面的示例中添加了变量 few_shot_examples、profile 和 jd。
现在让我们添加一些具有预期 JSON 结构的示例:
在此配置中,{{few_shot_examples}} 是少量学习示例的占位符,这些示例是动态提供的,可以根据需要进行更新。这使得 LLM 能够根据提供的示例调整其响应,从而促进多样化和上下文感知的输出。
将所有内容汇聚在 Portkey 的提示管理器中:
前往 https://app.portkey.ai/ 的“提示”页面,创建一个新的提示模板,并选择您喜欢的 AI 提供商。
选择聊天模式将启用原始提示功能:

点击它并粘贴上面的原始提示代码。就这样!您已经准备好了可以动态更新的少量提示模板。
使用 Portkey 部署提示
将您的提示模板部署到 API 使用 Portkey 非常简单。您可以使用我们的 Prompt Completions API 来使用我们创建的提示。
您可以通过 few_shot_examples 变量传递动态的少量学习示例,并开始在生产中使用提示模板!
关于少量示例提示的详细指南
我们推荐本指南,详细介绍了少量示例提示的研究及其边缘案例。
支持
遇到问题?请通过 [email protected] 联系我们,以便快速解决。
Last updated