Predibase
Portkey 提供了一个强大且安全的网关,可以无缝集成来自 Predibase 的 开源 和 微调 LLM 到您的应用程序中。通过 Portkey,您可以利用快速 AI 网关、缓存、可观察性、提示管理等强大功能,同时通过虚拟密钥系统安全管理您的 LLM API 密钥。
Portkey SDK 与 Predibase 的集成
使用 Portkey,您可以以熟悉的 OpenAI-spec 调用您的 Predibase 模型,并通过 2 LOC 的更改在 Predibase 微调模型上尝试您现有的管道。
1. 安装 Portkey SDK
使用 npm 或 pip 在您的项目中安装 Portkey SDK:
npm install --save portkey-aipip install portkey-ai2. 使用虚拟密钥初始化 Portkey
要使用 Predibase 和 Portkey,请在此获取您的 API 密钥,然后将其添加到 Portkey 以创建虚拟密钥。
import Portkey from 'portkey-ai'
const portkey = new Portkey({
apiKey: "PORTKEY_API_KEY", // defaults to process.env["PORTKEY_API_KEY"]
virtualKey: "VIRTUAL_KEY" // 您的 Predibase 虚拟密钥
})from portkey_ai import Portkey
portkey = Portkey(
api_key="PORTKEY_API_KEY", # 替换为您的 Portkey API 密钥
virtual_key="VIRTUAL_KEY" # 替换为您的 Predibase 虚拟密钥
)import OpenAI from "openai";
import { PORTKEY_GATEWAY_URL, createHeaders } from "portkey-ai";
const portkey = new OpenAI({
baseURL: PORTKEY_GATEWAY_URL,
defaultHeaders: createHeaders({
apiKey: "PORTKEY_API_KEY",
virtualKey: "PREDIBASE_VIRTUAL_KEY",
}),
});3. 在 Predibase 无服务器端点上调用聊天完成
Predibase 提供了 Llama 3、Mistral、Gemma 等 LLM,可以在其 无服务器基础设施 上即时查询。
4. 调用 Predibase 微调模型
使用 Portkey,您可以在请求时通过 model 参数直接发送微调模型和适配器的详细信息。
例如,如果您的基础模型是 llama-3-8b,适配器库名称是 sentiment-analysis,您可以像这样发出请求:
路由到专用部署
使用 Portkey,您也可以轻松路由到您专门部署的模型。只需在 model 参数中传递专用部署名称:
JSON Schema 模式
您可以为所有 Predibase 模型强制执行 JSON schema - 只需将 response_format 设置为 json_object 并在发出请求时传递相关 schema。Portkey 日志将单独显示您的 JSON 输出
下一步
SDK 支持的完整功能列表请参见以下链接。
SDK您可以在相关部分找到更多信息:
Last updated