Predibase

Portkey 提供了一个强大且安全的网关,可以无缝集成来自 Predibase 的 开源微调 LLM 到您的应用程序中。通过 Portkey,您可以利用快速 AI 网关、缓存、可观察性、提示管理等强大功能,同时通过虚拟密钥系统安全管理您的 LLM API 密钥。

Provider Slug**: predibase**

Portkey SDK 与 Predibase 的集成

使用 Portkey,您可以以熟悉的 OpenAI-spec 调用您的 Predibase 模型,并通过 2 LOC 的更改在 Predibase 微调模型上尝试您现有的管道。

1. 安装 Portkey SDK

使用 npm 或 pip 在您的项目中安装 Portkey SDK:

npm install --save portkey-ai

2. 使用虚拟密钥初始化 Portkey

要使用 Predibase 和 Portkey,请在此获取您的 API 密钥,然后将其添加到 Portkey 以创建虚拟密钥。

import Portkey from 'portkey-ai'
 
const portkey = new Portkey({
    apiKey: "PORTKEY_API_KEY", // defaults to process.env["PORTKEY_API_KEY"]
    virtualKey: "VIRTUAL_KEY" // 您的 Predibase 虚拟密钥
})

3. 在 Predibase 无服务器端点上调用聊天完成

Predibase 提供了 Llama 3MistralGemma 等 LLM,可以在其 无服务器基础设施 上即时查询。

发送 Predibase 租户 ID

Predibase 希望在每个请求中包含您的 账户租户 ID 和 API 密钥。使用 Portkey,您可以在请求时通过 user 参数发送 您的租户 ID

4. 调用 Predibase 微调模型

使用 Portkey,您可以在请求时通过 model 参数直接发送微调模型和适配器的详细信息。

格式为:

model = <base_model>:<adapter-repo-name/adapter-version-number>

例如,如果您的基础模型是 llama-3-8b,适配器库名称是 sentiment-analysis,您可以像这样发出请求:


路由到专用部署

使用 Portkey,您也可以轻松路由到您专门部署的模型。只需在 model 参数中传递专用部署名称:

model = "my-dedicated-mistral-deployment-name"

JSON Schema 模式

您可以为所有 Predibase 模型强制执行 JSON schema - 只需将 response_format 设置为 json_object 并在发出请求时传递相关 schema。Portkey 日志将单独显示您的 JSON 输出


下一步

SDK 支持的完整功能列表请参见以下链接。

SDK

您可以在相关部分找到更多信息:

Last updated