自带 LLM
Portkey 提供了一个强大而安全的平台,用于观察、集成和管理您的 本地或私有托管的自定义模型。
将自定义模型与 Portkey SDK 集成
您可以将任何自定义 LLM 与 Portkey 集成,只要其 API 与 Portkey 已支持的 15+ 提供商中的任何一个兼容。
1. 安装 Portkey SDK
npm install --save portkey-aipip install portkey-ai2. 使用自定义 URL 初始化 Portkey
您可以在实例化 Portkey 客户端时指定 provider + custom_host 对,而不是使用 provider + authorization 对或指向提供者的 virtualKey。
这里的 custom_host 指的是托管您自定义模型的 URL,包括 API 版本标识符。
import Portkey from 'portkey-ai'
const portkey = new Portkey({
apiKey: "PORTKEY_API_KEY",
provider: "PROVIDER_NAME", // 这可以是 mistral-ai、openai 或其他任何名称
customHost: "http://MODEL_URL/v1/", // 您的自定义 URL 及版本标识符
authorization: "AUTH_KEY", // 如果您需要传递身份验证
})from portkey_ai import Portkey
portkey = Portkey(
api_key="PORTKEY_API_KEY",
provider="PROVIDER_NAME", # 这可以是 mistral-ai、openai 或其他任何名称
custom_host="http://MODEL_URL/v1/", # 您的自定义 URL 及版本标识符
authorization="AUTH_KEY", # 如果您需要传递身份验证
)有关 custom_host 的更多信息,请参见 这里。
3. 调用聊天完成
使用 Portkey SDK 从您的模型中调用聊天完成,就像您使用任何其他提供者一样。
安全转发敏感头信息
在将自定义 LLM 集成到 Portkey 时,您可能会在请求头中包含不希望 Portkey 跟踪或记录的敏感信息。Portkey 提供了一种安全的方式,直接将特定头信息转发到您模型的 API,而无需进行任何处理。
只需在初始化 Portkey 客户端时使用 forward_headers 属性指定一个头名称数组。Portkey 将直接将这些头信息转发到您的自定义主机 URL,而不会记录或跟踪它们。
以下是一个示例:
x-portkey-forward-headers 接受以逗号分隔的头名称
配置对象中的转发头
您还可以在 Config 对象中定义 forward_headers,然后在发起请求时直接传递这些头部。
下一步
探索 SDK 支持的完整功能列表:
SDK您可以在相关部分找到更多信息:
Last updated