Mistral AI
Portkey 提供了一个强大且安全的网关,以便将各种大型语言模型(LLMs)集成到您的应用程序中,包括 Mistral AI APIs。
使用 Portkey,您可以利用快速的 AI 网关访问、可观察性、提示管理等功能,同时通过 虚拟密钥 系统确保安全管理您的 LLM API 密钥。
Portkey SDK与Mistral AI模型的集成
Portkey提供了一致的API,以便与来自不同供应商的模型进行交互。要将Mistral AI与Portkey集成:
1. 安装 Portkey SDK
将 Portkey SDK 添加到您的应用程序中,以通过 Portkey 的网关与 Mistral AI 的 API 进行交互。
npm install --save portkey-aipip install portkey-ai2. 使用虚拟密钥初始化 Portkey
要将 Mistral AI 与 Portkey 一起使用,在这里获取您的 API 密钥,然后将其添加到 Portkey 以创建虚拟密钥。
import Portkey from 'portkey-ai'
const portkey = new Portkey({
apiKey: "PORTKEY_API_KEY", // defaults to process.env["PORTKEY_API_KEY"]
virtualKey: "VIRTUAL_KEY" // Your Mistral AI Virtual Key
})from portkey_ai import Portkey
portkey = Portkey(
api_key="PORTKEY_API_KEY", # Replace with your Portkey API key
virtual_key="VIRTUAL_KEY" # Replace with your virtual key for Mistral AI
)3.1. 使用 Mistral AI 调用聊天完成
使用 Portkey 实例向 Mistral AI 发送请求。如果需要,您也可以在 API 调用中直接覆盖虚拟密钥。
调用 Codestral 端点
使用 Portkey,您还可以调用 Mistral API 的新 Codestral 端点。只需将 Codestral URL https://codestral.mistral.ai/v1 与 customHost 属性一起传递。
您的 Codestral 请求将在 Portkey 日志中显示,代码片段呈现得非常美观!

Codestral v/s Mistral API 端点
这是一个方便的指南,帮助您决定何时向 Codestral 端点或原始 Mistral API 端点发出请求:

管理 Mistral AI 提示
您可以在 提示库 中管理所有 Mistral AI 的提示。所有当前的 Mistral AI 模型均受支持,您可以轻松开始测试不同的提示。
一旦您准备好提示,您可以使用 portkey.prompts.completions.create 接口在您的应用程序中使用该提示。
下一步
SDK 支持的完整功能列表可在下面的链接中找到。
SDK您可以在相关章节中找到更多信息:
Last updated