Mistral AI

Portkey 提供了一个强大且安全的网关,以便将各种大型语言模型(LLMs)集成到您的应用程序中,包括 Mistral AI APIs

使用 Portkey,您可以利用快速的 AI 网关访问、可观察性、提示管理等功能,同时通过 虚拟密钥 系统确保安全管理您的 LLM API 密钥。

Provider Slug**: mistral-ai**

Portkey SDK与Mistral AI模型的集成

Portkey提供了一致的API,以便与来自不同供应商的模型进行交互。要将Mistral AI与Portkey集成:

1. 安装 Portkey SDK

将 Portkey SDK 添加到您的应用程序中,以通过 Portkey 的网关与 Mistral AI 的 API 进行交互。

npm install --save portkey-ai

2. 使用虚拟密钥初始化 Portkey

要将 Mistral AI 与 Portkey 一起使用,在这里获取您的 API 密钥,然后将其添加到 Portkey 以创建虚拟密钥。

import Portkey from 'portkey-ai'
 
const portkey = new Portkey({
    apiKey: "PORTKEY_API_KEY", // defaults to process.env["PORTKEY_API_KEY"]
    virtualKey: "VIRTUAL_KEY" // Your Mistral AI Virtual Key
})

3.1. 使用 Mistral AI 调用聊天完成

使用 Portkey 实例向 Mistral AI 发送请求。如果需要,您也可以在 API 调用中直接覆盖虚拟密钥。

您也可以在这里调用新的 Codestral 模型!


调用 Codestral 端点

使用 Portkey,您还可以调用 Mistral API 的新 Codestral 端点。只需将 Codestral URL https://codestral.mistral.ai/v1customHost 属性一起传递。

您的 Codestral 请求将在 Portkey 日志中显示,代码片段呈现得非常美观!

Codestral v/s Mistral API 端点

这是一个方便的指南,帮助您决定何时向 Codestral 端点或原始 Mistral API 端点发出请求:

欲了解更多,请查看 Mistral 的代码生成指南


管理 Mistral AI 提示

您可以在 提示库 中管理所有 Mistral AI 的提示。所有当前的 Mistral AI 模型均受支持,您可以轻松开始测试不同的提示。

一旦您准备好提示,您可以使用 portkey.prompts.completions.create 接口在您的应用程序中使用该提示。

下一步

SDK 支持的完整功能列表可在下面的链接中找到。

SDK

您可以在相关章节中找到更多信息:

Last updated