Monster API

MonsterAPIs 提供访问生成性 AI 模型 API 的服务,成本降低 80%。 通过 Portkey 的 AI 网关无缝连接到 MonsterAPI LLM API。

Portkey 提供了一个强大且安全的网关,以便将各种大型语言模型 (LLMs) 集成到您的应用程序中,包括 MonsterAPI APIs

使用 Portkey,您可以利用快速 AI 网关访问、可观察性、提示管理等功能,同时通过 虚拟密钥 系统确保安全管理您的 LLM API 密钥。

Provider Slug**: monsterapi**

Portkey SDK 与 MonsterAPI 模型的集成

Portkey 提供了一致的 API,以便与来自各种提供商的模型进行交互。要将 MonsterAPI 与 Portkey 集成:

1. 安装 Portkey SDK

将 Portkey SDK 添加到您的应用程序,以通过 Portkey 的网关与 MonsterAPI 的 API 进行交互。

npm install --save portkey-ai

2. 使用虚拟密钥初始化 Portkey

要使用 Monster API 和 Portkey,请 从这里获取您的 API 密钥, 然后将其添加到 Portkey 以创建虚拟密钥。

import Portkey from 'portkey-ai'
 
const portkey = new Portkey({
    apiKey: "PORTKEY_API_KEY", // defaults to process.env["PORTKEY_API_KEY"]
    virtualKey: "VIRTUAL_KEY" // Your MonsterAPI Virtual Key
})

3. 使用 MonsterAPI 调用聊天完成

使用 Portkey 实例向 MonsterAPI 发送请求。如果需要,您还可以直接在 API 调用中覆盖虚拟密钥。

管理 MonsterAPI 提示

您可以在 提示库 中管理所有对 MonsterAPI 的提示。当前所有的 MonsterAPI 模型都得到了支持,您可以轻松开始测试不同的提示。

一旦您准备好提示,就可以使用 portkey.prompts.completions.create 接口在您的应用程序中使用该提示。

支持的模型

在这里查找最新的支持模型列表。

下一步

SDK 支持的完整功能列表可在以下链接中找到。

SDK

您可以在相关部分找到更多信息:

Last updated