ArtinSmart API
完整的技术文档,助您快速接入 AI 能力
REST API
JSON
OAuth 2.0
📖 概述
ArtinSmart API 是一个兼容 OpenAI 风格的 AI API 服务,支持多种大语言模型。 您可以使用 OpenAI 的 SDK 或任何 HTTP 客户端来调用我们的 API。
100+
TPS 并发
200K
上下文长度
99.9%
可用性 SLA
🚀 快速开始
只需 3 步即可开始使用:
curl
curl -X POST https://api.artinsmart.cn/api/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer YOUR_API_KEY" \
-d '{
"model": "MiniMax-M2.5",
"messages": [{"role": "user", "content": "你好,请介绍一下自己"}]
}'
🔐 认证授权
重要:请妥善保管您的 API Key,不要在客户端代码中暴露!
请求头格式
Authorization: Bearer YOUR_API_KEY
示例
# cURL
curl -H "Authorization: Bearer artin-xxxxx" ...
# Python
import requests
headers = {
"Authorization": "Bearer artin-xxxxx",
"Content-Type": "application/json"
}
# JavaScript
fetch(url, {
headers: {
"Authorization": "Bearer artin-xxxxx",
"Content-Type": "application/json"
}
})
📡 接口列表
聊天完成 /v1/chat/completions
POST
/api/v1/chat/completions
请求参数
| 参数 | 类型 | 必填 | 说明 |
|---|---|---|---|
| model | string | ✅ | 模型名称,如 MiniMax-M2.5 |
| messages | array | ✅ | 消息数组,每条包含 role 和 content |
| temperature | float | ❌ | 采样温度 0-2,默认 0.7 |
| max_tokens | int | ❌ | 最大生成 token 数 |
| top_p | float | ❌ | 核采样 0-1,默认 1 |
| stream | bool | ❌ | 是否使用流式输出 |
请求示例
{
"model": "MiniMax-M2.5",
"messages": [
{"role": "system", "content": "你是一个专业的AI助手"},
{"role": "user", "content": "请介绍一下人工智能的发展历史"}
],
"temperature": 0.7,
"max_tokens": 2000
}
响应示例
{
"id": "chatcmpl-8x7y9z",
"object": "chat.completion",
"created": 1699999999,
"model": "MiniMax-M2.5",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "人工智能(Artificial Intelligence)..."
},
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 50,
"completion_tokens": 150,
"total_tokens": 200
}
}
获取模型列表 /v1/models
GET
/api/v1/models
响应示例
{
"object": "list",
"data": [
{
"id": "MiniMax-M2.5",
"object": "model",
"owned_by": "minimax",
"context_window": 200000
},
{
"id": "MiniMax-M2.5-highspeed",
"object": "model",
"owned_by": "minimax",
"context_window": 200000
}
]
}
用量统计 /user/usage
GET
/api/user/usage?api_key=xxx&days=7
查询参数
| 参数 | 类型 | 说明 |
|---|---|---|
| api_key | query | 您的 API Key |
| days | query | 查询天数,默认 7 |
🛠️ SDK 示例
Python
# 使用 OpenAI SDK (需要设置 base_url)
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://api.artinsmart.cn/api"
)
response = client.chat.completions.create(
model="MiniMax-M2.5",
messages=[
{"role": "user", "content": "你好"}
]
)
print(response.choices[0].message.content)
JavaScript
// 使用 fetch
const response = await fetch('https://api.artinsmart.cn/api/v1/chat/completions', {
method: 'POST',
headers: {
'Content-Type': 'application/json',
'Authorization': 'Bearer YOUR_API_KEY'
},
body: JSON.stringify({
model: 'MiniMax-M2.5',
messages: [{role: 'user', content: '你好'}]
})
});
const data = await response.json();
console.log(data.choices[0].message.content);
Go
package main
import (
"bytes"
"encoding/json"
"net/http"
)
func main() {
url := "https://api.artinsmart.cn/api/v1/chat/completions"
data := map[string]interface{}{
"model": "MiniMax-M2.5",
"messages": []map]string{
{"role": "user", "content": "你好"},
},
}
jsonData, _ := json.Marshal(data)
req, _ := http.NewRequest("POST", url, bytes.NewBuffer(jsonData))
req.Header.Set("Content-Type", "application/json")
req.Header.Set("Authorization", "Bearer YOUR_API_KEY")
client := &http.Client{}
resp, _ := client.Do(req)
defer resp.Body.Close()
}
Python (原生)
import requests
url = "https://api.artinsmart.cn/api/v1/chat/completions"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer YOUR_API_KEY"
}
data = {
"model": "MiniMax-M2.5",
"messages": [{"role": "user", "content": "你好"}]
}
response = requests.post(url, json=data, headers=headers)
print(response.json()["choices"][0]["message"]["content"])
⚠️ 错误码
| HTTP 状态码 | 错误码 | 说明 | 解决方案 |
|---|---|---|---|
| 200 | - | 请求成功 | - |
| 400 | invalid_request_error | 请求参数错误 | 检查请求参数格式 |
| 401 | invalid_api_key | API Key 无效 | 检查 API Key 是否正确 |
| 403 | access_denied | 账户已被禁用 | 联系客服 |
| 413 | context_length_exceeded | 输入超出模型上下文限制 | 减少输入内容或使用更长的模型 |
| 429 | rate_limit_exceeded | 请求过于频繁 | 稍后重试或升级套餐 |
| 500 | server_error | 服务器内部错误 | 稍后重试 |
| 502 | bad_gateway | 上游服务错误 | 稍后重试 |
| 503 | service_unavailable | 服务暂不可用 | 稍后重试 |
| 504 | gateway_timeout | AI 服务响应超时 | 减少 max_tokens 或稍后重试 |
📊 限制说明
速率限制
| 免费用户 | 60 次/分钟 |
| 基础版 | 120 次/分钟 |
| 专业版 | 300 次/分钟 |
模型限制
| 最大输入 | 200K tokens |
| 最大输出 | 8K tokens |
| 流式输出 | ✅ 支持 |
💡 最佳实践
1. 使用流式输出
对于长文本生成,使用 stream: true 可以提前看到输出,提升用户体验。
{"stream": true, ...}
2. 合理设置 max_tokens
根据实际需求设置,避免无谓的资源消耗。
3. 使用系统消息
通过 system 消息设定 AI 角色和行为,可以获得更稳定的输出。
{"role": "system", "content": "你是一个专业的..."}
4. 实现重试机制
网络可能不稳定,建议实现指数退避重试。
5. 缓存常见请求
对于相同的输入,可以缓存结果减少 API 调用。
需要帮助?
如果您在使用过程中遇到任何问题,请随时联系我们。