ArtinSmart

ArtinSmart API

完整的技术文档,助您快速接入 AI 能力

REST API JSON OAuth 2.0

📖 概述

ArtinSmart API 是一个兼容 OpenAI 风格的 AI API 服务,支持多种大语言模型。 您可以使用 OpenAI 的 SDK 或任何 HTTP 客户端来调用我们的 API。

100+
TPS 并发
200K
上下文长度
99.9%
可用性 SLA

🚀 快速开始

只需 3 步即可开始使用:

1

注册账号

访问 artinsmart.cn/auth.html 注册账号

2

获取 API Key

登录后在控制台获取您的 API Key

3

开始调用

使用 API Key 调用接口

curl
curl -X POST https://api.artinsmart.cn/api/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -d '{
    "model": "MiniMax-M2.5",
    "messages": [{"role": "user", "content": "你好,请介绍一下自己"}]
  }'

🔐 认证授权

重要:请妥善保管您的 API Key,不要在客户端代码中暴露!

请求头格式

Authorization: Bearer YOUR_API_KEY

示例

# cURL
curl -H "Authorization: Bearer artin-xxxxx" ...

# Python
import requests
headers = {
    "Authorization": "Bearer artin-xxxxx",
    "Content-Type": "application/json"
}

# JavaScript
fetch(url, {
    headers: {
        "Authorization": "Bearer artin-xxxxx",
        "Content-Type": "application/json"
    }
})

📡 接口列表

聊天完成 /v1/chat/completions

POST /api/v1/chat/completions

请求参数

参数 类型 必填 说明
model string 模型名称,如 MiniMax-M2.5
messages array 消息数组,每条包含 role 和 content
temperature float 采样温度 0-2,默认 0.7
max_tokens int 最大生成 token 数
top_p float 核采样 0-1,默认 1
stream bool 是否使用流式输出

请求示例

{
  "model": "MiniMax-M2.5",
  "messages": [
    {"role": "system", "content": "你是一个专业的AI助手"},
    {"role": "user", "content": "请介绍一下人工智能的发展历史"}
  ],
  "temperature": 0.7,
  "max_tokens": 2000
}

响应示例

{
  "id": "chatcmpl-8x7y9z",
  "object": "chat.completion",
  "created": 1699999999,
  "model": "MiniMax-M2.5",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "人工智能(Artificial Intelligence)..."
      },
      "finish_reason": "stop"
    }
  ],
  "usage": {
    "prompt_tokens": 50,
    "completion_tokens": 150,
    "total_tokens": 200
  }
}

获取模型列表 /v1/models

GET /api/v1/models

响应示例

{
  "object": "list",
  "data": [
    {
      "id": "MiniMax-M2.5",
      "object": "model",
      "owned_by": "minimax",
      "context_window": 200000
    },
    {
      "id": "MiniMax-M2.5-highspeed",
      "object": "model", 
      "owned_by": "minimax",
      "context_window": 200000
    }
  ]
}

用量统计 /user/usage

GET /api/user/usage?api_key=xxx&days=7

查询参数

参数 类型 说明
api_key query 您的 API Key
days query 查询天数,默认 7

🛠️ SDK 示例

Python

# 使用 OpenAI SDK (需要设置 base_url)
from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://api.artinsmart.cn/api"
)

response = client.chat.completions.create(
    model="MiniMax-M2.5",
    messages=[
        {"role": "user", "content": "你好"}
    ]
)

print(response.choices[0].message.content)

JavaScript

// 使用 fetch
const response = await fetch('https://api.artinsmart.cn/api/v1/chat/completions', {
  method: 'POST',
  headers: {
    'Content-Type': 'application/json',
    'Authorization': 'Bearer YOUR_API_KEY'
  },
  body: JSON.stringify({
    model: 'MiniMax-M2.5',
    messages: [{role: 'user', content: '你好'}]
  })
});

const data = await response.json();
console.log(data.choices[0].message.content);

Go

package main

import (
    "bytes"
    "encoding/json"
    "net/http"
)

func main() {
    url := "https://api.artinsmart.cn/api/v1/chat/completions"
    
    data := map[string]interface{}{
        "model": "MiniMax-M2.5",
        "messages": []map]string{
            {"role": "user", "content": "你好"},
        },
    }
    
    jsonData, _ := json.Marshal(data)
    
    req, _ := http.NewRequest("POST", url, bytes.NewBuffer(jsonData))
    req.Header.Set("Content-Type", "application/json")
    req.Header.Set("Authorization", "Bearer YOUR_API_KEY")
    
    client := &http.Client{}
    resp, _ := client.Do(req)
    defer resp.Body.Close()
}

Python (原生)

import requests

url = "https://api.artinsmart.cn/api/v1/chat/completions"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer YOUR_API_KEY"
}

data = {
    "model": "MiniMax-M2.5",
    "messages": [{"role": "user", "content": "你好"}]
}

response = requests.post(url, json=data, headers=headers)
print(response.json()["choices"][0]["message"]["content"])

⚠️ 错误码

HTTP 状态码 错误码 说明 解决方案
200 - 请求成功 -
400 invalid_request_error 请求参数错误 检查请求参数格式
401 invalid_api_key API Key 无效 检查 API Key 是否正确
403 access_denied 账户已被禁用 联系客服
413 context_length_exceeded 输入超出模型上下文限制 减少输入内容或使用更长的模型
429 rate_limit_exceeded 请求过于频繁 稍后重试或升级套餐
500 server_error 服务器内部错误 稍后重试
502 bad_gateway 上游服务错误 稍后重试
503 service_unavailable 服务暂不可用 稍后重试
504 gateway_timeout AI 服务响应超时 减少 max_tokens 或稍后重试

📊 限制说明

速率限制

免费用户 60 次/分钟
基础版 120 次/分钟
专业版 300 次/分钟

模型限制

最大输入 200K tokens
最大输出 8K tokens
流式输出 ✅ 支持

💡 最佳实践

1. 使用流式输出

对于长文本生成,使用 stream: true 可以提前看到输出,提升用户体验。

{"stream": true, ...}

2. 合理设置 max_tokens

根据实际需求设置,避免无谓的资源消耗。

3. 使用系统消息

通过 system 消息设定 AI 角色和行为,可以获得更稳定的输出。

{"role": "system", "content": "你是一个专业的..."}

4. 实现重试机制

网络可能不稳定,建议实现指数退避重试。

5. 缓存常见请求

对于相同的输入,可以缓存结果减少 API 调用。

需要帮助?

如果您在使用过程中遇到任何问题,请随时联系我们。