大模型调用常见问题(FAQ)
最近更新时间: 2025-12-01 17:37:28
API兼容性问题
Q: API兼容哪些协议和接口标准?
A: 兼容OpenAI接口(/v1/chat/completions) 和 Anthropic接口标准(/v1/messages); 同时兼容HTTP流式和非流式调用。
Q: 是否兼容HTTP GET方法?
A: 只有查询模型列表接口(/v1/models)支持GET操作,其他接口均为POST操作。
模型资源问题
Q: 支持哪些模型?
A: 支持国产主流顶级和开源大模型,价格与模型参数请参考模型广场
也支持部分海外顶级模型用于实验和模型效果比对,请联系技术支持。
同时支持大语言模型(LLM/LRM文本生成/代码生成)、多模态模型(图片生成、视频生成)。
Token用量计费问题
账号认证问题
Q: 作为渠道商客户,如何进行大模型分销?
Q: 注册账号后,是否需要实名认证?
Q: 大模型API Keys与账号AK/SK有什么区别?
价格折扣问题
其他问题
| Q2:API 接口是什么风格?请求参数和响应参数是怎样的? |
| 接口兼容 OpenAI 风格,参数也完全兼容 OpenAI 的 sdk,比如 maxtoken、tempeature 等常见参数可以直接使用 sdk 中的参数;常见容易搞错的是 OpenAI sdk 配的 baseurl 一般是域名 + /v1,比如:https://api.qnaigc.com/v1,而不是(https://api.qnaigc.com/ 或者 https://api.qnaigc.com/v1/chat/completions) |
| Q4:API 是否有 token 限制、RPM 限制等? |
| 目前在体验阶段,对 deepseek 模型并未有特殊的限制,Qwen 模型目前有 10K 的 token 数量限制,近期有望放开 |
| Q5:各种 AI App 或大模型聚合平台(如 cherrystudio 等),如何接入七牛的 API ? |
| 可以选择 OpenAI 的接入方式进行接入,常见容易搞错的是 url 配置一般是域名,比如:https://api.qnaigc.com,而不是 https://api.qnaigc.com/v1/chat/completions |
主流 Chat 客户端配置方式可以参考:
| Q6:API 的回答为什么没有思考过程? |
| 只有 deepseek-r1 模型是默认有思考过程的,回答内容开头有 标签。也有小概率遇到 标签内容为空的情况,属正常情况 |
Q7:API 调用报错:openai.InternalServerError: Error code: 503 - {'error': {'message': 'the price of the model is not set (model: deepseek-r1:671b)', 'type': 'quota_exceeded_error'}},怎么解决? |
| model 字段的值传错了,需要严格和 七牛云支持DeepSeek-R1/V3 和 Qwen2大模型列表 里面的“API model参数“的值保持一致,否则找不到模型 |
Q8:API 调用报错包含 header 字段的,比如:"error":"authorization header missing", "status": false,怎么解决? |
| 往往是请求 header 或请求字段有问题,建议对照教程文档检查下;如果还未解决,可以咨询我们的技术支持,注意抹掉 api key 敏感信息 |
| Q9:API 如何调用 DeepSeek 671B 的模型? |
| 当前支持的 deepseek-r1 就是 671B 的全参数模型,也是所谓的满血版 |
| Q10:七牛云有哪些 GPU 主机可用来私有部署?支持多少人并发使用? |
| GPU 主机 A100、V100、A10、H20、4090 等都有,可以部署 671b 量化全参模型,也可以跑中小参的 DeepSeek-R1-Qwen、DeepSeek-R1-Llama 蒸馏模型;具体规格示例:6张 40G 的 A100 显卡可以满足 10 tokens/s;8张 32G 的 V100 显卡大概 5 tokens/s |
如需私有部署,可参考此文档:DeepSeek R1 GPU 主机部署教程
| Q11:ollma 与 vllm 部署方式如何选择? |
| ollama 推荐个人开发者,高并发推荐 vllm 部署,目前全参数模型要求配置高,也可以使用 32b 的蒸馏模型 |
vllm 部署 速度对比
- 模型:DeepSeek-R1-Distill-Qwen-32B
- 环境:显卡 4 x 32G V100 CPU 48 x Intel® Xeon® Silver 4116 CPU @ 2.10 GHz
| GPU 显存、内存消耗 |
并发数 |
速度 |
| 显存 95.9 GB VIRT(虚拟内存): 56.7G;RES(物理内存): 5.8G |
1 |
13.848 tokens/s |
| 显存 95.9 GB VIRT(虚拟内存): 56.7G;RES(物理内存): 5.8G |
10 |
14.12 tokens/s |
| 显存 95.9 GB VIRT(虚拟内存): 56.7G;RES(物理内存): 5.8G |
100 |
13.41 tokens/s |
| Q12:使用 Token API 和购买 GPU 主机进行专属私有化部署有什么差别? |
| 差别1:数据安全隐私。API 背后的模型归属云厂商,客户的问题和答案都经过云厂商的模型处理;私有化部署的模型归属客户,客户的问题和答案数据有更好的隐私保护,尤其是如果客户场景是 RAG 应用,涉及客户的内部资料和数据,更建议用私有化部署的方式 |
| 差别2:灵活性。API 一般是按 token 计费,RPM/TPM 等指标并不明显;私有化部署则租期可长可短,token 数无限制,RPM/TPM 等通过扩容比较可控。 |
| Q13:获取 API KEY 的 /llmapikey 的接口可以调用多次吗?API KEY 需要重新获取吗?API KEY 泄漏了怎么办? |
| 第一次调用 /llmapikey 接口获取 API KEY,保存下来可以一直用;如果泄漏或者单纯想要重置 API KEY,可以再次调用 /llmapikey 接口,获取新的 API KEY,旧的 API KEY失效。 |
| Q14:支持联网搜索吗? |
支持,在模型 id 后面加 ?search 即可联网搜索,例如:deepseek-v3?search,参考 API 文档:API 使用说明 |
| Q15:grok-4-fast模型是否有参数支持关闭推理? |
| 不支持,只能在提示词引导关闭思考 |
| Q16:AI大模型API调用RPM是多少? |
| 不同模型的RPM限制不一样,如需了解具体模型的RPM限制,您可以 提交工单 咨询 |
| Q17:如何开通海外大模型API功能? |
| 账号实名认证完成后,即可使用,无需额外申请 |
| Q18:AI接口调用报402错误码? |
| 402错误码是账号余额或资源包不足导致的,资源包和账单数据更新延迟1天,AI接口请求是15分钟的实时计量数据,提示402错误后您那边 充值 或 购买资源包 即可,充值或购买资源包后,大约15分钟左右接口会恢复正常。 |
| Q19:文生图接口使用gemini-2.5-flash-image模型,请求参数n指定多个图像数量时不生效? |
| gemini-2.5-flash-image模型在生成多张图片时不稳定导致的,建议每次输出一张图片,多次调用来处理 |
| Q20:API接口调用报ip in black list 错误? |
| 这是因为使用了错误的API-KEY频繁调用接口导致的,您修改使用正确的API-KEY调用即可 |
附录: