AI 大模型推理

  • AI 大模型推理 > 常见问题 > 大模型调用常见问题(FAQ)

    大模型调用常见问题(FAQ)

    最近更新时间: 2025-12-01 17:37:28

    API兼容性问题

    Q: API兼容哪些协议和接口标准?

    A: 兼容OpenAI接口(/v1/chat/completions) 和 Anthropic接口标准(/v1/messages); 同时兼容HTTP流式和非流式调用。

    Q: 是否兼容HTTP GET方法?

    A: 只有查询模型列表接口(/v1/models)支持GET操作,其他接口均为POST操作。

    模型资源问题

    Q: 支持哪些模型?

    A: 支持国产主流顶级和开源大模型,价格与模型参数请参考模型广场
    也支持部分海外顶级模型用于实验和模型效果比对,请联系技术支持。
    同时支持大语言模型(LLM/LRM文本生成/代码生成)、多模态模型(图片生成、视频生成)。

    Token用量计费问题

    账号认证问题

    Q: 作为渠道商客户,如何进行大模型分销?

    Q: 注册账号后,是否需要实名认证?

    Q: 大模型API Keys与账号AK/SK有什么区别?

    价格折扣问题

    其他问题

    Q1:如何调用 API 以及部署?
    可参考此处文档:https://www.qiniu.com/products/ai-token-api#document

    Q2:API 接口是什么风格?请求参数和响应参数是怎样的?
    接口兼容 OpenAI 风格,参数也完全兼容 OpenAI 的 sdk,比如 maxtoken、tempeature 等常见参数可以直接使用 sdk 中的参数;常见容易搞错的是 OpenAI sdk 配的 baseurl 一般是域名 + /v1,比如:https://api.qnaigc.com/v1,而不是(https://api.qnaigc.com/ 或者 https://api.qnaigc.com/v1/chat/completions)

    Q3:API 支持哪些模型?
    除了 DeepSeek-R1、V3 模型,也支持 Qwen 模型,模型列表参考:七牛云支持DeepSeek-R1/V3 和 Qwen2大模型列表

    Q4:API 是否有 token 限制、RPM 限制等?
    目前在体验阶段,对 deepseek 模型并未有特殊的限制,Qwen 模型目前有 10K 的 token 数量限制,近期有望放开

    Q5:各种 AI App 或大模型聚合平台(如 cherrystudio 等),如何接入七牛的 API ?
    可以选择 OpenAI 的接入方式进行接入,常见容易搞错的是 url 配置一般是域名,比如:https://api.qnaigc.com,而不是 https://api.qnaigc.com/v1/chat/completions

    主流 Chat 客户端配置方式可以参考:


    Q6:API 的回答为什么没有思考过程?
    只有 deepseek-r1 模型是默认有思考过程的,回答内容开头有 标签。也有小概率遇到 标签内容为空的情况,属正常情况

    Q7:API 调用报错:openai.InternalServerError: Error code: 503 - {'error': {'message': 'the price of the model is not set (model: deepseek-r1:671b)', 'type': 'quota_exceeded_error'}},怎么解决?
    model 字段的值传错了,需要严格和 七牛云支持DeepSeek-R1/V3 和 Qwen2大模型列表 里面的“API model参数“的值保持一致,否则找不到模型

    Q8:API 调用报错包含 header 字段的,比如:"error":"authorization header missing", "status": false,怎么解决?
    往往是请求 header 或请求字段有问题,建议对照教程文档检查下;如果还未解决,可以咨询我们的技术支持,注意抹掉 api key 敏感信息

    Q9:API 如何调用 DeepSeek 671B 的模型?
    当前支持的 deepseek-r1 就是 671B 的全参数模型,也是所谓的满血版

    Q10:七牛云有哪些 GPU 主机可用来私有部署?支持多少人并发使用?
    GPU 主机 A100、V100、A10、H20、4090 等都有,可以部署 671b 量化全参模型,也可以跑中小参的 DeepSeek-R1-Qwen、DeepSeek-R1-Llama 蒸馏模型;具体规格示例:6张 40G 的 A100 显卡可以满足 10 tokens/s;8张 32G 的 V100 显卡大概 5 tokens/s

    如需私有部署,可参考此文档:DeepSeek R1 GPU 主机部署教程


    Q11:ollma 与 vllm 部署方式如何选择?
    ollama 推荐个人开发者,高并发推荐 vllm 部署,目前全参数模型要求配置高,也可以使用 32b 的蒸馏模型

    vllm 部署 速度对比

    • 模型:DeepSeek-R1-Distill-Qwen-32B
    • 环境:显卡 4 x 32G V100 CPU 48 x Intel® Xeon® Silver 4116 CPU @ 2.10 GHz
    GPU 显存、内存消耗 并发数 速度
    显存 95.9 GB VIRT(虚拟内存): 56.7G;RES(物理内存): 5.8G 1 13.848 tokens/s
    显存 95.9 GB VIRT(虚拟内存): 56.7G;RES(物理内存): 5.8G 10 14.12 tokens/s
    显存 95.9 GB VIRT(虚拟内存): 56.7G;RES(物理内存): 5.8G 100 13.41 tokens/s

    Q12:使用 Token API 和购买 GPU 主机进行专属私有化部署有什么差别?
    差别1:数据安全隐私。API 背后的模型归属云厂商,客户的问题和答案都经过云厂商的模型处理;私有化部署的模型归属客户,客户的问题和答案数据有更好的隐私保护,尤其是如果客户场景是 RAG 应用,涉及客户的内部资料和数据,更建议用私有化部署的方式
    差别2:灵活性。API 一般是按 token 计费,RPM/TPM 等指标并不明显;私有化部署则租期可长可短,token 数无限制,RPM/TPM 等通过扩容比较可控。

    Q13:获取 API KEY 的 /llmapikey 的接口可以调用多次吗?API KEY 需要重新获取吗?API KEY 泄漏了怎么办?
    第一次调用 /llmapikey 接口获取 API KEY,保存下来可以一直用;如果泄漏或者单纯想要重置 API KEY,可以再次调用 /llmapikey 接口,获取新的 API KEY,旧的 API KEY失效。

    Q14:支持联网搜索吗?
    支持,在模型 id 后面加 ?search 即可联网搜索,例如:deepseek-v3?search,参考 API 文档:API 使用说明

    Q15:grok-4-fast模型是否有参数支持关闭推理?
    不支持,只能在提示词引导关闭思考

    Q16:AI大模型API调用RPM是多少?
    不同模型的RPM限制不一样,如需了解具体模型的RPM限制,您可以 提交工单 咨询

    Q17:如何开通海外大模型API功能?
    账号实名认证完成后,即可使用,无需额外申请

    Q18:AI接口调用报402错误码?
    402错误码是账号余额或资源包不足导致的,资源包和账单数据更新延迟1天,AI接口请求是15分钟的实时计量数据,提示402错误后您那边 充值购买资源包 即可,充值或购买资源包后,大约15分钟左右接口会恢复正常。

    Q19:文生图接口使用gemini-2.5-flash-image模型,请求参数n指定多个图像数量时不生效?
    gemini-2.5-flash-image模型在生成多张图片时不稳定导致的,建议每次输出一张图片,多次调用来处理

    Q20:API接口调用报ip in black list 错误?
    这是因为使用了错误的API-KEY频繁调用接口导致的,您修改使用正确的API-KEY调用即可

    附录:

    以上内容是否对您有帮助?