字数 403,阅读大约需 3 分钟
本文以国产新星「无问芯穹 」API文档为例,带您快速掌握大模型接口调用全流程,文末附实战测试代码!
"模型即服务"时代,掌握OpenAI格式API 已成为开发者刚需。无论是DeepSeek、Kimi、智谱还是通义千问,统一规范的接口设计让多模型切换效率倍增。
1.为什么OpenAI格式API成为行业标配?
随着ChatGPT引爆大模型生态,OpenAI规范的API设计因其标准化请求结构(如role角色系统、temperature参数)、流式输出支持和跨平台兼容性,已成为国内外大模型厂商的共同选择。掌握这套规范,相当于获得"一稿适配多平台 "的开发加速器。
2.实战(附代码)
提供开箱即用的推理 API服务,通过 API 接口与专属 API Key 即可轻松集成大模型服务。
快速接入指南 :提供Curl/Python两端示例,2分钟完成鉴权配置
- • 官网 https://cloud.infini-ai.com/promotion
- • API-KEY管理 https://cloud.infini-ai.com/iam/secret/key
- • API文档 https://docs.infini-ai.com/gen-studio/api/tutorial.html
Step 1 获取API-KEY
Step2.1 使用OpenAI Python SDK
import os
from openai import OpenAI
API\_KEY = os.getenv("GENSTUDIO\_API\_KEY")
DEFAULT\_BASE\_URL = os.getenv("DEFAULT\_BASE\_URL")
client = OpenAI(api\_key=API\_KEY, DEFAULT\_BASE\_URL=DEFAULT\_BASE\_URL)
## 验证一(流式)
stream = client.chat.completions.create(
model="qwen1.5-72b-chat",
messages=[{"role": "user", "content": "根据中国古代圣人孔子的思想,人生的意义是什么?"}],
stream=True,
)
for chunk in stream:
print(chunk.choices[0].delta.content or "", end="")
## 验证二(非流式)
chat\_completion = client.chat.completions.create(
messages=[
{
"role": "user",
"content": "say '谁是卧底。'",
}
],
model="qwen1.5-72b-chat",
)
print(chat\_completion.choices[0].message.content)
Step2.2 使用Curl
以单轮对话为例
鉴权方式 :Header中需同时携带Authorization
和Content-Type
点击下方卡片 关注我们
📢【三连好运 福利拉满】📢
🌟 若本日推送有收获:
👍 点赞 → 小手一抖,bug没有
📌 在看 → 一点扩散,知识璀璨
📥 收藏 → 代码永驻,防止迷路
🍻 分享 → 传递战友,功德+999
🔔 关注 → 关注“AI早高峰”,追更不迷路,干货永同步
💬 若有槽点想输出:
👉 评论区已铺好红毯,等你来战!