免费 AI 大模型 API 汇总及国内大模型使用教程
梳理了讯飞星火、百度千帆、腾讯混元、扣子及硅基流动等主流平台的免费大模型 API 资源。详细列出了各模型的并发限制、Token 配额及接入地址。提供了基于 Python 的 HTTP 请求与 WebSocket 连接示例代码,涵盖鉴权 Token 获取、Payload 构造及响应解析流程。补充了密钥安全管理与错误处理建议,帮助开发者快速完成大模型集成与调试。

梳理了讯飞星火、百度千帆、腾讯混元、扣子及硅基流动等主流平台的免费大模型 API 资源。详细列出了各模型的并发限制、Token 配额及接入地址。提供了基于 Python 的 HTTP 请求与 WebSocket 连接示例代码,涵盖鉴权 Token 获取、Payload 构造及响应解析流程。补充了密钥安全管理与错误处理建议,帮助开发者快速完成大模型集成与调试。

随着人工智能技术的快速发展,各大厂商纷纷开放了部分免费的大模型 API 接口,为开发者提供了低成本接入大模型能力的机会。本文整理了讯飞星火、百度千帆、腾讯混元、扣子(Coze)以及硅基流动等主流平台的免费资源,并提供详细的 Python 调用示例。
下表列出了各平台提供的免费模型版本及其主要限制条件:
| 大模型 | 免费版本 | 免费限制 | 控制台(api_key 等) | API 文档 |
|---|---|---|---|---|
| 讯飞星火大模型 | spark-lite | tokens:总量无限;QPS:2;有效期:不限 | 需注册账号获取 | API 文档 |
| 百度千帆大模型平台 | ERNIE-Speed-8K | RPM = 300,TPM = 300000 | 需实名认证并创建应用 | 千帆文档 |
| ERNIE-Speed-128K | RPM = 60,TPM = 300000 | |||
| ERNIE-Lite-8K-0922 | RPM = 300,TPM = 300000 | |||
| ERNIE-Lite-8K | RPM = 300,TPM = 300000 | |||
| ERNIE-Tiny-8K | RPM = 300,TPM = 300000 | |||
| 腾讯混元大模型 | hunyuan-lite | 限制并发数为 5 路 | 需创建密钥 | 混元文档 |
| 字节扣子 (coze.cn) | 豆包·Function call 模型 (32K) | QPS: 2, QPM: 60, QPD: 3000 | 需发布 Bot 为 API 服务 | 扣子文档 |
| Llama Family | Atom-13B-Chat | 每天 8-22 点:限速 20 次/分;22-次日 8 点:限速 50 次/分 | 需申请或注册 | - |
| groq | llama3-8b-8192 | rpm 为 30, rpd 为 14400 | 需注册获取 Key | Groq 文档 |
| Google Gemini | gemini-1.5-pro | 15RPM; 100 万 TPM; 1500 RPD | 需 Google 账号 | Gemini 文档 |
| 硅基流动 | Qwen2-7B-Instruct | RPM 限制为 100,QPS 限制为 3 | 需创建 API 密钥 | 硅基文档 |
访问讯飞星火认知大模型官网,注册账号并完成实名认证。在控制台中创建应用,获取 APPID、APISecret 和 APIKey。
Spark Lite 模型使用 WebSocket 协议进行通信。核心参数如下:
wss://spark-api.xf-yun.com/v1.1/chatgeneral由于星火使用的是 WebSocket,以下展示基于 websocket-client 库的简化逻辑框架(实际开发中需处理鉴权签名生成):
import websocket
import json
import time
def on_message(ws, message):
data = json.loads(message)
content = data.get('payload', {}).get('choices', {}).get('text', [])
if content:
print(content[0]['content'])
def on_error(ws, error):
print(f"Error: {error}")
def on_close(ws, close_status_code, close_msg):
print("Connection closed")
def on_open(ws):
# 此处应包含鉴权签名的生成逻辑
# 参考官方文档中的 auth.py 文件
request_data = {
"header": {"app_id": "你的 APPID", "uid": "1234"},
"parameter": {
"chat": {
"domain": "general",
"temperature": 0.5,
"max_tokens": 2048
}
},
"payload": {
"message": {
"text": [{"role": "user", "content": "你好"}]
}
}
}
ws.send(json.dumps(request_data))
__name__ == :
url =
ws = websocket.WebSocketApp(url, on_open=on_open, on_message=on_message, on_error=on_error, on_close=on_close)
ws.run_forever()
AppID、API Key、Secret Key。不同模型对应的 model 参数如下:
| 模型名称 | 参数值 |
|---|---|
| ERNIE-Speed-128K | ernie-speed-128k |
| ERNIE-Speed-8K | ernie-speed |
| ERNIE-Lite-8K-0922 | eb-instant |
| ERNIE-Lite-8K | ernie-lite-8k |
| ERNIE-Tiny-8K | ernie-tiny-8k |
百度千帆采用 OAuth 2.0 获取 Access Token,随后通过 HTTP POST 发送请求。
import requests
import json
API_KEY = "你的 API Key"
SECRET_KEY = "你的 Secret Key"
def get_access_token():
"""
使用 AK,SK 生成鉴权签名(Access Token)
:return: access_token,或是 None(如果错误)
"""
url = "https://aip.baidubce.com/oauth/2.0/token"
params = {
"grant_type": "client_credentials",
"client_id": API_KEY,
"client_secret": SECRET_KEY
}
response = requests.post(url, params=params)
result = response.json()
return result.get("access_token")
def main():
access_token = get_access_token()
if not access_token:
print("Failed to get access token")
return
url = f"https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/ernie_speed?access_token={access_token}"
payload = json.dumps({
"messages": [
{
"role": "user",
"content": "请介绍大模型的基本原理"
}
]
})
headers = {
'Content-Type': 'application/json'
}
try:
response = requests.request("POST", url, headers=headers, data=payload)
print(response.text)
except Exception as e:
print(f"Request failed: {e}")
if __name__ == '__main__':
main()
登录腾讯云控制台,进入'混元大模型'页面。点击'创建密钥',生成新的 API 密钥。建议将密钥存储在环境变量中,避免硬编码在代码里。
腾讯云提供在线调试界面,可先在此测试 Prompt 效果。确认无误后,将调试成功的请求结构复制到本地代码中。通常需要使用 tencentcloud-sdk-python 或标准 HTTP 库进行封装。
Bot as API 选项。单轮对话请求示例:
import requests
url = "https://api.coze.cn/open_api/v2/chat"
headers = {
"Authorization": "Bearer YOUR_PERSONAL_ACCESS_TOKEN",
"Content-Type": "application/json",
"Accept": "*/*",
"Host": "api.coze.cn"
}
data = {
"conversation_id": "123",
"bot_id": "YOUR_BOT_ID",
"user": "29032201862555",
"query": "你好",
"stream": False
}
response = requests.post(url, headers=headers, json=data)
print(f"Status Code: {response.status_code}")
print(f"Response: {response.json()}")
硅基流动提供了多个开源模型的免费额度,包括 Qwen、GLM、Yi 等系列。进入控制台创建新 API 密钥即可开始使用。
硅基流动兼容 OpenAI 格式接口,便于迁移:
import requests
url = "https://api.siliconflow.cn/v1/chat/completions"
payload = {
"model": "Qwen/Qwen2-7B-Instruct",
"messages": [
{
"role": "user",
"content": "你好"
}
],
"max_tokens": 4096,
"stream": False,
"temperature": 0.5
}
headers = {
"accept": "application/json",
"content-type": "application/json",
"authorization": "Bearer YOUR_API_KEY"
}
response = requests.post(url, json=payload, headers=headers)
print(response.text)
.env 文件或操作系统环境变量存储敏感信息。通过以上步骤,开发者可以快速集成各大主流大模型能力,构建智能问答、内容生成或数据分析等应用场景。

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
使用加密算法(如AES、TripleDES、Rabbit或RC4)加密和解密文本明文。 在线工具,加密/解密文本在线工具,online
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
解析常见 curl 参数并生成 fetch、axios、PHP curl 或 Python requests 示例代码。 在线工具,curl 转代码在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online