2024年最新免费AI大模型API汇总及国内大模型使用教程(附代码)
前言
免费大模型API一览
| 大模型 | 免费版本 | 免费限制 | 控制台(api_key等) | API文档 |
| 讯飞星火大模型 | spark-lite | tokens:总量无限; QPS:2;(每秒发送的请求数) 有效期:不限 | 访问链接 | |
| 百度千帆大模型平台 | ERNIE-Speed-8K | RPM = 300,TPM = 300000 (RPM是每分钟请求数(Requests Per Minute),TPM是指每分钟处理的tokens数量) | 访问链接 | |
| ERNIE-Speed-128K | RPM = 60,TPM = 300000 | |||
| ERNIE-Lite-8K-0922 | RPM = 300,TPM = 300000 | |||
| ERNIE-Lite-8K | RPM = 300,TPM = 300000 | |||
| ERNIE-Tiny-8K | RPM = 300,TPM = 300000 | |||
| 腾讯混元大模型 | hunyuan-lite | 限制并发数为 5 路 | 访问链接 | |
| 字节扣子(coze.cn) | 豆包·Function call模型(32K) | 当前扣子 API 免费供开发者使用,每个空间的 API 请求限额如下: QPS (每秒发送的请求数):2 QPM (每分钟发送的请求数):60 QPD (每天发送的请求数):3000 | 访问链接 | |
| 通义千问-Max(8K) | ||||
| MiniMax 6.5s(245K) | ||||
| Moonshot(8K) | ||||
| Moonshot(32K) | ||||
| Moonshot(128K) | ||||
| Llama Family | Atom-13B-Chat | 1.每天 8-22 点:接口限速每分钟 20 次并发 2.每天 22-次日 8 点:接口限速每分钟 50 次并发 | 访问链接 | |
| Atom-7B-Chat | ||||
| Atom-1B-Chat | ||||
| Llama3-Chinese-8B-Instruct | ||||
| groq | gemma-7b-it | rpm为30, rpd为14400, TOKENS PER MINUTE也有限制 | 访问链接 | |
| mixtral-8x7b-32768 | ||||
| llama3-70b-8192 | ||||
| llama3-8b-8192 | ||||
| Google Gemini | gemini-1.5-pro | 15RPM(每分钟请求数); 100万 TPM(每分钟tokens); 1500 RPD(每天请求数) | 访问链接 | |
| gemini-1.5-flash | ||||
| gemini-1.0-pro | ||||
| gemini-pro-vision | ||||
| 硅基流动 | Qwen2-7B-Instruct | RPM限制为100, QPS限制为3, 更多可以进行申请 | 访问链接 | |
| Qwen2-1.5B-Instruct | ||||
| Qwen1.5-7B-Chat | ||||
| glm-4-9b-chat | ||||
| chatglm3-6b | ||||
| Yi-1.5-9B-Chat-16K | ||||
| Yi-1.5-6B-Chat |
注意:如果链接不全,请点击下面原文链接,文章比较完整。
讯飞星火spark-lite模型
spark-lite介绍页面https://xinghuo.xfyun.cn/sparkapi?scr=true
到控制台https://console.xfyun.cn/services/cbm查看appid、apikey、apisecret信息
也可以到调试中心调试使用
星火认知大模型Web API文档中的代码直接可以用,记得替换其中的SPARKAI_URL 和 SPARKAI_DOMAIN值,
Spark Lite请求地址,对应的domain参数为general:
wss://spark-api.xf-yun.com/v1.1/chat
百度千帆speed和lite模型
到千帆平台上开通免费的模型。
注意开通需要实名认证!!!
到应用接入中创建应用,这里就有了AppID、API Key、Secret Key
也可以到体验中心体验
下面是ERNIE-Speed-8K的Python代码,你换其他模型只需要替换main()中的URL就行
| 模型 | 参数 |
| ERNIE-Speed-128K | ernie-speed-128k |
| ERNIE-Speed-8K | ernie-speed |
| ERNIE-Lite-8K-0922 | eb-instant |
| ERNIE-Lite-8K | ernie-lite-8k |
| ERNIE-Tiny-8K | ernie-tiny-8k |
import requests
import json
API_KEY = "你的API Key"
SECRET_KEY = "你的Secret Key"
def main():
url = "https://aip.baidubce.com/rpc/2.0/ai_custom/v1/wenxinworkshop/chat/ernie_speed?access_token=" + get_access_token()
payload = json.dumps({
"messages": [
{
"role": "user",
"content": "你好"
},
]
})
headers = {
'Content-Type': 'application/json'
}
response = requests.request("POST", url, headers=headers, data=payload)
print(response.text)
def get_access_token():
"""
使用 AK,SK 生成鉴权签名(Access Token)
:return: access_token,或是None(如果错误)
"""
url = "https://aip.baidubce.com/oauth/2.0/token"
params = {"grant_type": "client_credentials", "client_id": API_KEY, "client_secret": SECRET_KEY}
return str(requests.post(url, params=params).json().get("access_token"))
if __name__ == '__main__':
main()
腾讯混元hunyuan-lite模型
腾讯混元大模型接入地址https://console.cloud.tencent.com/hunyuan/start
点击创建密钥,到新页面,新建密钥
也可以到调试界面进行调试使用,在最开始表格中的,进去点击调试好了,选择你的代码复制到本地即可。
coze扣子API使用
在调用扣子 API 前,确保你已经创建了个人访问令牌,并将 Bot 发布为了 API 服务。
1.创建个人访问令牌。
扣子 API 使用个人访问令牌进行身份验证和鉴权。你可以在创建个人访问令牌,并添加对应权限。详细说明可参考鉴权

2.将 Bot 发布为 API 服务。
进入目标空间,创建一个 Bot 或选择一个已创建的 Bot。
在编排页面,单击发布。
在发布页面,选择 Bot as API 选项,然后单击发布。

简单的单轮对话Python代码如下:请确保将{YOUR PERSONAL_ACCESS_TOKEN}和{YOUR BOT}替换为实际的值。
import requests
url = "https://api.coze.cn/open_api/v2/chat"
headers = {
"Authorization": "Bearer {YOUR PERSONAL_ACCESS_TOKEN}",
"Content-Type": "application/json",
"Accept": "*/*",
"Host": "api.coze.cn",
"Connection": "keep-alive"
}
data = {
"conversation_id": "123",
"bot_id": "{YOUR BOT}",
"user": "29032201862555",
"query": "你好",
"stream": False
}
response = requests.post(url, headers=headers, json=data)
print(response.status_code)
print(response.json())
硅基流动
进入点击创建新API密钥,
这里是平台模型列表
- Qwen/Qwen2-7B-Instruct (32K, 免费)
- Qwen/Qwen2-1.5B-Instruct (32K, 免费)
- Qwen/Qwen1.5-7B-Chat (32K, 免费)
- THUDM/glm-4-9b-chat (32K, 免费)
- THUDM/chatglm3-6b (32K, 免费)
- 01-ai/Yi-1.5-9B-Chat-16K (16K, 免费)
- 01-ai/Yi-1.5-6B-Chat (4K, 免费)
这里可以进行调试
下面附上Python代码,换上你的API密钥,括号记得删掉:
import requests
url = "https://api.siliconflow.cn/v1/chat/completions"
payload = {
"model": "Qwen/Qwen2-7B-Instruct",
"messages": [
{
"role": "user",
"content": "你好"
}
],
"max_tokens": 4096,
"stream": False,
"temperature": 0.5
}
headers = {
"accept": "application/json",
"content-type": "application/json",
"authorization": "Bearer {你的API密钥}"
}
response = requests.post(url, json=payload, headers=headers)
print(response.text)
创作不易,如果有用,请求关注、点赞、分享、,一起分享AI~,是我最大的动力
零基础入门AI大模型
今天贴心为大家准备好了一系列AI大模型资源,包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
有需要的小伙伴,可以点击下方链接免费领取【保证100%免费】
1.学习路线图

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;
第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;
第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;
第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;
第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;
第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;
第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。
2.视频教程
网上虽然也有很多的学习资源,但基本上都残缺不全的,这是我自己整理的大模型视频教程,上面路线图的每一个知识点,我都有配套的视频讲解。


(都打包成一块的了,不能一一展开,总共300多集)
3.技术文档和电子书
这里主要整理了大模型相关PDF书籍、行业报告、文档,有几百本,都是目前行业最新的。

4.LLM面试题和面经合集
这里主要整理了行业目前最新的大模型面试题和各种大厂offer面经合集。

👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;
• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;
• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;
• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。
1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集
5.免费获取
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码或者点击以下链接都可以免费领取【保证100%免费】
