免费获得大模型的Api-Key的方法:英伟达提供GLM-4.7、Minimax M2.1模型和GitHub的AI大模型API申请

免费获得大模型的Api-Key的方法:英伟达提供GLM-4.7、Minimax M2.1模型和GitHub的AI大模型API申请

最近一直在玩OpenClaw,无奈OpenClaw是个消耗token的高手!随随便便问了几个问题就能吃掉百万的token数,妥妥的吞金兽,如果有免费的token就好了!

今天就给大家介绍英伟达和Github的免费大模型API Key的获取方法。

传送门:

英伟达-Nvidia的免费API Key

说到英伟达,大家的第一反应可能是"卖显卡的大佬"。但很少有人意识到,拥有强大算力的英伟达,也在积极布局AI云服务市场。这波免费开放API的策略,本质上是一个聪明的生态布局——通过免费服务吸引开发者,为未来的商业变现铺路。

img

 

注册账号

1.打开英伟达官网

https://build.nvidia.com

点击“Login”

img

 

2.输入邮箱

输入邮箱、密码

img

 

3.验证邮箱

到邮箱接受到6位数验证码

img

 

邮箱内容:

img

 

4.创建英伟达云账号

这里随便填写,我填写star-ai-home

再点击“Create nvidia cloud account”

img

 

5.验证手机号

如图点击“Verify”

img

 

在右侧输入手机号码的地方,把+1手动改成+86,然后在+86后面输入你的手机号码,点击“Send Code via SMS”获取短信验证码,如图:

你的手机就能收到一条【优速通】开头的英文验证短信,里面的数字就是验证码,将数字在网页上输入,继续点“Verify”按钮验证成功。

img

 

6.创建API Keys

点击“API Keys”进入管理页面

img

 

点击“Generate API Key”创建API密钥

img

 

输入Key Name

过期默认选择,按照需求选择,可以选择12个月,也可以选择永不过期

最后“Generate Key”确定创建

img

 

复制出API key备用

检测API Key

如果没有Cherry Studio可以自行安装,或者使用其他软件也行。

星哥这里使用 Cherry Studio 测试一下

1.添加英伟达API Key

打开Cherry Studio

点击设置

模型服务,搜索“英伟达”,填写密钥

img

 

2.验证API Key

如图,打开英伟达的接口,再点击检测

选择llama-3.1检测,yi-large检测失败

img

 

3.选择模型

点击“管理”

搜索模型,我这里先oss、glm、minimax的关键字

再添加对应的模型

img

 

img

 

img

 

4.测试问题

回到助手

选择英伟达大模型

img

 

问它一个问题,看是否能回答。

img

 

测试无误,这就是Nvidia的免费API Key的方法。

下面

Github获取免费API Key

首先登录github

如果没有账号则注册

1.申请api key

用浏览器访问:https://github.com/settings/personal-access-tokens

点击:Generate new token

img

 

2.填写信息

填写token name

填写描述,

选择过期时间,我这里选择永不过期

Repository access 选择第一项

img

 

3.添加权限

点击 add permissions

搜索modes

img

 

选择modes

img

 

复制出api key

img

 

4.测试

接下来,浏览器访问 https://github.com/marketplace/models

img

 

再左上角选择API大模型,如 OpenAI、deepseek、DeepSeek 等。

img

 

gpt5不能用

 

免费的key,会有限制:https://docs.github.com/en/github-models/use-github-models/prototyping-with-ai-models#rate-limits

Playground 和免费 API 的使用受到速率限制,包括每分钟请求数、每日请求数、每次请求的令牌数以及并发请求数。如果您遇到速率限制,则需要等待速率限制重置后才能继续发出请求。

5.使用Cherry Studio配置

点击设置

模型服务,搜索“github”,填写密钥

img

 

测试成功

img

 

结束

英伟达和GitHub的这两条免费通道,给了我们一个低成本体验顶级AI能力的机会。无论是用于个人学习、项目验证,还是作为产品的初期解决方案,都是极具价值的选择。

Read more

【MLLM】2025年大模型行业现状与方向调研(LLM/MLLM/AIGC,训练/推理/Infra,工业界/学术界)

【MLLM】2025年大模型行业现状与方向调研(LLM/MLLM/AIGC,训练/推理/Infra,工业界/学术界) 文章目录 * 1、2025 大模型行业三大赛道:LLM/MLLM/AIGC * (1)纯语言大模型(LLM):工程化深耕,分化明显 * (2)生成式模型(AIGC):商业化落地为王,方差巨大 * (3)多模态大模型(MLLM):蛮荒之地的机遇,技术壁垒决定竞争力 * 2、岗位分类,发展路径 * 2.1 职业方向对比(训练,推理,Infra) * 2.2 职业方向细分(训练,推理,Infra) * 3、后训练RL -

By Ne0inhk
基于Llamafactory与LoRA方法的大语言模型微调创建个性化聊天机器人

基于Llamafactory与LoRA方法的大语言模型微调创建个性化聊天机器人

一 、项目背景 随着大语言模型的快速发展,如何让通用模型具备垂直领域的深度知识与特定的角色人格,已成为参数高效微调(PEFT,Parameter-Efficient Fine-Tuning)技术的重要应用方向。传统的提示词难以让模型长期、稳定地维持复杂的角色设定和世界观知识,而全参数微调成本高昂。 本项目旨在利用 LlamaFactory 这一大模型微调框架,结合 LoRA(低秩适应) 技术,在保留基础模型通用能力的前提下,低成本地注入明日方舟游戏内的专属知识。目标是打造一个不仅能流畅对话,更能深度理解游戏内世界观设定、模拟特定人格说话方式的智能聊天机器人。 二、 介绍 2.1 Llamafactory Llamafactory 是一个专注于高效微调大型语言模型的开源工具库。它旨在简化模型微调流程,支持多种主流开源模型,并提供丰富的训练策略和优化技术。其支持多种微调方法,包括全参数微调(Full Fine-tuning)、轻量级微调(如LoRA、QLoRA)、适配器微调(Adapter)等。兼容Hugging Face生态系统,可直接加载预训练模型。 2.2 LoRA

By Ne0inhk

避坑指南:用Meta-Llama-3-8B-Instruct部署对话系统的常见问题

避坑指南:用Meta-Llama-3-8B-Instruct部署对话系统的常见问题 1. 引言:为何选择 Meta-Llama-3-8B-Instruct? 随着大模型在对话系统中的广泛应用,开发者对高性能、低成本、可商用的开源模型需求日益增长。Meta-Llama-3-8B-Instruct 作为 Llama 3 系列中最具性价比的指令微调版本,凭借其 80 亿参数规模、单卡可运行特性以及 Apache 2.0 友好协议,成为构建轻量级对话应用的理想选择。 该模型专为指令遵循和多轮对话优化,在英文任务上表现接近 GPT-3.5 水平,支持 8k 上下文长度,并可通过外推至 16k 处理更长文本。结合 vLLM 的高效推理与 Open WebUI 的可视化交互界面,能够快速搭建出体验流畅的本地化对话系统。 然而,在实际部署过程中,许多开发者会遇到诸如显存不足、响应异常、中文支持差、LoRA 微调失败等问题。本文将基于真实项目经验,

By Ne0inhk
通义万相 2.1 与蓝耘智算平台的深度协同,挖掘 AIGC 无限潜力并释放巨大未来价值

通义万相 2.1 与蓝耘智算平台的深度协同,挖掘 AIGC 无限潜力并释放巨大未来价值

我的个人主页我的专栏:人工智能领域、java-数据结构、Javase、C语言,希望能帮助到大家!!!点赞👍收藏❤ 引言:AIGC 浪潮下的新机遇 在当今数字化飞速发展的时代,人工智能生成内容(AIGC)已成为推动各行业变革的关键力量。从创意内容的快速产出到复杂场景的智能模拟,AIGC 正以前所未有的速度改变着我们的生活和工作方式。通义万相 2.1 作为多模态 AI 生成领域的佼佼者,与蓝耘智算平台这一强大的算力支撑平台深度协同,犹如一颗耀眼的新星,在 AIGC 的浩瀚星空中熠熠生辉,为挖掘 AIGC的无限潜力和释放巨大未来价值提供了坚实的基础和广阔的空间。 一:通义万相 2.1:多模态 AI 生成的卓越典范 ***通义万相 2.1 是阿里巴巴达摩院精心打造的多模态 AI 生成模型,在图像、视频等内容生成方面展现出了令人瞩目的实力。*** 1.1 创新架构引领技术突破 1.

By Ne0inhk