免费获得大模型的Api-Key的方法:英伟达提供GLM-4.7、Minimax M2.1模型和GitHub的AI大模型API申请

免费获得大模型的Api-Key的方法:英伟达提供GLM-4.7、Minimax M2.1模型和GitHub的AI大模型API申请

最近一直在玩OpenClaw,无奈OpenClaw是个消耗token的高手!随随便便问了几个问题就能吃掉百万的token数,妥妥的吞金兽,如果有免费的token就好了!

今天就给大家介绍英伟达和Github的免费大模型API Key的获取方法。

传送门:

英伟达-Nvidia的免费API Key

说到英伟达,大家的第一反应可能是"卖显卡的大佬"。但很少有人意识到,拥有强大算力的英伟达,也在积极布局AI云服务市场。这波免费开放API的策略,本质上是一个聪明的生态布局——通过免费服务吸引开发者,为未来的商业变现铺路。

img

 

注册账号

1.打开英伟达官网

https://build.nvidia.com

点击“Login”

img

 

2.输入邮箱

输入邮箱、密码

img

 

3.验证邮箱

到邮箱接受到6位数验证码

img

 

邮箱内容:

img

 

4.创建英伟达云账号

这里随便填写,我填写star-ai-home

再点击“Create nvidia cloud account”

img

 

5.验证手机号

如图点击“Verify”

img

 

在右侧输入手机号码的地方,把+1手动改成+86,然后在+86后面输入你的手机号码,点击“Send Code via SMS”获取短信验证码,如图:

你的手机就能收到一条【优速通】开头的英文验证短信,里面的数字就是验证码,将数字在网页上输入,继续点“Verify”按钮验证成功。

img

 

6.创建API Keys

点击“API Keys”进入管理页面

img

 

点击“Generate API Key”创建API密钥

img

 

输入Key Name

过期默认选择,按照需求选择,可以选择12个月,也可以选择永不过期

最后“Generate Key”确定创建

img

 

复制出API key备用

检测API Key

如果没有Cherry Studio可以自行安装,或者使用其他软件也行。

星哥这里使用 Cherry Studio 测试一下

1.添加英伟达API Key

打开Cherry Studio

点击设置

模型服务,搜索“英伟达”,填写密钥

img

 

2.验证API Key

如图,打开英伟达的接口,再点击检测

选择llama-3.1检测,yi-large检测失败

img

 

3.选择模型

点击“管理”

搜索模型,我这里先oss、glm、minimax的关键字

再添加对应的模型

img

 

img

 

img

 

4.测试问题

回到助手

选择英伟达大模型

img

 

问它一个问题,看是否能回答。

img

 

测试无误,这就是Nvidia的免费API Key的方法。

下面

Github获取免费API Key

首先登录github

如果没有账号则注册

1.申请api key

用浏览器访问:https://github.com/settings/personal-access-tokens

点击:Generate new token

img

 

2.填写信息

填写token name

填写描述,

选择过期时间,我这里选择永不过期

Repository access 选择第一项

img

 

3.添加权限

点击 add permissions

搜索modes

img

 

选择modes

img

 

复制出api key

img

 

4.测试

接下来,浏览器访问 https://github.com/marketplace/models

img

 

再左上角选择API大模型,如 OpenAI、deepseek、DeepSeek 等。

img

 

gpt5不能用

 

免费的key,会有限制:https://docs.github.com/en/github-models/use-github-models/prototyping-with-ai-models#rate-limits

Playground 和免费 API 的使用受到速率限制,包括每分钟请求数、每日请求数、每次请求的令牌数以及并发请求数。如果您遇到速率限制,则需要等待速率限制重置后才能继续发出请求。

5.使用Cherry Studio配置

点击设置

模型服务,搜索“github”,填写密钥

img

 

测试成功

img

 

结束

英伟达和GitHub的这两条免费通道,给了我们一个低成本体验顶级AI能力的机会。无论是用于个人学习、项目验证,还是作为产品的初期解决方案,都是极具价值的选择。

Read more

2026 年 AI 辅助编程工具全景对比:Copilot、Cursor、Claude Code 与 Codex 深度解析

引言 2026 年,AI 辅助编程已经从"尝鲜"变成了"标配"。从 GitHub Copilot 的横空出世,到 Cursor 的异军突起,再到 Claude Code 的强势入局,AI 编程助手正在重塑开发者的工作方式。但面对市面上琳琅满目的工具,你是否也有这样的困惑:哪个工具最适合我?它们之间到底有什么区别? 本文将深入对比四款主流 AI 编程工具,帮你找到最适合自己的那一款。 AI 辅助编程的演进之路 从代码补全到智能协作 早期的 AI 编程工具,如 OpenAI Codex,主要聚焦于代码补全——你写一行,它接下一行。但到了 2026 年,AI 编程助手已经进化成真正的&

By Ne0inhk

一文详解llama.cpp:核心特性、技术原理到实用部署

目录 * 项目定位与核心特性:介绍llama.cpp是什么、核心设计哲学及主要特点。 * 核心架构与技术原理:分析其软件架构、GGML基础库、GGUF文件格式和量化技术。 * 环境部署与实践指南:提供安装部署的多种方式、基本运行方法和API服务配置。 * 进阶特性与扩展功能:介绍路由模式、工具调用、平台移植和企业级部署方案。 🎯 项目定位与核心特性 llama.cpp是一个用纯C/C++编写的开源大语言模型推理框架,最初为在本地运行Meta LLaMA模型而创建。它的核心设计哲学是极简、高效与可移植,旨在让大模型推理摆脱对GPU和复杂Python环境的依赖。 核心设计哲学 1. 极简与可移植性:纯C/C++实现意味着几乎零外部依赖,能在从云服务器到树莓派的各种设备上编译运行。 2. CPU优先优化:虽然后期加入了强大的GPU支持,但其初心是让LLM在普通CPU上高效运行,这使其在众多依赖GPU的框架中独树一帜。 3. 极致性能追求:通过底层硬件指令集优化和量化技术,实现在有限硬件上的惊人性能表现。 主要特点对比 特性维度llama.cpp典型Pyth

By Ne0inhk
共绩算力 RTX 5090 极速部署 Stable Diffusion WebUI:新手也能秒开 AI 绘图工作站

共绩算力 RTX 5090 极速部署 Stable Diffusion WebUI:新手也能秒开 AI 绘图工作站

还在为本地硬件不足跑不动 AI 绘图模型发愁?想快速拥有高性价比的 Stable Diffusion 绘图环境?今天给大家带来共绩算力 RTX 5090 部署 Stable Diffusion WebUI(增强版)的详细教程,全程零兼容冲突,从云主机配置到生成第一张 AI 画作仅需 30 分钟,步骤清晰可复现,无论是设计爱好者还是 AI 新手都能轻松上手! 目录 一、为什么选择共绩算力部署 Stable Diffusion? 二、环境准备:精准配置云主机 2.1 创建云主机实例 1.2 登录云主机终端 二、完整部署流程 2.1 环境清理与依赖安装 2.2 下载与配置Stable Diffusion WebUI

By Ne0inhk

github 批量上传代码和文件

如果没有安装git 就去官网下载Git - Install for Windows 直接默认配置就可以 Git 初始化配置与首次推送代码仓库教程 目录 Git 初始化配置与首次推送代码仓库教程 步骤 0: 打开power shell用管理员运行 步骤 1: 设置全局 Git 用户名 步骤 2: 设置全局 Git 邮箱 步骤 3: 进入项目目录 步骤 4: 初始化 Git 仓库 步骤 5: 添加所有更改到暂存区 步骤 6: 提交暂存区的更改 步骤 7: 添加远程仓库地址(尝试) 步骤 8: 移除旧的远程仓库配置 步骤 9: 添加远程仓库地址(

By Ne0inhk