Rider接入豆包、智谱AI及配置

申请API

智谱

申请地址:智谱AI开放平台
新注册用户会送一些token,多翻翻官方会有一些活动送token,比如加官方企微,实名注册等都会送。

在这里插入图片描述


智谱AI开放平台往下翻就能看到当前的资源包有多少
或者直接点击我的资源包查看剩余

在这里插入图片描述


需要注意的是他送的就1个月有效期,赶紧用。

在这里插入图片描述


可以打开模型广场看看需要哪个,我以新出的GML-4.7为例

在这里插入图片描述


点击使用指南,跳转到新页面,往下翻,看到调用示例

在这里插入图片描述


按照下面我给的格式直接往里填,主要查看复制的内容是下面这几个

curl -X POST "https://open.bigmodel.cn/api/paas/v4/chat/completions" \ "model": "glm-4.7", "max_tokens": 65536, "temperature": 1.0 

一一对应填上去

apiKey通过右上角的API Key管理(key不与模型挂钩,可以很多调用都用一个key,类似登录密码。多个key就是分发时候方便对应用的停用)

在这里插入图片描述

豆包

申请地址:火山方舟管理控制台
第一次使用会赠送每个模型50000token,但是需要手动开通。
点击左侧开通管理开通需要的模型

在这里插入图片描述


这里可以开通安心体验,免费token到期后自动暂停,防止付费
现在右侧还有协作奖励的活动,与安心体验服务不能同时使用。
这里以Doubao-1.5-pro为例,直接搜索

在这里插入图片描述


在这里插入图片描述


点名字进入模型界面,点击api接入

在这里插入图片描述


这里APIKey和智谱一样,可以用一个通用的,可以按照应用创建
点击快速接入测试

在这里插入图片描述


提取这里的

curl https://ark.cn-beijing.volces.com/api/v3/chat/completions \ "model": "doubao-1-5-pro-32k-250115", 

把apiBase填写到https://ark.cn-beijing.volces.com/api/v3//chat/completions会自动补全,不需要填写
然后按照下面的步骤配置即可

Rider设置

首先打开Rider的插件设置,搜索Continue插件安装

Rider插件界面


安装好后在主界面的右侧会多一个Continue的图标,点开后点击设置界面

在这里插入图片描述


随后点击config,点local Config的设置图标,会打开Config文件的编辑界面。

在这里插入图片描述


在这里就可以添加api的信息了

在这里插入图片描述
name: Local Config version: 1.0.0 schema: v1 models: - name: GML-4.7-BigModel # 智谱 provider: openai model: glm-4.7 apiBase: https://open.bigmodel.cn/api/paas/v4/ defaultCompletionOptions: maxTokens: 65536 #可以不写 temperature: 1.0 #可以不写 apiKey: b14a********************lnVcQ #填写自己的APIKey - name: Doubao-1.5-pro-32k #豆包 provider: openai model: doubao-1-5-pro-32k-250115 apiBase: https://ark.cn-beijing.volces.com/api/v3/ apiKey: 616*******f5e6 #填写自己的APIKey 

字段说明:

name (必需):用于在配置中唯一标识模型的名称。
provider (必需): 模型的提供者(例如, openai , ollama )。因为在手动local选择里没有智谱和豆包,所以直接使用通用的openai
model (必需): 具体的模型名称(例如, gpt-4 , starcoder )
apiBase : 可用于覆盖每个模型指定的默认 API 基础
maxTokens : 完成时生成的最大 token 数
temperature : 控制补全的随机性。值范围从 0.0 (确定性)到 1.0 (随机性)。
apiKey : 发送请求时需携带的 API 密钥(Bearer 头部)

其他字段自行研究,官方文档

Read more

【腾讯位置服务开发者征文大赛】AI+地图赛道来了,带你读懂选题方向、投稿要求与拿分思路

【腾讯位置服务开发者征文大赛】AI+地图赛道来了,带你读懂选题方向、投稿要求与拿分思路

🔥 个人主页:杨利杰YJlio❄️ 个人专栏:《Sysinternals实战教程》《Windows PowerShell 实战》《WINDOWS教程》《IOS教程》《微信助手》《锤子助手》《Python》《Kali Linux》《那些年未解决的Windows疑难杂症》🌟 让复杂的事情更简单,让重复的工作自动化 文章目录 * 在这里插入图片描述 1. 【腾讯位置服务开发者征文大赛】AI+地图赛道来了,一文读懂选题方向、投稿要求与拿分思路 * 在这里插入图片描述 2. 为什么我觉得这场比赛值得认真参加 * 在这里插入图片描述 3. 这次征文,最值得写的方向有哪些 * 3.1 对话式地图交互 * 3.2 智能行程与多人出行规划 * 3.3 商业选址与区域潜力分析 * 3.4 AI 辅助地图开发 * 在这里插入图片描述 4. 想拿高分,文章一定要这么写 * 4.

2026年03月25日全球AI前沿动态

一句话总结 2026年3月24日全球AI领域在通用/垂直大模型、专项技术、智能体、物理机器人、硬件基建、企业布局、投融资等维度实现全覆盖突破,国产AI模型与开源生态领跑全球,AI深度渗透电商、工业、医疗、科研、社交、出行等全场景,同时AI伦理、监管、版权、心理影响等社会议题同步凸显,智能体与人机协作成为行业核心发展趋势。 一、模型与技术突破 1.1 通用大模型 1. 美团:开源LongCat-Flash-Prover,5600亿参数MoE混合专家模型,通过工具集成推理实现Lean4本地形式化验证,拆分自动形式化、草图生成、证明三大能力,分层重要性采样优化训练稳定性,多基准测试表现优异,刷新开源定理证明模型SOTA纪录。 2. Luma AI:发布多模态模型Uni-1,自回归架构同步生成文本与像素,支持76种视觉风格,具备常识场景补全、空间推理、跨文化视觉生成能力,人工偏好Elo评分位列整体、风格编辑、参考生成第一,文生图排名第二,

Mac Mini部署OpenClaw实战指南:打造7×24小时全天候AI数字管家

引言:当Mac Mini遇上OpenClaw 2026年,开源AI智能体OpenClaw已成为技术圈最炙手可热的话题——短短数月斩获超16.5万GitHub星标,社区成员突破8900人。这款原名Clawdbot/Moltbot的开源框架,能将大语言模型的推理能力转化为真实的系统操作力:管理文件、执行终端指令、调用本地应用、连接WhatsApp/Telegram/iMessage等数十种通信渠道。 而Mac Mini,特别是搭载M4芯片的最新款,凭借其极致能效、静音运行、统一内存架构三大特质,成为运行OpenClaw的公认理想宿主。本文将手把手教你将一台Mac Mini打造成全天候在线的AI数字管家,同时深入探讨安全加固、性能优化与生产级部署的最佳实践。 一、为什么是Mac Mini + OpenClaw? 1.1 OpenClaw:本地AI智能体的核心价值 OpenClaw并非简单的聊天机器人,而是一个具备系统级权限的自主执行框架: * 文件系统操作:创建、编辑、删除文件,整理目录结构 * 终端指令执行:运行Shell命令,调用系统工具 * 应用控制:操作浏览器、

2026全球最强十大AI大模型

1. GPT-5.2 定位:深度推理之王。 优势: *  极致推理:在数学、物理、逻辑谜题及复杂代码架构设计上仍保持全球第一,尤其是其“Thinking”模式,能处理极度复杂的链式推理任务。 缺点: * 成本高昂:API调用价格昂贵,不适合大规模低成本应用。 2.Gemini 3 Pro (Google) 定位:原生多模态霸主,长上下文王者。 优势: * 超长上下文:支持数百万Token的上下文窗口,能一次性处理整本书、长达数小时的视频或大型代码库。 * 多模态融合:真正的“原生”多模态,对图像、音频、视频的理解能力远超其他模型,能直接分析视频中的细微动作和语音语调。 * 谷歌生态:与Google Workspace、Search深度集成,实时信息检索能力极强。 缺点: * 幻觉问题:在处理极度冷门的知识时,偶尔会出现“自信地胡说八道”的情况。