阿里出了个 AI JetBrains 编程插件 Qoder,使用了一周,值得上车

阿里出了个 AI JetBrains 编程插件 Qoder,使用了一周,值得上车

上周在群里看到有人说阿里出了个叫 Qoder 的 AI 编程工具,说是直接支持 JetBrains 全系 IDE,不用再装 Cursor 切来切去了。我平时写后端用的就是 IntelliJ IDEA,当时就去下了一个试试。用了一周,把能测的功能基本过了一遍,这篇文章把我的真实情况写出来,顺便把安装怎么做也说清楚。

在这里插入图片描述

Qoder 是什么,和通义灵码有什么关系

先把这个问题说清楚,因为很多人第一反应是:阿里不是已经有通义灵码了吗,又出一个?

这两个确实都是阿里做的,但不是一回事。通义灵码是早期的阿里 AI 编程工具,定位是代码补全和问答助手,功能相对基础;Qoder 是 2025 年 8 月 22 日对外正式发布的新产品,定位是"Agentic 编码平台",面向海外开发者,走的是另一条路线。

官方的说法是,Qoder 不只做代码补全,它是一个能理解整个项目、自主执行多步骤开发任务的 AI 智能体平台。用中文来说,就是你给它一个需求,它可以自己分析代码库、找到相关文件、写代码、运行测试、修 bug,而不是只给你生成一段代码让你自己去复制粘贴。

官方将 Qoder JetBrains 插件定位为业内唯一支持记忆感知的 JetBrains 插件,在与开发者持续对话中,大模型会自动形成针对个人编码习惯、项目特点、常见问题的记忆,这些记忆在后续交互中被自动召回。

这次 JetBrains 插件版本包含 Agent Mode、Inline Chat 和智能代码建议功能,旨在为使用 Java、Rust、Go 等语言的开发者提升 AI 辅助编码体验。平台深度接入 Claude、GPT、Gemini 等最新大模型,并通过自动路由为不同任务匹配最优模型,无需用户手动切换。

从 BAT 的角度来说,字节有 Trae,腾讯有 CodeBuddy,阿里这次正式推出 Qoder,国内三家大厂算是都在 AI 编程工具这块凑齐了。


在这里插入图片描述

和其他工具比,差在哪、赢在哪

很多人用 Cursor 用顺手了,或者已经在用 GitHub Copilot,换 Qoder 有没有意义,这个值得单独说一下。

对比项Qoder JetBrains 插件GitHub CopilotCursor(独立 IDE)通义灵码
所属阿里巴巴微软/GitHubAnysphere阿里巴巴
JetBrains 支持原生插件有插件需要切换到 Cursor IDE有插件
Agent 模式有限有(核心功能)
记忆功能有(官方强调)
上下文规模支持 10 万文件级别有限较大但有上限有限
背后模型Claude、GPT、Gemini 等自动路由主要 GPT-4o支持多模型通义千问系列
价格新用户 2 美元/月起10 美元/月起20 美元/月(Pro)个人免费
国内网络无需翻墙(官方说明)需要良好网络需要良好网络无需翻墙

价格这块要特别说一下。Qoder 面向全球开发者推出首购优惠:由原价 10 美元/月直降至 2 美元/月(折合人民币约 14.2 元),新用户首购价格长期有效,按 10 美金每月续费。所以新用户第一个月 14 块钱,后续续费就是正常的 10 美元/月,也就 70 多块钱,比 Cursor Pro 便宜不少。

知乎有用户说 Cursor 最近偶尔会卡住不执行指令,Qoder 在同等任务下更稳定。重度使用两个晚上后评价:整体效果与 Cursor 不相上下,但比 Cursor 更稳定。Agent 的能力很强,可以自动调用网页读取工具,自动 fetch API 文档内容,这方面能力实测强过 Cursor。

不过也有人反馈过不好的体验。有用户初期体验时遇到报错反复、AI 纠错能力跟不上的情况,花了二十多分钟才把一个坑踩完。与 Cursor 基本十分钟出雏形相比,感觉折腾时间更长。这种情况多出现在项目刚上手、上下文还没建立起来的阶段,用了一段时间之后记忆功能积累了,会好一些。

对于 JetBrains 用户来说,最大的优势是不用换 IDE。用 Cursor 就得在 Cursor 里写代码,配置、快捷键、插件全得重新适应一遍;Qoder 装完是一个 IDEA 插件,你还在原来的 IDEA 里工作,只是多了一个 AI 侧边栏。


需要什么样的电脑才能跑

Qoder JetBrains 插件本身不在本地跑大模型,AI 推理全在云端完成,所以对本机硬件要求不高,主要看 IDE 本身的需求。

使用 Qoder 插件的环境要求:

项目要求
IDEIntelliJ IDEA 2023.1 及以上 / PyCharm / WebStorm / GoLand / CLion 等 JetBrains 全系
JDK由 IDE 自带,无需单独配置
操作系统Windows 10/11、macOS 10.14 以上、Linux(x64)
内存建议 8GB 以上(运行 IDEA 本身就需要 4-6GB,插件再加一些)
磁盘100MB 插件安装空间
网络需要能连接 qoder.com,官方表示无需翻墙可正常访问

JetBrains IDE 本身对内存的需求不低,特别是打开大型项目时,建议 16GB 内存的机器用起来更顺畅。8GB 的机器能用,但开着 IDEA 同时跑其他程序会有点吃力。

Qoder 还有一个独立 IDE 版本(类似 Cursor 那样的独立客户端)和 CLI 命令行版本,如果你不是 JetBrains 用户也可以选对应形态,本文主要说插件版。


安装教程,完整步骤

安装分两部分:先在 JetBrains IDE 里装好插件,再注册账号登录。

第一步:直接下载

包含idea+插件

https://pan.quark.cn/s/95610c19a811

第三步:注册账号

IDE 重启后,左侧或右侧会出现 Qoder 的侧边栏图标(一个 Q 形状的图标)。点它打开面板。

面板里会让你登录或注册,点"Sign Up"(注册)。

浏览器会自动打开 qoder.com 的注册页面。支持三种方式注册:

  • 邮箱注册
  • Google 账号一键登录
  • GitHub 账号一键登录

国内用 GitHub 或者直接用邮箱注册最方便。填好信息,验证邮箱,账号就建好了。

回到 IDE 里,点"Log In",用刚注册好的账号登录。登录后 Qoder 面板里会显示你的账号名和剩余 Credits,说明装好了。

新用户注册后会有一定量的免费 Credits 用于体验,试用期使用完 2000 个 Credits 后还可以继续使用,但切换到了基础模型。把基础功能都试一遍是够的,想用高级模型需要订阅 Pro。

第四步:界面介绍,几个主要功能在哪里

装好登录后,Qoder 面板在 IDEA 的右侧,分几个区域:

Chat 区域(对话窗口): 可以直接用自然语言提问,比如"帮我解释这段代码的逻辑"、“这个方法有什么潜在 bug”,Qoder 会结合当前打开的文件给出回答。

Agent Mode(智能体模式): 点面板里的"Agent"按钮,切换到智能体模式。这是 Qoder 主推的核心功能。你描述一个需求,比如"给这个 UserService 类加一个分页查询方法,对应的 Mapper 和 SQL 也一起写好",Qoder 会自动分析项目结构,找到相关文件,逐步生成代码,完成后给你展示所有改动,你确认后应用。

Inline Chat(行内对话): 在代码编辑区选中一段代码,按快捷键(默认 Ctrl+Shift+ICmd+Shift+I),在代码旁边直接弹出一个小输入框,输入指令,比如"帮我重构这个方法,减少嵌套层级",Qoder 直接在当前位置给出修改建议,不用切换到侧边栏。

代码补全: 写代码时 Qoder 会在光标处给出 AI 补全建议,按 Tab 采纳,按 Esc 忽略,和 Copilot 的体感差不多。Qoder 的行内代码补全在付费或试用期内可以无限量使用。

第五步:用 Quest 模式处理复杂需求

这是 Qoder 里一个比较有特色的功能,叫 Quest 模式,其他工具基本没有类似的东西。

知乎有人解释得比较清楚:Quest 模式的核心概念是"Spec First",就是先写需求文档再编程。现有的 AI 编程工具写代码快,但需求不明确的话,生成的代码可能方向都不对,反复修改浪费 token。Quest 模式的第一步是先和 Qoder 合作写 Spec,把需求理清楚,再开始生成代码,减少方向跑偏的情况。

Quest 模式适合要做一个比较完整功能模块的时候用,比如要写一个登录注册流程,或者要搭一个 API 服务。操作方法是在 Qoder 面板里点"Quest",然后用自然语言描述你要做的事,Qoder 会先提几个澄清性的问题,帮你把需求整理成一份 Spec 文档,确认之后再开始执行开发任务。

第六步:订阅 Pro 版(可选)

免费 Credits 用完后如果想继续用高级模型,需要订阅 Pro。

进官网 qoder.com,登录账号,点右上角"Upgrade"或者进入 Settings 里的"Billing",选择订阅计划。

新用户首购是 2 美元/月(约 14 块),这个价格在你的账号里是持久有效的,不是限时优惠。续费按 10 美金每月,退款后不能再次享受首购优惠。

支付支持信用卡,国内的 VISA 和 Mastercard 双币卡都可以支付,PayPal 也支持。

订阅完成后,回到 IDEA,Qoder 面板里会刷新套餐状态,Pro 的额度就可以用了。

模型选择方面,Qoder 提供四类高性能模型池:基础轻量(Lite)、经济高效(Efficient)、极致性能(Performance)与智能路由(Auto),不同任务由最适合的模型无缝切换执行。日常开发用 Auto 模式就好,系统会根据任务类型自动选模型,不需要自己去判断用哪个。


用下来觉得哪些地方还差点意思

说几个真实用到的问题,免得装完发现不对预期。

Agent 执行速度比想象的慢。它分析项目、查找文件、生成代码是一步步来的,遇到复杂任务要等十几秒到几十秒不等,不是你发完指令马上出结果。这个和 Cursor 差不多,不是 Qoder 特有的问题,但第一次用的人容易觉得卡了。

插件生态还薄弱。有用户评测反馈,Qoder Agent 注解逻辑理解和长期记忆能力是强项,但生成速度慢,插件生态薄弱是已知短板。就是说配套的工具链、第三方集成这块还不如 Cursor 成熟。

Spec First 需要习惯。Quest 模式的"先写需求再写代码"对习惯直接上手写代码的人来说要适应一下,有时候你就是想直接改几行,用 Quest 反而多了步骤。这时候切回普通 Chat 或者 Inline Chat 更直接。

试用期结束模型降级。免费 Credits 用完后会切到基础模型,基础模型的代码生成质量比 Claude 或者 GPT-4o 差不少,想保持正常体验还是得订阅。


适合装来用的场景

用了一周下来,觉得这个插件对以下几类人比较有价值:

已经在用 JetBrains 系 IDE、不想换到 Cursor 或其他独立 AI IDE 的开发者,这是最直接的适合场景。插件装完在原来的 IDE 里工作,不用迁移配置,不用重新适应快捷键。

Java、Go、Rust 后端方向的开发者,这几个语言的支持是 Qoder JetBrains 插件的主打场景,代码生成和上下文理解在这些语言上测试更充分。

有大型项目需求的团队,采用"双引擎"架构,结合云端代码图谱和 IDE 本地索引,支持 10 万文件级别大规模项目的深度理解,开发者无需手动添加上下文。对于代码量大的项目,这个上下文理解能力比手动 @ 文件要省事。

现在的下载地址是 qoder.com/download,或者在 JetBrains 插件市场里搜 Qoder 直接装。注册完有免费额度,先试用一下看合不合用,再决定要不要订阅。

Read more

昇腾赋能海外主流大模型 | Llama-2-7b深度测评与部署方案

昇腾赋能海外主流大模型 | Llama-2-7b深度测评与部署方案

一. 昇腾引领国产AI算力新时代 当生成式人工智能迈入规模化应用的深水区,大模型已从技术探索走向产业落地的关键节点,而算力作为支撑这一进程的核心基础设施,正面临着前所未有的双重挑战:一方面,以Llama、GPT系列为代表的大模型参数规模持续扩大,对算力的峰值性能、内存带宽、能效比提出了指数级增长的需求;另一方面,全球算力供给格局的不确定性,使得核心算力设施的国产化替代成为保障AI产业自主可控发展的战略刚需。 在此背景下,昇腾(神经网络处理器)作为国产高端AI芯片的核心代表,其技术成熟度、生态适配性与性能表现,直接关系到我国在全球AI算力竞争中的核心话语权。 昇腾自诞生以来,便承载着构建国产AI算力底座的战略使命,通过“芯片-框架-模型-应用”全栈式技术布局,打破了海外算力芯片在高端AI领域的垄断局面。从架构设计来看,昇腾采用面向AI计算的专用架构,集成了大量AI计算单元与高效内存管理模块,能够针对性解决大模型训练与推理过程中的数据吞吐瓶颈。 本次测评的核心硬件平台基于昇腾910B 构建,其为大模型的高速推理提供了坚实的硬件基础; 1.什么是昇腾 昇腾 (Ascend)

「源力觉醒 创作者计划」实测解析!文心一言 4.5 开源版本地化部署的表现与潜力

「源力觉醒 创作者计划」实测解析!文心一言 4.5 开源版本地化部署的表现与潜力

引言 2025 年 6 月 30 日,百度文心大模型 4.5 系列正式开源,并首发于 GitCode 平台!这一重磅消息在 AI 领域掀起了不小的波澜。作为国内最早布局大模型研发的企业之一,百度所推出的文心大模型目前已跻身国内顶级大模型行列,此次开源无疑将对各行各业产生深远影响,进一步加速大模型的发展进程。接下来,就让我们一同探究文心一言 4.5 开源版本地化部署的表现与潜力。 文章目录 * 引言 * 一、文心大模型 ERNIE 4.5 开源介绍 * 1.1 开源版本介绍 * 1.1 ERNIE 4.5 的主要特点和区别 * 二、文心ERNIE 4.5 技术解析 * 2.1

Llama-3.2-3B部署优化:Ollama量化运行与GPU算力适配最佳实践

Llama-3.2-3B部署优化:Ollama量化运行与GPU算力适配最佳实践 1. Llama-3.2-3B模型概述 Llama 3.2是Meta公司推出的新一代多语言大语言模型系列,包含1B和3B两种规模的预训练和指令微调版本。作为纯文本生成模型,Llama-3.2-3B专门针对多语言对话场景进行了深度优化,在代理检索、内容摘要等任务中表现卓越。 该模型采用改进的Transformer架构,通过自回归方式进行文本生成。指令微调版本结合了有监督微调(SFT)和人类反馈强化学习(RLHF)技术,确保模型输出既符合人类偏好,又具备高度的安全性和实用性。在多项行业标准测试中,Llama-3.2-3B的表现超越了众多开源和闭源聊天模型。 2. Ollama环境快速部署 2.1 系统要求与安装 Ollama支持多种操作系统环境,以下是推荐配置: 最低配置要求: * 操作系统:Ubuntu 20.04+ / Windows 10+ / macOS 12+ * 内存:8GB RAM(16GB推荐) * 存储:10GB可用空间 * GPU:

VS Code Copilot 完整使用教程(含图解)

VS Code Copilot 完整使用教程(含图解)

一、GitHub Copilot 概述 GitHub Copilot 是一款集成在 Visual Studio Code 中的 AI 驱动编码助手,它基于公共代码仓库训练而成,能够支持大多数编程语言和框架。通过自然语言提示和现有代码上下文,Copilot 可提供实时代码建议、解释说明和自动化实现,显著提升开发效率。 核心功能亮点 * 智能代码补全:输入时提供单行到整函数级别的实时建议,支持多种编程语言 * 自主编码模式(Agent Mode):根据自然语言指令,自动规划并执行复杂开发任务,跨文件协调修改 * 自然语言交互:通过聊天界面与代码库对话,提问、解释代码或指定修改需求 * 多文件批量修改:单个指令即可应用更改到项目中多个文件,AI 会分析项目结构并进行协调修改 * 模型灵活切换:可根据速度、推理能力或特定任务需求切换不同 AI 模型,支持接入外部模型 二、安装与设置步骤 获取访问权限 不同用户类型需通过以下方式获取 Copilot 访问权限: