阿里出了个 AI JetBrains 编程插件 Qoder,使用了一周,值得上车

阿里出了个 AI JetBrains 编程插件 Qoder,使用了一周,值得上车

上周在群里看到有人说阿里出了个叫 Qoder 的 AI 编程工具,说是直接支持 JetBrains 全系 IDE,不用再装 Cursor 切来切去了。我平时写后端用的就是 IntelliJ IDEA,当时就去下了一个试试。用了一周,把能测的功能基本过了一遍,这篇文章把我的真实情况写出来,顺便把安装怎么做也说清楚。

在这里插入图片描述

Qoder 是什么,和通义灵码有什么关系

先把这个问题说清楚,因为很多人第一反应是:阿里不是已经有通义灵码了吗,又出一个?

这两个确实都是阿里做的,但不是一回事。通义灵码是早期的阿里 AI 编程工具,定位是代码补全和问答助手,功能相对基础;Qoder 是 2025 年 8 月 22 日对外正式发布的新产品,定位是"Agentic 编码平台",面向海外开发者,走的是另一条路线。

官方的说法是,Qoder 不只做代码补全,它是一个能理解整个项目、自主执行多步骤开发任务的 AI 智能体平台。用中文来说,就是你给它一个需求,它可以自己分析代码库、找到相关文件、写代码、运行测试、修 bug,而不是只给你生成一段代码让你自己去复制粘贴。

官方将 Qoder JetBrains 插件定位为业内唯一支持记忆感知的 JetBrains 插件,在与开发者持续对话中,大模型会自动形成针对个人编码习惯、项目特点、常见问题的记忆,这些记忆在后续交互中被自动召回。

这次 JetBrains 插件版本包含 Agent Mode、Inline Chat 和智能代码建议功能,旨在为使用 Java、Rust、Go 等语言的开发者提升 AI 辅助编码体验。平台深度接入 Claude、GPT、Gemini 等最新大模型,并通过自动路由为不同任务匹配最优模型,无需用户手动切换。

从 BAT 的角度来说,字节有 Trae,腾讯有 CodeBuddy,阿里这次正式推出 Qoder,国内三家大厂算是都在 AI 编程工具这块凑齐了。


在这里插入图片描述

和其他工具比,差在哪、赢在哪

很多人用 Cursor 用顺手了,或者已经在用 GitHub Copilot,换 Qoder 有没有意义,这个值得单独说一下。

对比项Qoder JetBrains 插件GitHub CopilotCursor(独立 IDE)通义灵码
所属阿里巴巴微软/GitHubAnysphere阿里巴巴
JetBrains 支持原生插件有插件需要切换到 Cursor IDE有插件
Agent 模式有限有(核心功能)
记忆功能有(官方强调)
上下文规模支持 10 万文件级别有限较大但有上限有限
背后模型Claude、GPT、Gemini 等自动路由主要 GPT-4o支持多模型通义千问系列
价格新用户 2 美元/月起10 美元/月起20 美元/月(Pro)个人免费
国内网络无需翻墙(官方说明)需要良好网络需要良好网络无需翻墙

价格这块要特别说一下。Qoder 面向全球开发者推出首购优惠:由原价 10 美元/月直降至 2 美元/月(折合人民币约 14.2 元),新用户首购价格长期有效,按 10 美金每月续费。所以新用户第一个月 14 块钱,后续续费就是正常的 10 美元/月,也就 70 多块钱,比 Cursor Pro 便宜不少。

知乎有用户说 Cursor 最近偶尔会卡住不执行指令,Qoder 在同等任务下更稳定。重度使用两个晚上后评价:整体效果与 Cursor 不相上下,但比 Cursor 更稳定。Agent 的能力很强,可以自动调用网页读取工具,自动 fetch API 文档内容,这方面能力实测强过 Cursor。

不过也有人反馈过不好的体验。有用户初期体验时遇到报错反复、AI 纠错能力跟不上的情况,花了二十多分钟才把一个坑踩完。与 Cursor 基本十分钟出雏形相比,感觉折腾时间更长。这种情况多出现在项目刚上手、上下文还没建立起来的阶段,用了一段时间之后记忆功能积累了,会好一些。

对于 JetBrains 用户来说,最大的优势是不用换 IDE。用 Cursor 就得在 Cursor 里写代码,配置、快捷键、插件全得重新适应一遍;Qoder 装完是一个 IDEA 插件,你还在原来的 IDEA 里工作,只是多了一个 AI 侧边栏。


需要什么样的电脑才能跑

Qoder JetBrains 插件本身不在本地跑大模型,AI 推理全在云端完成,所以对本机硬件要求不高,主要看 IDE 本身的需求。

使用 Qoder 插件的环境要求:

项目要求
IDEIntelliJ IDEA 2023.1 及以上 / PyCharm / WebStorm / GoLand / CLion 等 JetBrains 全系
JDK由 IDE 自带,无需单独配置
操作系统Windows 10/11、macOS 10.14 以上、Linux(x64)
内存建议 8GB 以上(运行 IDEA 本身就需要 4-6GB,插件再加一些)
磁盘100MB 插件安装空间
网络需要能连接 qoder.com,官方表示无需翻墙可正常访问

JetBrains IDE 本身对内存的需求不低,特别是打开大型项目时,建议 16GB 内存的机器用起来更顺畅。8GB 的机器能用,但开着 IDEA 同时跑其他程序会有点吃力。

Qoder 还有一个独立 IDE 版本(类似 Cursor 那样的独立客户端)和 CLI 命令行版本,如果你不是 JetBrains 用户也可以选对应形态,本文主要说插件版。


安装教程,完整步骤

安装分两部分:先在 JetBrains IDE 里装好插件,再注册账号登录。

第一步:直接下载

包含idea+插件

https://pan.quark.cn/s/95610c19a811

第三步:注册账号

IDE 重启后,左侧或右侧会出现 Qoder 的侧边栏图标(一个 Q 形状的图标)。点它打开面板。

面板里会让你登录或注册,点"Sign Up"(注册)。

浏览器会自动打开 qoder.com 的注册页面。支持三种方式注册:

  • 邮箱注册
  • Google 账号一键登录
  • GitHub 账号一键登录

国内用 GitHub 或者直接用邮箱注册最方便。填好信息,验证邮箱,账号就建好了。

回到 IDE 里,点"Log In",用刚注册好的账号登录。登录后 Qoder 面板里会显示你的账号名和剩余 Credits,说明装好了。

新用户注册后会有一定量的免费 Credits 用于体验,试用期使用完 2000 个 Credits 后还可以继续使用,但切换到了基础模型。把基础功能都试一遍是够的,想用高级模型需要订阅 Pro。

第四步:界面介绍,几个主要功能在哪里

装好登录后,Qoder 面板在 IDEA 的右侧,分几个区域:

Chat 区域(对话窗口): 可以直接用自然语言提问,比如"帮我解释这段代码的逻辑"、“这个方法有什么潜在 bug”,Qoder 会结合当前打开的文件给出回答。

Agent Mode(智能体模式): 点面板里的"Agent"按钮,切换到智能体模式。这是 Qoder 主推的核心功能。你描述一个需求,比如"给这个 UserService 类加一个分页查询方法,对应的 Mapper 和 SQL 也一起写好",Qoder 会自动分析项目结构,找到相关文件,逐步生成代码,完成后给你展示所有改动,你确认后应用。

Inline Chat(行内对话): 在代码编辑区选中一段代码,按快捷键(默认 Ctrl+Shift+ICmd+Shift+I),在代码旁边直接弹出一个小输入框,输入指令,比如"帮我重构这个方法,减少嵌套层级",Qoder 直接在当前位置给出修改建议,不用切换到侧边栏。

代码补全: 写代码时 Qoder 会在光标处给出 AI 补全建议,按 Tab 采纳,按 Esc 忽略,和 Copilot 的体感差不多。Qoder 的行内代码补全在付费或试用期内可以无限量使用。

第五步:用 Quest 模式处理复杂需求

这是 Qoder 里一个比较有特色的功能,叫 Quest 模式,其他工具基本没有类似的东西。

知乎有人解释得比较清楚:Quest 模式的核心概念是"Spec First",就是先写需求文档再编程。现有的 AI 编程工具写代码快,但需求不明确的话,生成的代码可能方向都不对,反复修改浪费 token。Quest 模式的第一步是先和 Qoder 合作写 Spec,把需求理清楚,再开始生成代码,减少方向跑偏的情况。

Quest 模式适合要做一个比较完整功能模块的时候用,比如要写一个登录注册流程,或者要搭一个 API 服务。操作方法是在 Qoder 面板里点"Quest",然后用自然语言描述你要做的事,Qoder 会先提几个澄清性的问题,帮你把需求整理成一份 Spec 文档,确认之后再开始执行开发任务。

第六步:订阅 Pro 版(可选)

免费 Credits 用完后如果想继续用高级模型,需要订阅 Pro。

进官网 qoder.com,登录账号,点右上角"Upgrade"或者进入 Settings 里的"Billing",选择订阅计划。

新用户首购是 2 美元/月(约 14 块),这个价格在你的账号里是持久有效的,不是限时优惠。续费按 10 美金每月,退款后不能再次享受首购优惠。

支付支持信用卡,国内的 VISA 和 Mastercard 双币卡都可以支付,PayPal 也支持。

订阅完成后,回到 IDEA,Qoder 面板里会刷新套餐状态,Pro 的额度就可以用了。

模型选择方面,Qoder 提供四类高性能模型池:基础轻量(Lite)、经济高效(Efficient)、极致性能(Performance)与智能路由(Auto),不同任务由最适合的模型无缝切换执行。日常开发用 Auto 模式就好,系统会根据任务类型自动选模型,不需要自己去判断用哪个。


用下来觉得哪些地方还差点意思

说几个真实用到的问题,免得装完发现不对预期。

Agent 执行速度比想象的慢。它分析项目、查找文件、生成代码是一步步来的,遇到复杂任务要等十几秒到几十秒不等,不是你发完指令马上出结果。这个和 Cursor 差不多,不是 Qoder 特有的问题,但第一次用的人容易觉得卡了。

插件生态还薄弱。有用户评测反馈,Qoder Agent 注解逻辑理解和长期记忆能力是强项,但生成速度慢,插件生态薄弱是已知短板。就是说配套的工具链、第三方集成这块还不如 Cursor 成熟。

Spec First 需要习惯。Quest 模式的"先写需求再写代码"对习惯直接上手写代码的人来说要适应一下,有时候你就是想直接改几行,用 Quest 反而多了步骤。这时候切回普通 Chat 或者 Inline Chat 更直接。

试用期结束模型降级。免费 Credits 用完后会切到基础模型,基础模型的代码生成质量比 Claude 或者 GPT-4o 差不少,想保持正常体验还是得订阅。


适合装来用的场景

用了一周下来,觉得这个插件对以下几类人比较有价值:

已经在用 JetBrains 系 IDE、不想换到 Cursor 或其他独立 AI IDE 的开发者,这是最直接的适合场景。插件装完在原来的 IDE 里工作,不用迁移配置,不用重新适应快捷键。

Java、Go、Rust 后端方向的开发者,这几个语言的支持是 Qoder JetBrains 插件的主打场景,代码生成和上下文理解在这些语言上测试更充分。

有大型项目需求的团队,采用"双引擎"架构,结合云端代码图谱和 IDE 本地索引,支持 10 万文件级别大规模项目的深度理解,开发者无需手动添加上下文。对于代码量大的项目,这个上下文理解能力比手动 @ 文件要省事。

现在的下载地址是 qoder.com/download,或者在 JetBrains 插件市场里搜 Qoder 直接装。注册完有免费额度,先试用一下看合不合用,再决定要不要订阅。

Read more

AI世界模型(World Model)全解析:技术原理、研究进展与产业落地

AI世界模型(World Model)全解析:技术原理、研究进展与产业落地 摘要:世界模型(World Model)作为连接AI感知、决策与行动的核心枢纽,正成为突破通用人工智能(AGI)瓶颈的关键技术。本文从概念溯源、理论基础出发,系统剖析世界模型的技术架构、核心分类与实现方法,结合2024-2026年最新研究成果(如LeCun团队潜在动作世界模型、DIAMOND扩散模型)与产业落地案例,深入探讨其在强化学习、游戏开发、自动驾驶、机器人等领域的应用价值,最后梳理当前技术挑战并展望未来研究方向。全文兼顾学术深度与工程实践,为AI研究者与技术从业者提供全面的世界模型知识体系。 一、引言:从“符号拟合”到“世界理解”,AI的认知革命 1.1 大语言模型的认知瓶颈 自ChatGPT掀起大模型浪潮以来,大语言模型(LLM)凭借海量文本数据的统计拟合能力,在语义理解、内容生成、逻辑推理等领域展现出惊人实力。但在杨立昆、李飞飞等顶尖学者眼中,当前LLM仍是“

LLM - 将业务 SOP 变成 AI 能力:用 Skill + MCP 驱动 Spring AI 应用落地不完全指南

LLM - 将业务 SOP 变成 AI 能力:用 Skill + MCP 驱动 Spring AI 应用落地不完全指南

文章目录 * 概述。 * 一、从「工具调用」到「任务完成」 * 1.1 传统工具调用的三个痛点 * 二、MCP:统一「接外部世界」的模型上下文协议 * 2.1 MCP 是什么 * 2.2 典型 MCP 架构:谁和谁在「说话」 * 三、Skill:把「会用工具」变成「会做事情」 * 3.1 Skill 的基本概念 * 3.2 Skill 解决了 MCP 解决不了的问题 * 四、Skill vs MCP:概念与职责对比 * 4.1 核心对比表

2026年3月18日 AI 每日动态

2026年3月18日 AI 每日动态

1. 【AI Coding 工具】Claude Code 终于有了"长期记忆"——claude-mem 爆红 Claude Code 用起来顺手,但每次开新会话就像把同事的记忆清零——项目背景要重新交代,之前做过的决策一问三不知。现在有个叫 claude-mem 的开源插件彻底改变了这件事。 它的工作方式很直接:自动抓取每次会话里的工具调用记录(读了哪些文件、改了哪些代码、跑了什么命令),会话结束后用 AI 把这些信息压缩成结构化摘要,下次开工时自动注入进来。一万 Token 的操作记录,最终压缩到 500 Token 左右,同时还支持自然语言检索历史("上次那个 React 重复渲染是怎么解的?")。 目前已有超 3 万人收藏,宣称能节省 90% 的 Token

OpenCode AI 编程保姆级使用教程:从安装到实战,效率直接拉满

OpenCode AI 编程保姆级使用教程:从安装到实战,效率直接拉满

前言 当下 AI 编程工具层出不穷,而OpenCode凭借开源免费、多模型兼容、多端适配、项目级上下文感知的核心优势,成为了程序员的新晋效率神器。它不是简单的代码补全工具,而是能真正理解项目架构、帮你从需求分析到代码落地的 AI 编码代理,支持终端、桌面应用、IDE 扩展等多种使用方式,还能对接国内外 75 + 种 LLM 模型,兼顾便捷性和代码隐私性。 本文结合 OpenCode 官方文档和实际使用经验,用最通俗易懂的语言,从安装配置、核心操作、实战技巧、高级玩法四个维度,带你彻底玩转 OpenCode,不管是编程新手还是资深开发者,都能快速上手并提升开发效率! 一、先搞懂:OpenCode 到底适合谁?有啥核心优势? 1. 适用人群 * 编程新手:不用死记硬背语法,自然语言描述需求就能生成代码,快速入门; * 资深开发者:摆脱重复编码、重构老项目、