阿里出了个 AI JetBrains 编程插件 Qoder,使用了一周,值得上车

阿里出了个 AI JetBrains 编程插件 Qoder,使用了一周,值得上车

上周在群里看到有人说阿里出了个叫 Qoder 的 AI 编程工具,说是直接支持 JetBrains 全系 IDE,不用再装 Cursor 切来切去了。我平时写后端用的就是 IntelliJ IDEA,当时就去下了一个试试。用了一周,把能测的功能基本过了一遍,这篇文章把我的真实情况写出来,顺便把安装怎么做也说清楚。

在这里插入图片描述

Qoder 是什么,和通义灵码有什么关系

先把这个问题说清楚,因为很多人第一反应是:阿里不是已经有通义灵码了吗,又出一个?

这两个确实都是阿里做的,但不是一回事。通义灵码是早期的阿里 AI 编程工具,定位是代码补全和问答助手,功能相对基础;Qoder 是 2025 年 8 月 22 日对外正式发布的新产品,定位是"Agentic 编码平台",面向海外开发者,走的是另一条路线。

官方的说法是,Qoder 不只做代码补全,它是一个能理解整个项目、自主执行多步骤开发任务的 AI 智能体平台。用中文来说,就是你给它一个需求,它可以自己分析代码库、找到相关文件、写代码、运行测试、修 bug,而不是只给你生成一段代码让你自己去复制粘贴。

官方将 Qoder JetBrains 插件定位为业内唯一支持记忆感知的 JetBrains 插件,在与开发者持续对话中,大模型会自动形成针对个人编码习惯、项目特点、常见问题的记忆,这些记忆在后续交互中被自动召回。

这次 JetBrains 插件版本包含 Agent Mode、Inline Chat 和智能代码建议功能,旨在为使用 Java、Rust、Go 等语言的开发者提升 AI 辅助编码体验。平台深度接入 Claude、GPT、Gemini 等最新大模型,并通过自动路由为不同任务匹配最优模型,无需用户手动切换。

从 BAT 的角度来说,字节有 Trae,腾讯有 CodeBuddy,阿里这次正式推出 Qoder,国内三家大厂算是都在 AI 编程工具这块凑齐了。


在这里插入图片描述

和其他工具比,差在哪、赢在哪

很多人用 Cursor 用顺手了,或者已经在用 GitHub Copilot,换 Qoder 有没有意义,这个值得单独说一下。

对比项Qoder JetBrains 插件GitHub CopilotCursor(独立 IDE)通义灵码
所属阿里巴巴微软/GitHubAnysphere阿里巴巴
JetBrains 支持原生插件有插件需要切换到 Cursor IDE有插件
Agent 模式有限有(核心功能)
记忆功能有(官方强调)
上下文规模支持 10 万文件级别有限较大但有上限有限
背后模型Claude、GPT、Gemini 等自动路由主要 GPT-4o支持多模型通义千问系列
价格新用户 2 美元/月起10 美元/月起20 美元/月(Pro)个人免费
国内网络无需翻墙(官方说明)需要良好网络需要良好网络无需翻墙

价格这块要特别说一下。Qoder 面向全球开发者推出首购优惠:由原价 10 美元/月直降至 2 美元/月(折合人民币约 14.2 元),新用户首购价格长期有效,按 10 美金每月续费。所以新用户第一个月 14 块钱,后续续费就是正常的 10 美元/月,也就 70 多块钱,比 Cursor Pro 便宜不少。

知乎有用户说 Cursor 最近偶尔会卡住不执行指令,Qoder 在同等任务下更稳定。重度使用两个晚上后评价:整体效果与 Cursor 不相上下,但比 Cursor 更稳定。Agent 的能力很强,可以自动调用网页读取工具,自动 fetch API 文档内容,这方面能力实测强过 Cursor。

不过也有人反馈过不好的体验。有用户初期体验时遇到报错反复、AI 纠错能力跟不上的情况,花了二十多分钟才把一个坑踩完。与 Cursor 基本十分钟出雏形相比,感觉折腾时间更长。这种情况多出现在项目刚上手、上下文还没建立起来的阶段,用了一段时间之后记忆功能积累了,会好一些。

对于 JetBrains 用户来说,最大的优势是不用换 IDE。用 Cursor 就得在 Cursor 里写代码,配置、快捷键、插件全得重新适应一遍;Qoder 装完是一个 IDEA 插件,你还在原来的 IDEA 里工作,只是多了一个 AI 侧边栏。


需要什么样的电脑才能跑

Qoder JetBrains 插件本身不在本地跑大模型,AI 推理全在云端完成,所以对本机硬件要求不高,主要看 IDE 本身的需求。

使用 Qoder 插件的环境要求:

项目要求
IDEIntelliJ IDEA 2023.1 及以上 / PyCharm / WebStorm / GoLand / CLion 等 JetBrains 全系
JDK由 IDE 自带,无需单独配置
操作系统Windows 10/11、macOS 10.14 以上、Linux(x64)
内存建议 8GB 以上(运行 IDEA 本身就需要 4-6GB,插件再加一些)
磁盘100MB 插件安装空间
网络需要能连接 qoder.com,官方表示无需翻墙可正常访问

JetBrains IDE 本身对内存的需求不低,特别是打开大型项目时,建议 16GB 内存的机器用起来更顺畅。8GB 的机器能用,但开着 IDEA 同时跑其他程序会有点吃力。

Qoder 还有一个独立 IDE 版本(类似 Cursor 那样的独立客户端)和 CLI 命令行版本,如果你不是 JetBrains 用户也可以选对应形态,本文主要说插件版。


安装教程,完整步骤

安装分两部分:先在 JetBrains IDE 里装好插件,再注册账号登录。

第一步:直接下载

包含idea+插件

https://pan.quark.cn/s/95610c19a811

第三步:注册账号

IDE 重启后,左侧或右侧会出现 Qoder 的侧边栏图标(一个 Q 形状的图标)。点它打开面板。

面板里会让你登录或注册,点"Sign Up"(注册)。

浏览器会自动打开 qoder.com 的注册页面。支持三种方式注册:

  • 邮箱注册
  • Google 账号一键登录
  • GitHub 账号一键登录

国内用 GitHub 或者直接用邮箱注册最方便。填好信息,验证邮箱,账号就建好了。

回到 IDE 里,点"Log In",用刚注册好的账号登录。登录后 Qoder 面板里会显示你的账号名和剩余 Credits,说明装好了。

新用户注册后会有一定量的免费 Credits 用于体验,试用期使用完 2000 个 Credits 后还可以继续使用,但切换到了基础模型。把基础功能都试一遍是够的,想用高级模型需要订阅 Pro。

第四步:界面介绍,几个主要功能在哪里

装好登录后,Qoder 面板在 IDEA 的右侧,分几个区域:

Chat 区域(对话窗口): 可以直接用自然语言提问,比如"帮我解释这段代码的逻辑"、“这个方法有什么潜在 bug”,Qoder 会结合当前打开的文件给出回答。

Agent Mode(智能体模式): 点面板里的"Agent"按钮,切换到智能体模式。这是 Qoder 主推的核心功能。你描述一个需求,比如"给这个 UserService 类加一个分页查询方法,对应的 Mapper 和 SQL 也一起写好",Qoder 会自动分析项目结构,找到相关文件,逐步生成代码,完成后给你展示所有改动,你确认后应用。

Inline Chat(行内对话): 在代码编辑区选中一段代码,按快捷键(默认 Ctrl+Shift+ICmd+Shift+I),在代码旁边直接弹出一个小输入框,输入指令,比如"帮我重构这个方法,减少嵌套层级",Qoder 直接在当前位置给出修改建议,不用切换到侧边栏。

代码补全: 写代码时 Qoder 会在光标处给出 AI 补全建议,按 Tab 采纳,按 Esc 忽略,和 Copilot 的体感差不多。Qoder 的行内代码补全在付费或试用期内可以无限量使用。

第五步:用 Quest 模式处理复杂需求

这是 Qoder 里一个比较有特色的功能,叫 Quest 模式,其他工具基本没有类似的东西。

知乎有人解释得比较清楚:Quest 模式的核心概念是"Spec First",就是先写需求文档再编程。现有的 AI 编程工具写代码快,但需求不明确的话,生成的代码可能方向都不对,反复修改浪费 token。Quest 模式的第一步是先和 Qoder 合作写 Spec,把需求理清楚,再开始生成代码,减少方向跑偏的情况。

Quest 模式适合要做一个比较完整功能模块的时候用,比如要写一个登录注册流程,或者要搭一个 API 服务。操作方法是在 Qoder 面板里点"Quest",然后用自然语言描述你要做的事,Qoder 会先提几个澄清性的问题,帮你把需求整理成一份 Spec 文档,确认之后再开始执行开发任务。

第六步:订阅 Pro 版(可选)

免费 Credits 用完后如果想继续用高级模型,需要订阅 Pro。

进官网 qoder.com,登录账号,点右上角"Upgrade"或者进入 Settings 里的"Billing",选择订阅计划。

新用户首购是 2 美元/月(约 14 块),这个价格在你的账号里是持久有效的,不是限时优惠。续费按 10 美金每月,退款后不能再次享受首购优惠。

支付支持信用卡,国内的 VISA 和 Mastercard 双币卡都可以支付,PayPal 也支持。

订阅完成后,回到 IDEA,Qoder 面板里会刷新套餐状态,Pro 的额度就可以用了。

模型选择方面,Qoder 提供四类高性能模型池:基础轻量(Lite)、经济高效(Efficient)、极致性能(Performance)与智能路由(Auto),不同任务由最适合的模型无缝切换执行。日常开发用 Auto 模式就好,系统会根据任务类型自动选模型,不需要自己去判断用哪个。


用下来觉得哪些地方还差点意思

说几个真实用到的问题,免得装完发现不对预期。

Agent 执行速度比想象的慢。它分析项目、查找文件、生成代码是一步步来的,遇到复杂任务要等十几秒到几十秒不等,不是你发完指令马上出结果。这个和 Cursor 差不多,不是 Qoder 特有的问题,但第一次用的人容易觉得卡了。

插件生态还薄弱。有用户评测反馈,Qoder Agent 注解逻辑理解和长期记忆能力是强项,但生成速度慢,插件生态薄弱是已知短板。就是说配套的工具链、第三方集成这块还不如 Cursor 成熟。

Spec First 需要习惯。Quest 模式的"先写需求再写代码"对习惯直接上手写代码的人来说要适应一下,有时候你就是想直接改几行,用 Quest 反而多了步骤。这时候切回普通 Chat 或者 Inline Chat 更直接。

试用期结束模型降级。免费 Credits 用完后会切到基础模型,基础模型的代码生成质量比 Claude 或者 GPT-4o 差不少,想保持正常体验还是得订阅。


适合装来用的场景

用了一周下来,觉得这个插件对以下几类人比较有价值:

已经在用 JetBrains 系 IDE、不想换到 Cursor 或其他独立 AI IDE 的开发者,这是最直接的适合场景。插件装完在原来的 IDE 里工作,不用迁移配置,不用重新适应快捷键。

Java、Go、Rust 后端方向的开发者,这几个语言的支持是 Qoder JetBrains 插件的主打场景,代码生成和上下文理解在这些语言上测试更充分。

有大型项目需求的团队,采用"双引擎"架构,结合云端代码图谱和 IDE 本地索引,支持 10 万文件级别大规模项目的深度理解,开发者无需手动添加上下文。对于代码量大的项目,这个上下文理解能力比手动 @ 文件要省事。

现在的下载地址是 qoder.com/download,或者在 JetBrains 插件市场里搜 Qoder 直接装。注册完有免费额度,先试用一下看合不合用,再决定要不要订阅。

Read more

Meta-Llama-3-8B-Instruct对话逻辑:连贯性优化

Meta-Llama-3-8B-Instruct对话逻辑:连贯性优化 1. 引言 1.1 技术背景与应用需求 随着大语言模型在对话系统中的广泛应用,用户对模型输出的连贯性、上下文理解能力与指令遵循精度提出了更高要求。尽管大规模模型如Llama 3系列在性能上取得显著突破,但在实际部署中,如何保障多轮对话中的语义一致性与逻辑流畅性,仍是工程落地的关键挑战。 Meta-Llama-3-8B-Instruct作为Llama 3系列中兼顾性能与成本的中等规模模型,凭借其80亿参数、支持8k上下文和优异的指令微调表现,成为单卡部署场景下的热门选择。然而,默认推理配置下仍可能出现话题漂移、重复生成或上下文遗忘等问题,影响用户体验。 1.2 问题提出 在基于vLLM + Open WebUI构建的对话应用中,虽然推理效率高、响应速度快,但若不进行针对性优化,Meta-Llama-3-8B-Instruct在长对话或多任务切换时易出现: * 回答偏离原始意图 * 忽略历史对话关键信息 * 多轮交互后逻辑断裂 这些问题本质上源于注意力机制衰减、KV缓存管理不当及解码策略未适配对话

把 Vivado 项目放心交给 Git:一篇 FPGA 工程师必读的实战指南

之前分享过一篇文章《FPGA 版本管理三种方式:你会选哪一种?》,评论区很多人都推荐使用Git进行版本管理,今天这篇文章主题就是使用Git进行备份指南。 在 FPGA 开发中,掌握 Git 等源码管理工具已经是必备技能。 当然,在使用 Vivado 时,我们不仅需要处理源代码控制,还需要处理以 IP 为中心的设计产品。 Vivado 的工程通常是 IP 为中心 的设计,包含: * IP Integrator Block Diagram * 各类 IP 实例(独立 IP 或 BD 内 IP) * 自动生成的包装文件与工程产物 这让很多 FPGA 工程师一开始会觉得: “Vivado 项目到底该怎么和 Git 一起用?” 好消息是,从 Vivado

ComfyUI部署实战:云服务器一键启动AI绘画服务

ComfyUI部署实战:云服务器一键启动AI绘画服务 1. 引言 随着生成式人工智能技术的快速发展,AI绘画已成为内容创作领域的重要工具。在众多AI图像生成平台中,ComfyUI凭借其独特的工作流设计模式和高效的资源利用率,逐渐成为开发者和创作者的首选方案之一。本文将围绕如何在云服务器上通过镜像方式快速部署ComfyUI,实现AI绘画服务的一键启动与高效运行展开详细讲解。 当前主流的AI绘图工具多依赖图形界面操作或固定流程执行,而ComfyUI则采用基于节点的可视化工作流架构,允许用户灵活构建、切换和复用不同的生成逻辑。这种设计不仅提升了系统的可扩展性,也显著降低了显存占用,使得在普通GPU云服务器上也能流畅运行复杂模型组合。结合预置镜像的部署方式,整个环境搭建过程可缩短至分钟级,极大提升了开发与测试效率。 本文面向希望快速搭建稳定AI绘画服务的技术人员、AI应用开发者以及内容创作团队,提供一套完整、可落地的云上部署实践路径。 2. ComfyUI核心特性解析 2.1 基于节点的工作流设计 ComfyUI的核心优势在于其模块化节点系统。每个功能(如文本编码、图像解码、

小米智能家居完美接入Home Assistant全攻略

小米智能家居完美接入Home Assistant全攻略 【免费下载链接】ha_xiaomi_homeXiaomi Home Integration for Home Assistant 项目地址: https://gitcode.com/GitHub_Trending/ha/ha_xiaomi_home 想要将家中的小米智能设备无缝集成到Home Assistant智能家居平台吗?本文为您提供一套完整的小米设备集成解决方案,从基础安装到高级配置,手把手指导您实现跨品牌设备的统一管理。通过云端控制与本地控制双模式,您可以获得更稳定、更快速的设备控制体验。 小米设备集成前的准备工作 在开始集成前,请确保您已准备好以下条件: * 运行Home Assistant的设备(版本≥2024.4.4) * 小米智能设备(支持Wi-Fi或蓝牙连接) * 有效的小米账号(用于云端设备认证) * 本地网络访问权限(用于局域网设备发现) 小米设备集成的三种安装方式 HACS一键安装方法 通过Home Assistant社区商店进行安装是最便捷的方式: 1. 进入HACS界面