IntelliJ IDEA AI Assistant 携带OpenCode保姆级安装教程来了

IntelliJ IDEA AI Assistant 携带OpenCode保姆级安装教程来了

01 引言

AI Assistant JetBrains 官方推出的 AI 驱动插件,专为软件开发设计。但是之前由于需要订阅才能使用,安装了之后又卸载了。

上一节简单介绍了一下IDEA 2026.1的简单功能,没有实际使用AI Assistant推出的ACP自定义模型。本节将通过安装opencode了解其使用过程。

02 安装

安装上一节已经介绍了,这里不在赘述。但是在安装过程中可能会出现一些问题。

2.1 安装后无法使用

明显显示已经安安装好了,几乎秒级安装,怎么感觉都有点离谱。

但是在对话框无法使用,无法发出信息,也没有选择模型的地方。

其实这个时候是后台在下载opencode的安装包,只不过界面没有明确的提示。可能由于网络原因下载失败,导致对话框无法使用。如果有网络原因,也可以从GitHub手动下载。

真正下载完成之后保存的位置:

C:\Users\{user.name}\AppData\Local\JetBrains\acp-agents\.downloads\opencode

重启IDEA编辑器,就会发现正常了。可以选择模式以及模型

2.2 测试

我们选择免费的模型测试一下:Qwen3.6 Plus

到这里基本就安装成功了。

我们在是是一下能不能改页面。恰好有个页面中文乱码,我们让他修复一下。

我们先通过plan模式分析,没有问题了在修改。

修复效果:

修复过程中文件的变动,IDEA没有像Qoder等一样提示用户页面的修改位置以及修复前后对比。

03 接入本地客户端

上面介绍了在线安装的方法。但是我本地已经使用npm的方式安装了opencode,能不能直接使用呢?

3.1 查看安装位置

# windows环境 where opencode 

3.2 本地配置

AI Chat->设置->add custom agent中,就会打开acp.json

默认只为:

{"default_mcp_settings":{}}

我们需要配置如下内容:

{"default_mcp_settings":{"use_idea_mcp":true,// 是否启用 IDE 内置 MCP"use_custom_mcp":true// 是否启用自定义 MCP},"agent_servers":{"你的代理名称":{"command":"E:\install\npm\opencode.cmd",// 如 "opencode", "python", "node" 等"args":["acp"]// 如 ["acp"] 或 ["run", "--mode=agent"]}}}

字段解释

default_mcp_settings - MCP (Model Context Protocol) 默认设置

  • use_idea_mcp: true 表示启用 JetBrains 内置的 MCP 服务,让 AI 代理可以访问 IDE 功能(如代码搜索、文件操作等)
  • use_custom_mcp: true 表示允许使用自定义的 MCP 服务配置
    agent_servers - 定义可用的 AI 代理服务器

OpenCode: 代理服务器名称(可自定义)

  • command: 启动代理的命令路径,这里是 OpenCode 的可执行文件路径
  • args: 启动参数,[“acp”] 表示以 ACP 模式运行

文件地址:C:\Users\{user.name}\.jetbrains

3.3 测试

没有问题。

由于OpenCode高版本中,必须登录之后才能使用,如果初次使用需要认证输入Api Key,这个自行申请即可。

04 小结

其他的AI客户端大同小异,感兴趣的老铁快去试试吧。

Read more

2026年医疗AI的可信革命全栈实现(下)

2026年医疗AI的可信革命全栈实现(下)

9.3 向量索引构建示例 文档进入向量库前,应先清洗、切分、打标签、嵌入,再写入索引。以下示例展示一种最简流程,真实环境中可替换为Milvus或Qdrant SDK。 代码清单 9-2 文档切分与索引写入 from dataclasses import dataclass from typing import Iterable import hashlib @dataclass class Chunk:     chunk_id: str     text: str     metadata: dict def chunk_document(doc_id: str, title: str, text: str, source_type: str) ->

【手把手详细教程】 Trae AI和Vscode~使用第三方中转API配置Claude ,GPT,Gemini等大模型教程

【手把手详细教程】 Trae AI和Vscode~使用第三方中转API配置Claude ,GPT,Gemini等大模型教程

在人工智能技术迅猛发展的今天,Anthropic 的 Claude 系列模型,Openai的GPT系列模型,Google的Gemini系列因其卓越的推理能力、代码生成和长文本处理技术,已成为全球开发者构建智能应用的重要选择。然而,国内开发者在直接调用官方模型时,普遍面临网络延迟高、访问不稳定、支付繁琐等难题。此帖子为记录我配置TRAE 软件时,配置的详细步骤,以及接入Claude ,GPT,Gemini等大模型过程。(Tips:后续发现Vscode配置也是同流程,也可以进行此帖子参考) 1.安装TRAE          访问 Trae AI 官网,选择适合自己电脑操作系统进行下载,本文以博主的Windows系统作为举例。         (国内版官网)https://www.trae.com.cn/         (国际版官网)https://www.trae.ai/ 2.配置TRAE 选择语言(中文/英文)和主题(暗色/亮色/

Kiro AI 助手完整使用指南

Kiro AI 助手完整使用指南

Kiro AI 助手完整使用指南 目录 1. 核心概念 2. 工作模式 3. Specs - 规范驱动开发 4. Hooks - 自动化触发器 5. Steering - 行为定制规则 6. MCP - 模型上下文协议 7. 聊天上下文 8. 实战示例 核心概念 Kiro 是一个 AI 驱动的 IDE 助手,专注于帮助开发者高效完成编码任务。它不仅能理解你的代码,还能主动执行操作、自动化工作流程。 核心能力 * 📝 读写代码文件 * 🔍 智能代码分析 * 🛠️ 执行 Shell 命令 * 🌐 联网搜索最新信息 * 🤖 自动化工作流程 * 📊 代码变更追踪 工作模式 1.

谷歌AI Gemin怎么使用?Gemini国内使用指南!

谷歌AI Gemin怎么使用?Gemini国内使用指南!

在当今快速发展的技术领域,人工智能(AI)语言模型正以其变革性的力量推动着创新。从自然语言处理(NLP)到对话生成,AI语言模型已经成为科技界的一个重要组成部分。 在众多杰出的AI语言模型中,Gemini凭借其卓越的性能和广泛的应用而脱颖而出。作为谷歌旗下的多模态AI巨头,Gemini融合了最先进的语言处理技术,为用户提供了无与伦比的语言理解和生成能力。 废话不多说,上菜了。觉得不错记得点赞收藏转发。 1、AI studio 在Google AI studio中,右上角模型确认用的是Gemini 3模型,然后在输入框中直接写提示词,加上图片,就能开始使用banana,体验上当前图像领域的魅力和强大。 使用地址: https://aistudio.google.com/app/prompts/new_chat?model=gemini-2.5-flash-image-preview 2、ChatShare系统 是国内主流镜像系统,由caicats大佬创建。chatshare分为biz和xyz站点。两个站点主要是以OpenAI模型为主,目前已经接入原生的Gemi