IntelliJ IDEA AI Assistant 携带OpenCode保姆级安装教程来了

IntelliJ IDEA AI Assistant 携带OpenCode保姆级安装教程来了

01 引言

AI Assistant JetBrains 官方推出的 AI 驱动插件,专为软件开发设计。但是之前由于需要订阅才能使用,安装了之后又卸载了。

上一节简单介绍了一下IDEA 2026.1的简单功能,没有实际使用AI Assistant推出的ACP自定义模型。本节将通过安装opencode了解其使用过程。

02 安装

安装上一节已经介绍了,这里不在赘述。但是在安装过程中可能会出现一些问题。

2.1 安装后无法使用

明显显示已经安安装好了,几乎秒级安装,怎么感觉都有点离谱。

但是在对话框无法使用,无法发出信息,也没有选择模型的地方。

其实这个时候是后台在下载opencode的安装包,只不过界面没有明确的提示。可能由于网络原因下载失败,导致对话框无法使用。如果有网络原因,也可以从GitHub手动下载。

真正下载完成之后保存的位置:

C:\Users\{user.name}\AppData\Local\JetBrains\acp-agents\.downloads\opencode

重启IDEA编辑器,就会发现正常了。可以选择模式以及模型

2.2 测试

我们选择免费的模型测试一下:Qwen3.6 Plus

到这里基本就安装成功了。

我们在是是一下能不能改页面。恰好有个页面中文乱码,我们让他修复一下。

我们先通过plan模式分析,没有问题了在修改。

修复效果:

修复过程中文件的变动,IDEA没有像Qoder等一样提示用户页面的修改位置以及修复前后对比。

03 接入本地客户端

上面介绍了在线安装的方法。但是我本地已经使用npm的方式安装了opencode,能不能直接使用呢?

3.1 查看安装位置

# windows环境 where opencode 

3.2 本地配置

AI Chat->设置->add custom agent中,就会打开acp.json

默认只为:

{"default_mcp_settings":{}}

我们需要配置如下内容:

{"default_mcp_settings":{"use_idea_mcp":true,// 是否启用 IDE 内置 MCP"use_custom_mcp":true// 是否启用自定义 MCP},"agent_servers":{"你的代理名称":{"command":"E:\install\npm\opencode.cmd",// 如 "opencode", "python", "node" 等"args":["acp"]// 如 ["acp"] 或 ["run", "--mode=agent"]}}}

字段解释

default_mcp_settings - MCP (Model Context Protocol) 默认设置

  • use_idea_mcp: true 表示启用 JetBrains 内置的 MCP 服务,让 AI 代理可以访问 IDE 功能(如代码搜索、文件操作等)
  • use_custom_mcp: true 表示允许使用自定义的 MCP 服务配置
    agent_servers - 定义可用的 AI 代理服务器

OpenCode: 代理服务器名称(可自定义)

  • command: 启动代理的命令路径,这里是 OpenCode 的可执行文件路径
  • args: 启动参数,[“acp”] 表示以 ACP 模式运行

文件地址:C:\Users\{user.name}\.jetbrains

3.3 测试

没有问题。

由于OpenCode高版本中,必须登录之后才能使用,如果初次使用需要认证输入Api Key,这个自行申请即可。

04 小结

其他的AI客户端大同小异,感兴趣的老铁快去试试吧。

Read more

私人 AI 随身带!OpenClaw+cpolar 外网访问完整教程

私人 AI 随身带!OpenClaw+cpolar 外网访问完整教程

前言 在人人都用 AI 的时代,拥有一台完全私有、本地运行、数据不泄露的私人 AI,已经成为很多人的刚需。OpenClaw 就是这样一款宝藏工具,可绝大多数人都用错了方式 —— 只把它放在家里电脑上,出门就用不了。结果就是:部署时兴致勃勃,用几天后慢慢闲置,明明花了时间搭建,却没能发挥一半价值。我自己踩过这个坑,也试过各种办法突破局域网限制,要么配置复杂,要么不稳定,直到遇见 cpolar。它能轻松把本地服务映射到公网,安全加密、多平台兼容、新手友好。把 OpenClaw 和 cpolar 组合在一起,就等于把私人 AI 装进口袋,上班、出差、旅行,只要有网就能用。这篇文章不讲难懂原理,只给可直接复制的操作,带你从零完成外网访问,让私人 AI 真正随身带、随时用。 1 OpenClaw和cpolar是什么?

亚马逊云科技 EC2 部署 Dify,集成 Amazon Bedrock 构建生成式 AI 应用

亚马逊云科技 EC2 部署 Dify,集成 Amazon Bedrock 构建生成式 AI 应用

亚马逊云科技 EC2 部署 Dify,集成 Amazon Bedrock 构建生成式 AI 应用 文章目录 * 亚马逊云科技 EC2 部署 Dify,集成 Amazon Bedrock 构建生成式 AI 应用 * 前言 * 前提准备:亚马逊云科技注册流程 * Step.1 登录官网 * Step.2 选择账户计划 * Step.3 填写联系人信息 * Step.4 绑定信息 * Step.5 电话验证 * Step.6 售后支持 * Dify 集成 Amazon Bedrock 构建生成式 AI 应用 * Amazon

2025 AI数据准备:EasyLink让多模态非结构化数据处理变简单

2025 AI数据准备:EasyLink让多模态非结构化数据处理变简单

一、前言 在数据驱动的时代,企业每天被PDF、财报、合同、研究报告等海量文档所淹没。这些非结构化的多模态数据中蕴藏着关键业务洞察,却因格式复杂、版式多样、信息分散,成为难以开采的暗数据。研究人员仍需逐页翻查论文,分析师依旧通宵解析百页报表——传统处理方式不仅效率低下,更在规模面前显得无力。 随着大模型的普及,许多人期待它能自动化解这一困境。然而现实却揭示出一个严峻挑战:即使是当前最先进的视觉大模型,在面对复杂版式文档、混排图表与密集文本时,其识别准确率仍与专业非结构化数据处理工具存在显著差距。 一项全面测评显示,通过在多个OCR方法中探索中小模型的参数量、计算量、数据量对于精度的影响,成功证明了OCR领域在这三个维度存在Power-Law规律。 这些研究成果表明,OCR技术在提升多模态大模型性能方面发挥着关键作用,尤其是在处理复杂的视觉问答任务时。我们的工作不仅推动了OCR技术的发展,也为多模态大模型的应用提供了新的视角。 正式研究人员的不断努力,EasyLink团队致力于从数据源头破解这一难题。通过行业领先的智能文档解析与图表理解技术,为多模态大模型提供清洁、结构化

OpenClaw 小龙虾Windows10 专属一键部署教程|10 分钟搞定本地 AI 数字员工

OpenClaw 小龙虾Windows10 专属一键部署教程|10 分钟搞定本地 AI 数字员工

适配系统:Windows10 64 位(纯小白友好版)核心优势:免命令行、免环境配置、解压即装,内置所有运行依赖,全程可视化操作,新手也能一次成功部署 2026 爆火的开源 AI 智能体!本文专属:针对 Windows10 系统适配优化,解决 Win10 特有的 SmartScreen 拦截、路径权限等问题,附专属避坑指南,放心 “养虾” 不踩雷~ 目录(点击可跳转) 1. OpenClaw (小龙虾) 是什么?Win10 用户必看优势 2. Win10 安装前「致命避坑」(不看必部署失败) 3. 第一步:下载 Win10 适配版一键部署包 4. 第二步: