开源免费!AI 编程助手 OpenCode 保姆级教程

开源免费!AI 编程助手 OpenCode 保姆级教程

前两天刷 GitHub,看到一个叫 OpenCode 的项目,Star 数已经 7 万多了。点进去一看,居然是个完全开源的 AI 编程助手,而且还是免费的。

说实话,一开始我是怀疑的。免费的 AI 编程工具?能好用吗?抱着试一试的心态,我花了一个下午玩了一下。结果...真香。

今天就把我这几天的使用体验整理出来,给想试试的朋友一个保姆级教程。

OpenCode 是什么,为什么这么火

简单说,OpenCode 就是一个能在终端里用的 AI 编程助手。它主要借助 TypeScript 语言,完全开源。你可以在 GitHub 上直接看到它的所有代码。

核心特点就几个:

  1. 完全免费 - 不用付费就能用,而且支持很多免费模型
  2. 开源 - 代码全公开,想怎么改都行
  3. 多场景支持 - 终端、桌面应用、IDE 插件都有
  4. 支持 75+ 种模型 - OpenAI、Anthropic、Google、智谱 AI、MiniMax 等等

最让我惊喜的是它的 OpenCode Zen 功能。这是官方推荐的精选模型列表,目前还在测试阶段,提供了一些免费模型可以用,比如 GLM-4.7、MiniMax M2.1。

也就是说,你不用花一分钱,就能用上不错的 AI 模型来写代码。

三步安装:从零到能跑

安装其实挺简单的,不过有个坑要先说清楚:OpenCode 原生不支持 Windows。如果你是 Windows 用户,有几种解决方案:

  • 用 WSL(Windows Subsystem for Linux)
  • 用虚拟机装个 Linux
  • 用 Docker

我用的是 WSL,体验还不错。

第一步:下载安装包

去 GitHub 的 Releases 页面下载对应系统的安装包。Linux 和 macOS 用户直接下载对应的二进制文件就行,链接如下。 https://opencode.ai/download

第二步:配置环境变量

下载后,把文件放到你的 PATH 路径下,或者直接创建一个软链接:

sudo ln -s /path/to/opencode /usr/local/bin/opencode 

第三步:连接模型

第一次运行 OpenCode,它会让你连接模型提供商。输入 /connect 命令,你会看到一长串支持的模型列表。

如果你想用免费的,就选 OpenCode Zen 里的模型。我试了 GLM-4.7,效果挺不错的。配置好了之后,就可以开始用了。

常用命令大全

OpenCode 的命令都是以 / 开头的,记住几个常用的就够了。

基础命令

  • /init - 初始化项目   这个命令很重要!它会在项目根目录创建一个 AGENTS.md 文件,里面会自动分析你的项目结构、读取关键配置和文档。OpenCode 会默认读取这个文件作为全局提示词。
  • /connect - 连接模型提供商   想换模型的时候用这个命令。
  • /model - 选择模型   快速切换当前使用的模型。
  • /session - 查看会话列表   可以看到之前所有的对话记录,选择继续或者删除。
  • /new - 创建新会话   开始一个新的对话。
  • /compact - 压缩会话   当对话内容太多,快超出模型上下文限制的时候,用这个命令压缩一下。

文件操作

  • /open - 搜索并打开文件   输入文件名(支持模糊搜索),就能快速打开文件预览。
  • /review - 审查代码   默认会审查未提交的代码变更,也可以指定文件。

功能开关

  • /mcp - 开启或关闭 MCP   MCP 是 Model Context Protocol,可以让 OpenCode 调用外部工具。
  • /agent - 选择 Agent   OpenCode 支持多种 Agent,用这个命令切换。

其他实用命令

  • /terminal - 显示或隐藏终端   可以在 OpenCode 里直接运行 shell 命令。
  • /undo - 撤销上一步操作

Plan/Build 双模式:安全又高效

OpenCode 有个很棒的设计,就是 Plan 和 Build 两种模式。

Plan 模式:只看不干

在这个模式下,AI 只能分析你的项目、规划任务,但不能修改任何文件。

这就像你在跟一个技术顾问聊天,让他帮你分析问题、制定方案,但他不会直接动手改代码。

什么时候用 Plan 模式?

  • 刚接触一个新项目,想让 AI 帮你理解代码结构
  • 需求比较复杂,想让 AI 帮你拆解任务
  • 不确定怎么实现,想让 AI 给几个方案

怎么切换?

按 Tab 键就能在 Plan 和 Build 模式之间切换。

Build 模式:说干就干

Build 模式下,AI 就有完整权限了,可以读写文件、运行命令、修改代码。

什么时候用 Build 模式?

  • Plan 模式下的方案已经确认了
  • 需要实际写代码、改代码
  • 运行测试、构建项目

我的工作流程一般是这样的:

  1. 在 Plan 模式下跟 AI 聊清楚需求
  2. 让 AI 给出详细的实现方案
  3. 反复确认,直到方案没问题
  4. 切换到 Build 模式,让 AI 开始干活
  5. 验证代码,有问题再回到 Plan 模式讨论

这样既安全又高效,不会出现 AI 一上来就乱改代码的情况。

实用技巧:让 OpenCode 更好用

用了一段时间,总结了一些小技巧,分享给大家。

1. 善用 AGENTS.md

/init 命令生成的 AGENTS.md 文件很重要。你可以手动编辑这个文件,把项目的关键信息都写进去。

比如项目的技术栈、编码规范、常见问题等等。这样 AI 就能更好地理解你的项目。

2. 用 @ 引用文件

在对话中,你可以用 @ 符号引用文件。比如:

帮我看看 @src/utils/helper.js 这个函数有没有问题 

这样 AI 就能直接读取这个文件的内容进行分析。

3. 上传图片

OpenCode 支持上传图片,比如 UI 设计稿、架构图什么的。你可以把设计稿传上去,让 AI 根据设计稿生成前端代码。这个功能真的很实用。

我常用到的设计稿是 Fimga 原型设计网站,搞设计的同学相信对这个平台很熟悉。

避坑指南

用 OpenCode 这几天,也踩了一些坑,总结一下。

1. Windows 用户注意

如果你是 Windows 用户,一定要用 WSL 或者虚拟机。直接在 Windows 上跑会有各种问题。

2. 模型选择很重要

不同的模型效果差异很大。建议先用 OpenCode Zen 推荐的模型试试,比如 GLM-4.7。

如果效果不好,再试试其他模型。

3. 不要指望 AI 能 100% 完美

OpenCode 很强大,但它不是万能的。

AI 写的代码可能还有 Bug,可能对需求理解有误。你还是要自己验证代码,发现问题及时修正。

4. 会话管理

长时间对话后,记得用 /compact 压缩会话,不然会占用太多上下文。

总结

总的来说,OpenCode 是一个很棒的开源 AI 编程工具。不仅开源免费,而且功能丰富,Plan/Build 模式很实用,支持多模型和多使用场景,但对于Windows 支持不太好,需要一定的技术背景。

如果你是全栈开发者、独立开发者,或者经常参与开源项目,OpenCode 绝对值得一试。特别是如果你不想花钱用 Copilot,又想要一个功能强大的 AI 编程助手,OpenCode 可能就是你的最佳选择。

虽然 OpenCode 很强大,但它只是个工具。真正写好代码,还是得靠你自己。AI 可以帮你提高效率,但不能替代你的思考和能力。如果你也在用 OpenCode,欢迎在评论区交流使用心得!

Read more

【GitHub项目推荐--CopilotKit:AI Copilot前端开发框架】

简介 CopilotKit是一个开源的前端AI助手开发框架,专门为构建AI Copilot、聊天机器人和应用内AI代理提供React UI组件和优雅的基础设施。该项目采用现代化的前端技术栈,旨在简化和加速AI功能的集成过程,让开发者能够快速在应用中添加智能交互能力。CopilotKit框架设计注重开发体验和性能优化,支持从简单聊天界面到复杂AI代理的各种应用场景。 核心价值: * 开发效率:分钟级集成AI功能,大幅缩短开发周期 * 框架无关:支持React、Next.js、AGUI等多种前端框架 * 生产就绪:提供企业级UI组件,内置安全防护机制 * 高度可定制:支持从底层API到UI组件的全方位定制 技术定位:CopilotKit填补了AI后端能力与前端用户体验之间的空白。通过提供标准化的组件和API,它让前端开发者能够轻松集成复杂的AI功能,而无需深入了解底层AI技术细节。其模块化架构平衡了开箱即用的便利性和深度定制的灵活性。 主要功能 1. 现代化React UI组件 提供完整的Copilot侧边栏组件,支持深度样式定制。可配置的聊天界面,适应不同应用场景

用 OpenAI Whisper + pyannote.audio 打造“谁在说什么”的全栈语音理解系统

用 OpenAI Whisper + pyannote.audio 打造“谁在说什么”的全栈语音理解系统

只做语音识别的系统,只能回答“说了什么”; 只有说话人分离的系统,只能回答“谁在什么时候说话”; 把两者拼在一起,你就有了一个真正能看懂对话的机器。 这篇文章,我们从工程落地的角度,聊一聊:如何把 OpenAI 的 Whisper 语音识别模型,和 pyannote.audio 的说话人分离管线拼成一个“谁在什么时候说了什么”的完整解决方案。 我们会回答这三个核心问题: 1. 技术思路:Whisper + pyannote.audio 的组合到底在解决什么问题? 2. 工程实现:从一段音频到“带说话人标签的转写结果”,需要哪些关键步骤? 3. 实战建议:在真实业务里,这种方案要怎么做取舍、怎么优化? 全文尽量站在“要上线一个能工作的系统”的视角,而不是“能跑就行的 demo”。 一、为什么一定要把 Whisper 和 pyannote.

PyCharm+GitHub Copilot零成本配置手册:学生认证/2FA/汉化疑难一次解决

PyCharm + GitHub Copilot 零成本配置手册:从学生认证到流畅编码的全链路实战 作为一名学生开发者,你是否曾羡慕那些能流畅使用AI编程助手的同行,却苦于复杂的认证流程、网络环境的掣肘,或是面对英文界面时的些许不适?将前沿的AI工具无缝融入日常开发工作流,本应是一个提升效率的愉悦过程,而非充满障碍的挑战。今天,我们就来彻底解决这些问题,打造一套专为学生群体设计、开箱即用的PyCharm与GitHub Copilot生产力解决方案。这套方案不仅会手把手带你完成从学生身份验证到IDE集成的每一步,更会聚焦于国内用户常见的“水土不服”问题,提供稳定的替代方案和优化技巧,让你真正零成本、零门槛地拥抱AI辅助编程。 1. 基石构建:GitHub学生认证与账户安全加固 在享受任何福利之前,一个经过验证且安全的GitHub账户是首要前提。学生认证是获取GitHub Copilot Pro免费使用权的钥匙,而双重身份验证(2FA)则是守护这把钥匙的保险箱。 1.1 高效通过GitHub学生认证 学生认证的核心在于向GitHub证明你当前的在读身份。整个过程需要细心,但绝非

AIGC-Fooocus部署实践:从本地手动配置到云端一键启用的深度剖析

AIGC-Fooocus部署实践:从本地手动配置到云端一键启用的深度剖析

摘要: 本文旨在为人工智能生成内容(AIGC)领域的爱好者和开发者提供一份详尽的Fooocus部署指南。Fooocus作为一款基于Gradio的开源图像生成软件,凭借其简化的操作和高质量的输出,受到了广泛关注。我们将通过两种截然不同的部署路径——传统的本地手动环境配置与现代化的云平台一键部署——来全面探索Fooocus的落地过程。本文将深入剖析手动部署中的每一个步骤、每一条命令及其背后的技术逻辑,详细记录可能遇到的环境冲突与解决方案,并将其与云端部署的流畅体验进行客观对比,为读者在不同场景下选择最合适的部署策略提供坚实的技术参考。 第一章:引言——Fooocus与AIGC部署的挑战 随着Stable Diffusion等底层模型的开源,AIGC技术,特别是文生图领域,迎来了爆发式的增长。各种应用和WebUI层出不穷,极大地降低了普通用户接触和使用前沿AI模型的门槛。在众多工具中,由lllyasviel(ControlNet的作者)开发的Fooocus,以其独特的哲学脱颖而出。Fooocus的设计理念是“化繁为简”,它在保留Stable Diffusion XL(SDXL)强大能力的