OpenCode 安装 oh-my-opencode 插件教程(AI 一键辅助安装版)

OpenCode 安装 oh-my-opencode 插件教程(AI 一键辅助安装版)

最近发现一个很有意思的 OpenCode 插件仓库:oh-my-opencode
项目地址:code-yeongyu/oh-my-opencode: The Best Agent Harness. Meet Sisyphus: The Batteries-Included Agent that codes like you.

它的目标是让 OpenCode 具备更“开箱即用”的体验:通过安装插件增强能力,比如更顺手的指令、工作流、提示词封装等。

这篇文章会用仓库作者推荐的方式来安装:把提示词交给 AI,让 AI 自动完成安装。同时我也会补充关键步骤,避免“只会复制粘贴但不知道发生了什么”。


1. 前置条件

开始前确认你已经具备:

建议你先跑一下:

git --version

能输出版本号说明 Git OK。


2. oh-my-opencode 是什么?

oh-my-opencode 本质上是一个 OpenCode 插件集合/增强方案
你可以理解成“给 OpenCode 加装一套更好用的扩展配置”。

它的安装方式比较有趣:仓库提供了一段“给 AI 的提示词”,让 AI 帮你完成:

  • 克隆仓库
  • 放到 OpenCode 的插件目录
  • 修改配置文件(如需要)
  • 验证是否生效

优点是:对新手更友好
缺点是:环境不同可能导致 AI 执行失败,需要你知道怎么排查


3. 推荐安装方式:用 AI 按提示词自动安装

打开你的opencode,切换为build模式(推荐使用MiniMax模型,GLM可能使用人数太多,会卡)


 把“安装提示词”交给 AI

按照以下说明安装和配置 oh-my-opencode: https://raw.githubusercontent.com/code-yeongyu/oh-my-opencode/refs/heads/master/docs/guide/installation.md

输入之后,AI会根据官方的要求进行安装,之后会提示用户订阅情况,根据自己的情况选择即可

输入好了之后等待安装即可


4. 安装完成后怎么验证?

4.1 重新打开一个新的终端,启动opencode

当出现这个页面(里面有Sisyphus)即安装成功

4.3 测试一下功能

他会给我们很多选项,先提前确认好需求

最后提交需求之后,opencode就继续工作了

结果展示:


5. 常见翻车点与解决办法

5.1 找不到 OpenCode 插件目录

这是最常见的。

解决思路:

  • 让 AI 去查 OpenCode 的默认配置路径
  • 或者你自己在本地搜索关键词,比如 pluginsopencodeconfig

5.2 GitHub 克隆失败

常见原因:

  • 网络问题
  • 代理未配置
  • 公司网络限制

解决方法:

  • 换网络 / 开代理
  • 先在浏览器下载 zip 再解压安装

5.3 权限不足(Permission denied)

解决方法:

  • Windows:用管理员 PowerShell
  • macOS/Linux:必要时用 sudo(但尽量别滥用)
  • 或者安装到用户目录下的插件路径

Read more

2026实测|DeepSeek-R1-Distill-Qwen-1.5B部署全攻略(vLLM+Open WebUI,0.8GB显存就能跑,告别服务器瓶颈)

2026实测|DeepSeek-R1-Distill-Qwen-1.5B部署全攻略(vLLM+Open WebUI,0.8GB显存就能跑,告别服务器瓶颈)

前言:2026年,轻量级大模型部署已成为开发者核心需求——专业GPU服务器成本高昂、边缘设备算力有限,多数1.5B级模型仍需3GB以上显存,让个人开发者与中小企业望而却步。而DeepSeek-R1-Distill-Qwen-1.5B(下称“DQ-1.5B”)的出现打破僵局,通过知识蒸馏技术在1.5B参数体量下实现接近7B级模型的推理能力,配合vLLM推理加速与Open WebUI可视化交互,实测0.8GB显存即可稳定运行,无需高端服务器,个人PC、边缘设备均可轻松落地。本文结合2026年最新实测数据,从核心原理、分步实操、实测验证、应用场景、落地案例到问题排查,打造零冗余、高可用的部署全攻略,兼顾专业性与实用性,助力开发者快速上手,轻松实现轻量级大模型本地化部署。 一、核心技术解析 部署前先理清三大核心组件的核心逻辑,无需深入底层源码,聚焦“为什么能用、为什么高效”,贴合开发者落地需求。 1.1 模型核心:DeepSeek-R1-Distill-Qwen-1.5B 优势解析 DQ-1.5B是DeepSeek团队基于Qwen-1.

【LLM】Ollama:本地大模型 WebAPI 调用实战指南

1. 为什么选择Ollama部署本地大模型 最近两年大模型技术发展迅猛,但很多开发者面临一个现实问题:公有云API调用不仅费用高昂,还存在数据隐私风险。Ollama的出现完美解决了这个痛点,它就像是你本地的模型管家,可以一键部署各种开源大模型。我去年在开发智能客服系统时就深受其益,既避免了敏感客户数据外泄,又省下了大笔API调用费用。 与传统方案相比,Ollama有三大优势:首先是安装简单,用Docker一条命令就能跑起来;其次是模型丰富,支持Llama、Mistral等主流开源模型;最重要的是API标准化,完全兼容OpenAI的接口规范。实测在16GB内存的MacBook Pro上运行7B参数的模型,响应速度可以控制在2秒以内,完全能满足大多数应用场景。 2. 五分钟快速搭建Ollama环境 2.1 准备工作就像搭积木 在开始之前,我们需要准备两个基础组件:Docker和Python环境。这里有个小技巧分享——建议使用Docker Desktop的WSL2后端(Windows用户),性能比传统虚拟机模式提升30%以上。安装完成后,记得执行以下命令验证版本: docker

【前端开发】HTML+CSS+JavaScript前端三剑客的基础知识体系了解

【前端开发】HTML+CSS+JavaScript前端三剑客的基础知识体系了解

前言 🌟🌟本期讲解关于HTML+CSS+JavaScript的基础知识,小编带领大家简单过一遍~~~ 🌈感兴趣的小伙伴看一看小编主页:GGBondlctrl-ZEEKLOG博客 🔥 你的点赞就是小编不断更新的最大动力                                        🎆那么废话不多说直接开整吧~~   目录 1.HTML  1.1什么是HTML 1.2HTML的基本结构 1.3HTML的快速入门 1.4HTML常见的标签 1.段落标签 2.图片标签 3.超链接标签 4.input标签 5.⽆语义标签: div&span  2.CSS  2.1什么是CSS 2.2CSS基础结构 2.3CSS选择器 1.标签选择器 2.class选择器 3.id选择器 4.通配符选择器  5.

HarmonyOS ArkWeb 开发完整指南(上篇):Hybrid 应用鸿蒙化与 JSBridge

背景 Hybrid 应用开发是介于 Web 应用和系统应用两者之间的应用开发技术,兼具"系统应用良好交互体验"的优势和"Web 应用跨平台开发"的优势。 其主要原理是由 Native 通过 JSBridge 通道提供统一的 API,然后用 Html/CSS 实现界面,JS 来写业务逻辑,能够调用系统 API,最终的页面在 WebView 中显示。 这篇文章聊聊 ArkWeb 开发的几个核心话题: 1. Hybrid 应用鸿蒙化方案(架构设计、JSBridge、API 鸿蒙化、组件鸿蒙化) 2. 同层渲染 Web(原理、实现、生命周期) 3.