OpenCode 安装 oh-my-opencode 插件教程(AI 一键辅助安装版)

OpenCode 安装 oh-my-opencode 插件教程(AI 一键辅助安装版)

最近发现一个很有意思的 OpenCode 插件仓库:oh-my-opencode
项目地址:code-yeongyu/oh-my-opencode: The Best Agent Harness. Meet Sisyphus: The Batteries-Included Agent that codes like you.

它的目标是让 OpenCode 具备更“开箱即用”的体验:通过安装插件增强能力,比如更顺手的指令、工作流、提示词封装等。

这篇文章会用仓库作者推荐的方式来安装:把提示词交给 AI,让 AI 自动完成安装。同时我也会补充关键步骤,避免“只会复制粘贴但不知道发生了什么”。


1. 前置条件

开始前确认你已经具备:

建议你先跑一下:

git --version

能输出版本号说明 Git OK。


2. oh-my-opencode 是什么?

oh-my-opencode 本质上是一个 OpenCode 插件集合/增强方案
你可以理解成“给 OpenCode 加装一套更好用的扩展配置”。

它的安装方式比较有趣:仓库提供了一段“给 AI 的提示词”,让 AI 帮你完成:

  • 克隆仓库
  • 放到 OpenCode 的插件目录
  • 修改配置文件(如需要)
  • 验证是否生效

优点是:对新手更友好
缺点是:环境不同可能导致 AI 执行失败,需要你知道怎么排查


3. 推荐安装方式:用 AI 按提示词自动安装

打开你的opencode,切换为build模式(推荐使用MiniMax模型,GLM可能使用人数太多,会卡)


 把“安装提示词”交给 AI

按照以下说明安装和配置 oh-my-opencode: https://raw.githubusercontent.com/code-yeongyu/oh-my-opencode/refs/heads/master/docs/guide/installation.md

输入之后,AI会根据官方的要求进行安装,之后会提示用户订阅情况,根据自己的情况选择即可

输入好了之后等待安装即可


4. 安装完成后怎么验证?

4.1 重新打开一个新的终端,启动opencode

当出现这个页面(里面有Sisyphus)即安装成功

4.3 测试一下功能

他会给我们很多选项,先提前确认好需求

最后提交需求之后,opencode就继续工作了

结果展示:


5. 常见翻车点与解决办法

5.1 找不到 OpenCode 插件目录

这是最常见的。

解决思路:

  • 让 AI 去查 OpenCode 的默认配置路径
  • 或者你自己在本地搜索关键词,比如 pluginsopencodeconfig

5.2 GitHub 克隆失败

常见原因:

  • 网络问题
  • 代理未配置
  • 公司网络限制

解决方法:

  • 换网络 / 开代理
  • 先在浏览器下载 zip 再解压安装

5.3 权限不足(Permission denied)

解决方法:

  • Windows:用管理员 PowerShell
  • macOS/Linux:必要时用 sudo(但尽量别滥用)
  • 或者安装到用户目录下的插件路径

Read more

华为云Flexus+DeepSeek征文|打造一款智能问数 AI Agent 的完整实践指南

华为云Flexus+DeepSeek征文|打造一款智能问数 AI Agent 的完整实践指南

目录 * 一、项目背景与目标 * 二、开通 DeepSeek-V3/R1 商用服务流程 * 1. 访问服务入口 * 2. 注册与登录账号 * 3. 进入在线推理模块 * 4. 开通商用服务 * 三、一键部署 Dify LLM 应用开发平台 * 1. 访问部署入口 * 2. 使用“一键部署”功能 * 3. Flexus X 实例亮点介绍 * 四、一键部署Dify-LLM应用开发平台 * 五、开发智能问数 AI Agent 实践 * 1.与MaaS服务对接 * 2.完整模型供应商设置 * 3. Agent 创建流程 * 总结与展望 在大模型加速普及的今天,如何低门槛地搭建自己的 AI Agent

By Ne0inhk
Obsidian接入AI完整配置指南

Obsidian接入AI完整配置指南

🚀 Obsidian接入AI完整配置指南 📋 目录导航 * 核心工具介绍 * 免费接入方案 * 详细配置步骤 * 模型选择建议 * 实用功能配置 * 使用场景示例 * 常见问题解决 * 高级技巧 🎯 核心工具:Copilot插件 Copilot是Obsidian中最强大的AI助手插件,让你的笔记体验智能化升级! 安装步骤(3步搞定) 1. 打开设置:Obsidian → 设置 → 社区插件 2. 搜索安装:搜索"Copilot"并点击安装 3. 启用重启:启用插件并重启Obsidian 💰 免费AI接入方案:OpenRouter OpenRouter提供多个免费AI模型,是性价比最高的选择! 第一步:注册账号 * 🌐 访问:https://openrouter.ai/ * 🔗 使用GitHub或Google快速注册 * 🔑 在Keys页面生成API密钥 第二步:添加模型配置 模型添加方法: 1. ✅ 模型名称必须正确 2. 🌐 URL同图片地址

By Ne0inhk
人工智能多模态模型开发与应用:跨越文本、图像与语音的融合实践

人工智能多模态模型开发与应用:跨越文本、图像与语音的融合实践

一、人工智能多模态模型开发与应用:跨越文本、图像与语音的融合实践 1.1 本章学习目标与重点 💡 掌握多模态模型的核心概念与技术原理,理解文本、图像、语音等不同模态数据的融合逻辑; 💡 熟练运用主流多模态框架(Hugging Face Transformers、MMEngine、LangChain Multimodal),实现跨模态理解与生成任务; 💡 精通多模态模型的开发流程,包括数据预处理、模型选型、训练微调、部署落地等关键环节; 💡 通过真实场景案例(图文生成、跨模态问答、语音助手),掌握多模态技术从原型到产品的端到端落地能力。 ⚠️ 重点关注:多模态数据的对齐与预处理、模型训练的显存优化、生成内容的一致性与准确性、以及不同部署场景下的性能适配。 1.2 多模态模型基础:概念、技术与生态 随着人工智能技术的发展,单一模态(如纯文本、纯图像)模型已难以满足复杂场景需求。多模态模型通过融合文本、图像、语音、视频等多种模态数据,实现更全面的理解与更灵活的生成,成为当前

By Ne0inhk

使用 exo 技术构建 Mac mini AI 推理集群:从架构到实战

使用 exo 技术构建 Mac mini AI 推理集群:从架构到实战 摘要 随着大语言模型(LLM)规模的不断增长,单机推理已无法满足高性能需求。本文介绍如何使用 exo 分布式推理框架在 Mac mini 集群上部署 AI 推理服务。exo 利用 MLX 作为推理后端,通过 Thunderbolt 5 RDMA 实现超低延迟的设备间通信,支持张量并行(Tensor Parallelism)和流水线并行(Pipeline Parallelism),可在多台 Mac 设备上无缝运行超大规模模型。 关键词: 分布式推理、Mac mini M4、exo、RDMA、Thunderbolt 5、MLX、张量并行

By Ne0inhk