OpenCode 安装 oh-my-opencode 插件教程(AI 一键辅助安装版)

OpenCode 安装 oh-my-opencode 插件教程(AI 一键辅助安装版)

最近发现一个很有意思的 OpenCode 插件仓库:oh-my-opencode
项目地址:code-yeongyu/oh-my-opencode: The Best Agent Harness. Meet Sisyphus: The Batteries-Included Agent that codes like you.

它的目标是让 OpenCode 具备更“开箱即用”的体验:通过安装插件增强能力,比如更顺手的指令、工作流、提示词封装等。

这篇文章会用仓库作者推荐的方式来安装:把提示词交给 AI,让 AI 自动完成安装。同时我也会补充关键步骤,避免“只会复制粘贴但不知道发生了什么”。


1. 前置条件

开始前确认你已经具备:

建议你先跑一下:

git --version

能输出版本号说明 Git OK。


2. oh-my-opencode 是什么?

oh-my-opencode 本质上是一个 OpenCode 插件集合/增强方案
你可以理解成“给 OpenCode 加装一套更好用的扩展配置”。

它的安装方式比较有趣:仓库提供了一段“给 AI 的提示词”,让 AI 帮你完成:

  • 克隆仓库
  • 放到 OpenCode 的插件目录
  • 修改配置文件(如需要)
  • 验证是否生效

优点是:对新手更友好
缺点是:环境不同可能导致 AI 执行失败,需要你知道怎么排查


3. 推荐安装方式:用 AI 按提示词自动安装

打开你的opencode,切换为build模式(推荐使用MiniMax模型,GLM可能使用人数太多,会卡)


 把“安装提示词”交给 AI

按照以下说明安装和配置 oh-my-opencode: https://raw.githubusercontent.com/code-yeongyu/oh-my-opencode/refs/heads/master/docs/guide/installation.md

输入之后,AI会根据官方的要求进行安装,之后会提示用户订阅情况,根据自己的情况选择即可

输入好了之后等待安装即可


4. 安装完成后怎么验证?

4.1 重新打开一个新的终端,启动opencode

当出现这个页面(里面有Sisyphus)即安装成功

4.3 测试一下功能

他会给我们很多选项,先提前确认好需求

最后提交需求之后,opencode就继续工作了

结果展示:


5. 常见翻车点与解决办法

5.1 找不到 OpenCode 插件目录

这是最常见的。

解决思路:

  • 让 AI 去查 OpenCode 的默认配置路径
  • 或者你自己在本地搜索关键词,比如 pluginsopencodeconfig

5.2 GitHub 克隆失败

常见原因:

  • 网络问题
  • 代理未配置
  • 公司网络限制

解决方法:

  • 换网络 / 开代理
  • 先在浏览器下载 zip 再解压安装

5.3 权限不足(Permission denied)

解决方法:

  • Windows:用管理员 PowerShell
  • macOS/Linux:必要时用 sudo(但尽量别滥用)
  • 或者安装到用户目录下的插件路径

Read more

开源视觉大模型GLM-4.6V-Flash-WEB在内容审核中的应用探索

开源视觉大模型GLM-4.6V-Flash-WEB在内容审核中的应用探索 如今,社交媒体、电商平台和短视频平台每天产生数以亿计的图文内容。一张看似普通的图片配上特定文字,可能暗藏诱导、欺诈甚至违法信息;而合成图像、深度伪造技术的普及,更让传统审核手段频频失守。仅靠关键词过滤或独立的图像识别系统,早已无法应对这些“图文协同作案”的新型风险。 正是在这种背景下,多模态大模型开始成为内容安全防线的核心力量。它们不仅能“看图识物”,还能理解图像与文本之间的语义关联,判断是否存在误导、隐喻或违规意图。智谱AI推出的 GLM-4.6V-Flash-WEB 正是这一趋势下的代表性开源成果——它不是追求参数规模的“巨无霸”,而是专注于高并发、低延迟、可私有化部署的轻量级视觉语言模型,特别适合真正要落地的内容审核场景。 从“看得见”到“读得懂”:GLM-4.6V-Flash-WEB 的能力跃迁 过去的内容审核系统大多采用“CV + NLP”分治架构:先用OCR提取图片中的文字,再用NLP模型分析语义;图像部分则依赖目标检测模型(如YOLO)识别敏感物体。这种流程看似完整,实则存在致命短板—

AI不是前端/UI的“终结者”,而是提升的“加速器”

AI不是前端/UI的“终结者”,而是提升的“加速器”

最近团队里的讨论越来越频繁:“XX用AI生成可视化大屏原型,半天就交了初稿”“Figma的AI插件直接把线框图转成高保真,切图都省了”“领导说以后简单的管理系统界面,让AI先出一版再改”。随之而来的是藏不住的焦虑:连最吃经验的视觉排版、组件适配都能被AI搞定,我们这些前端/UI从业者是不是迟早要被替代? 这种焦虑并非空穴来风,但恰恰走进了一个认知误区——把AI当成了抢饭碗的“终结者”,却忽略了它作为效率工具的核心价值。对于我们做网站建设、数字孪生、工控界面这些业务的前端/UI人来说,AI从来不是要取代我们,而是帮我们跳出重复劳动、承接更多项目、拿到更高提成的“推进器”。搞懂这一点,才能在技术迭代中站稳脚跟,而不是被焦虑牵着走。 一、先厘清:前端/UI领域的AI,到底是什么? 先别忙着恐慌,我们先给行业里的AI工具定个性——它不是能独立完成项目的“超级程序员”,而是精准匹配前端/UI工作场景的“高级辅助工匠”。具体来说,就是基于大量行业数据训练,能快速完成重复性、模板化工作的工具集合,核心作用是“减少基础工作量”,而非“替代核心决策”。 我们可以按工作场景把这些AI工具分

Jupyter+Web双环境!GLM-4.6V-Flash-WEB太贴心

Jupyter+Web双环境!GLM-4.6V-Flash-WEB太贴心 你有没有过这样的经历:花一整天配环境,结果卡在torch.compile()不兼容CUDA版本;好不容易跑通模型,发现显存爆了,又得回退到更老的PyTorch;想试试多图理解能力,却连个上传界面都没有,只能硬着头皮写API调用脚本…… 直到你点开GLM-4.6V-Flash-WEB的镜像页面,看到那行小字:“单卡RTX 3090即可运行,Jupyter与网页双入口,开箱即用”——那一刻,你心里冒出的第一个念头不是技术细节,而是:“这次,真能直接用。” 这不是营销话术。这是智谱AI最新开源的视觉语言模型(VLM)交付方式的一次彻底重构:它把“部署”这件事,从一道工程考题,变成了一次点击、一次输入、一次等待加载完成的轻量交互。 而最打动人的,是它真的懂开发者要什么——不是参数量有多吓人,而是你打开浏览器三分钟内能不能问出第一个问题;不是推理速度多快,而是你改完一行提示词后,能不能立刻看到效果变化;不是架构多前沿,而是当你想加个OCR模块或对接内部系统时,代码路径是否清晰、修改成本是否可控。 下面我们就从真实使

受够了网络反爬?这套 WebTop 方案,让云端 OpenClaw 像真人一样上网

受够了网络反爬?这套 WebTop 方案,让云端 OpenClaw 像真人一样上网

浏览器是网络世界的入口 对于云端部署的 OpenClaw,有一个最大的痛点,就是浏览器没有显示界面,这会对 OpenClaw 的浏览器自动化操作产生很大的影响。 刷知乎、小红书、推特,或者看 Reddit 时,传统的 Headless(无头)浏览器几乎过不了人机验证,也很容易卡在扫码登录界面。 云服务器没有显示器,你连验证码长什么样都看不到,更别提接管操作了。 那么,有没有一种优雅的姿势,让云端的 OpenClaw 拥有一个“有血有肉”的真实桌面浏览器? 就像我们在本地自己电脑上浏览网页一样自由? 既能保留 Cookie 环境,又能在遇到验证码时,让你通过浏览器随时“远程附体”进行人工接管? 我花了几天时间,反复追问 Claude、GPT、Grok、Gemini、Kimi,在我的云服务器上跑通了他们一致推荐的方案:WebTop + Tailscale,并且成功登录谷歌、知乎、小红书等平台。