AI员工——OpenCode、OpenClaw+Ollama的安装与配置

AI员工——OpenCode、OpenClaw+Ollama的安装与配置

人工智能(AI)相关的知识内容解析https://coffeemilk.blog.ZEEKLOG.net/article/details/158647749?spm=1001.2014.3001.5502

一、OpenCode的介绍与安装配置

 1.1、OpenCode介绍

OpenCode的介绍
序号Opencode介绍说明
1opencode是什么OpenCode是一款开源AI编码代理工具,可在终端(TUI)、桌面应用和 IDE扩展中使用,支持多种大语言模型、上下文感知,主打隐私优先。
2opencode的定位

《1》不是IDE插件,而是独立智能体(Agent),可理解上下文,规划任务、执行代码修改并验证结果。

《2》不是大语言模型本身,而是模型调度层,支持75+的大语言模型提供商(如:Claude、GPT、Gemini、本地的Llama、Qwen等)。

《3》采用MIT协议开源,社区活跃。

3opencode的特点

《1》多模型兼容:可连接任意的大语言模型(LLM)提供商,也支持本地LLM模型,内置了opencode zen精选模型。

《2》多端接入:可在终端(TUI)、桌面与IDE扩展中使用opencode,使用方式灵活。

《3》上下文感知:可通过@引用文件,分析整个项目代码库,实现精准修改。

《4》隐私优先:不存储代码与上下文,适合隐私敏感环境。

《5》会话与协作:可多会话并行,执行多种操作;且可将会话链接进行分享出来可供参考或调试。

《6》LSP支持:可自动加载大语言模型,提供智能补全、诊断与跳转。

《7》交互式编码工作流:可通过自然语言描述需求或图片参考等方式,AI会给出实现方案、代码改动和测试建议。

4opencode的使用场景

《1》程序员:

        1、可将需求快速落地为代码实现;

        2、代码分析、重构建议与改动;

        3、生成测试用例、文档、注释等;

        4、学习新库、API、架构模式,提升开发效率。

《2》内容创作:

        1、可实现多种内容的创作(如:公众号内容、营销文案、翻译润色、小说创作等)。

《3》问题处理:

        1、可将其当做是一个经验丰富的助手,告诉他需要排查解决的故障或达成的目标,它就会自主分析解决。

《4》效率提升:

        1、文件整理:批量命名文件、按规则分类归档、检索文件内容、整理混乱内容。

        2、数据处理:可分析数据文件,提取关键数据进行统计,并生成报表。

        3、编程私教:可让AI解释代码原理、给出规划与建议、完成练习项目,建立编程学习的方法。

        4、自动化脚本:可识别自动化重复任务、将任务固化为可复用的“自定义命令”

可以使用【MobaXterm】通过SSH连接。

开源的编码智能体【Opencode】源码

 1.2、下载安装OpenCode_Linux、Mac

#1-Linux或Mac中下载安装OpenCode命令(结果显示Successfully则表示成功) curl -fsSL https://opencode.ai/install | bash #2-将OpenCode添加到全局 source /home/coffeemilk/.bashrc #3-启动opencode的终端界面命令 opencode #3.1-启动opencode的web端界面命令 opencode web --hostname 192.168.1.37 --port 5000

 1.3、下载安装OpenCode_Windows

PowerShell/PowerShell:适用于所有系统!

#1-Windows中下载安装OpenCode命令 scoop install opencode #2-注意:若直接安装opencode报错“scoop : 无法将“scoop”项识别为 cmdlet、函数、脚本文件或可运行程序的名称。请检查名称的拼写,如果包括路径,请确保路径正确,然后再试一次。”时则执行如下命令安装: #2.1-允许运行脚本 Set-ExecutionPolicy -ExecutionPolicy RemoteSigned -Scope CurrentUser #2.2-安装Scoop Invoke-RestMethod -Uri https://get.scoop.sh | Invoke-Expression #PowerShell是以管理员身份运行的(窗口标题带"管理员"字样)【安装Scoop】的命令会报错时。需要改用这个命令: iex "& {$(irm get.scoop.sh)} -RunAsAdmin" #2.3-安装 Git(Scoop 需要 Git 来添加 bucket) scoop install git #2.4-安装 OpenCode scoop install opencode #3-启动opencode的终端界面命令 opencode #3.1-启动opencode的web端界面命令 opencode web --hostname 127.0.0.1 --port 5000

 1.4、简单使用

        如:我使用Docker方式在安装OpenClaw后,这个OpenClaw容器一直在重启,导致无法使用,此时我就可以使用opencode的【plan(建议)】模式(按下tab键切换)【而Build是执行模式】咨询处理方法:如下图所示:

二、OpenClaw的介绍与安装配置

 2.0、主流Claw介绍

主流Claw的介绍
主流Claw定位优点缺点使用场景

OpenClaw

(生态标杆)

全功能、自托管AI执行中枢,Claw生态的标准与标杆,连接LLM、本地系统与多平台通讯。

开发语言:【TypeScript / Node.js】

《1》生态最成熟:(拥有50多个交互渠道【如telegram、钉钉、飞书】;5K多的技能模块;20多的大语言模型商)社区活跃,相关教程、插件、问题解决方案十分丰富。

《2》功能完整:可长期记忆、任务规划、工具调用、本地文件操作,MCP协议支持。

《3》本地优先、隐私可控:数据本地存储,AES-256加密。

《1》资源占用极高:代码量很大(约1百万行),内存占用很高(1GB+),启动缓慢,二进制大于150MB。

《2》安装部署较为复杂(需要Node.js、Docker、网关等配置)Node.js性能瓶颈明显。

《3》安全依赖版本与配置,默认的防护一般。

多平台集成、个人全场景 AI 助手、技术爱好者、需要全功能自动化、长期本地自托管、重度自定义、生产级复杂工作流。

ZeroClaw

(性能极致)

OpenClaw的Rust重写版本,主打极致性能、低资源、安全,面向边缘与资源敏感环境。

开发语言:【Rust】

《1》性能碾压:冷启动小于10毫秒,内存峰值小于5兆,单二进制没有依赖且4M左右;比OpenClaw快10-15倍,省75%的内存。

《2》零供应商锁定,可一键切换大语言模型。

《3》Rust原生安全:没有GC、内存安全、并发高效,适合高可靠场景。

《1》生态尚新,技能与插件远少于OpenClaw。

《2》二次开发需要Rust功底,门槛较高。

边缘计算、IoT 设备、嵌入式、低成本挂机、低功耗长期运行、资源受限硬件、旧设备改造;适合高安全、低功耗场景。

PicoClaw

(嵌入式极简)

Go编写的超轻量Claw,面向IOT、嵌入式与10美元级硬件。

开发语言【Go】

《1》超轻量:内存小于10MB,冷启动小于1秒,单二进制跨架构运行。

《2》硬件友好:可在树莓派、RISC-V开发板、旧安卓机稳定运行。

《3》配置极简:7个Markdown文件定义行为,无需修改核心代码。

《1》功能精简:无复杂记忆与工作流,仅支持基础技能。

《2》生态小,社区活跃低。

IoT 设备控制、边缘节点、旧设备 AI 化、便携硬件助手。

Nanobot

(研究极简)

港大出品,Python编写的极简可审计Claw,面向教学,研究与安全审计。

开发语言【Python】

《1》代码极简:仅4000行Python,单目录、单配置,易读易审计。

《2》上手快:Python生态友好,适合学习与原型验证。

《3》研究友好:MCP优先,适合教学与安全场景。

《1》性能一般:内存大于100MB,启用大于1秒,不适合高并发。

《2》功能有限,无复杂工作流与记忆系统。

AI Agent 教学、安全审计、快速原型、个人轻量助手。

IronClaw

(安全强化)

Rust编写的安全级Claw,主打沙箱隔离、数据安全,面向金融、政企等敏感场景。

开发语言【Rust】

《1》五层安全纵深:WASM沙箱+Docker隔离,权限最小化。

《2》Rust安全+内存可控,防注入与越权。

《3》性能接近ZeroClaw,兼顾安全与效率。

《1》配置复杂,部署成本高。

《2》生态小,技能少。

金融交易、政企敏感数据处理、高安全自动化。

MaxClaw

(云托管)

基于OpenClaw的云托管服务MiniMax(MaxClaw)开箱即用;是月之暗面(KimiClaw)出品。

开发语言【基于OpenClaw的TypeScript,云端封装】。

《1》零部署:云端托管,直接接入通讯平台。

《2》国内友好:适配钉钉、飞书、企业微信,模型本地优化。

《3》运维省心:自动更新、负载均衡。

《1》数据上传云端,隐私不如自托管。

《2》付费使用,成本随用量上升。

中小企业快速落地、团队协作、国内办公场景。

选型建议:
《1》追求全功能、生态:选【OpenClaw】。
《2》追求极致性能 / 低资源:选 【ZeroClaw】
《3》面向嵌入式 / IoT / 旧设备:选 【PicoClaw】。
《4》用于教学 / 研究 / 安全审计:选 【Nanobot】。
《5》处理敏感数据 / 高安全:选 【IronClaw】。
《6》国内企业快速落地、零部署:选 【MaxClaw / KimiClaw】。

 2.1、使用Docker安装OpenClaw

银河麒麟高级服务器中Docker容器的安装部署与管理实操保姆级教程与【镜像加速】https://blog.ZEEKLOG.net/xiaochenXIHUA/article/details/155027993Docker的介绍、保姆级安装和使用https://blog.ZEEKLOG.net/xiaochenXIHUA/article/details/141286596

#使用Docker安装OpenClaw【以AlmaLinux9.3为例】 #1-先安装Docker yum install -y yum-utils device-mapper-persistent-data lvm2 yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo yum makecache fast yum install -y docker-ce docker-ce-cli containerd.io #启动docker systemctl start docker systemctl status docker systemctl enable docker #2-在docker中安装OpenClaw(若是使用本地安装的ollama大语言模型则选择vLLM配置即可) git clone https://github.com/openclaw/openclaw.git cd openclaw ./docker-setup.sh docker-compose up -d 注意:此时的openclaw容器是会一直重启,无法正常使用,是由于“OpenClaw Gateway 在 Docker 容器中运行时,即使配置了 bind: "loopback",Docker 网络也会使其被识别为非本地环回访问。Control UI 是一个安全特性,要求在非环回模式下明确配置允许的来源(origins)。”因此需要设置明确的 allowedOrigins(推荐)即:在 ~/.openclaw/openclaw.json 的 gateway 部分添加 controlUi 配置: vi ~/.openclaw/openclaw.json "gateway": { "controlUi": { "allowedOrigins": [ "http://127.0.0.1:18789", "http://localhost:18789" ] } } 如果你从其他机器访问,需要把你的服务器 IP 也加进去: "allowedOrigins": [ "http://127.0.0.1:18789", "http://localhost:18789", "http://你的服务器IP:18789" ] 最后执行: docker-compose down docker-compose up -d

 2.2、Linux直接安装openClaw

#1-安装nodejs-24 #1.1-在线安装 curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.40.3/install.sh | bash \. "$HOME/.nvm/nvm.sh" nvm install 24 node -v npm -v #1.1-【也可手动安装nodejs】 cd /usr/local wget https://nodejs.org/dist/v24.14.0/node-v24.14.0-linux-x64.tar.xz tar -xJf node-v24.14.0-linux-x64.tar.xz #注意:若不想用软链接,也可以直接加当前解压的nodejs路径到系统路径(PATH)中:export PATH=/usr/local/node-v24.0.0-linux-x64/bin:$PATH ln -s /usr/local/node-v24.14.0-linux-x64/bin/node /usr/local/bin/node ln -s /usr/local/node-v24.14.0-linux-x64/bin/npm /usr/local/bin/npm ln -s /usr/local/node-v24.14.0-linux-x64/bin/npx /usr/local/bin/npx node --version npm --version #2-安装openclaw dnf update -y dnf groupinstall -y "Development Tools" dnf install -y git curl wget npm config set registry https://registry.npmmirror.com curl -fsSL https://openclaw.ai/install.sh | bash openclaw onboard --install-daemon openclaw gateway status openclaw dashboard #3-最后在该服务器的浏览器中输入【IP:18789】即可打开OpenClaw的Web界面 

三、TuriX-CUA的介绍

TuriX-CUA是一款开源、免费的 AI 桌面操作智能体,让大模型像人一样看屏幕、控鼠标键盘,跨应用完成自动化任务,无需 API、无需编程。
序号TuriX-CUA说明
1核心定位与原理

《1》定位:Computer-Use Agent(电脑使用智能体),替代传统 RPA 与 API 集成,实现 “自然语言→AI 规划→桌面操作→结果交付”。

《2》工作流(看-->想-->动):

        1、看:定时截屏,获取桌面 / 应用界面视觉信息。

        2、想:多模态 VLM(如 Qwen3-VL、GPT-4V、Gemini)分析界面、拆解任务、生成操作指令。

        3、动:模拟鼠标点击、键盘输入、滚动等,完成跨软件操作。

《3》优势:不依赖应用 API、零代码 / 低门槛、自适应 UI 变化、可绕过验证码

2核心能力《1》跨应用自动化:浏览器、Office、聊天 / 办公软件、系统设置等,完成订票、做 PPT、数据整理、消息收发等。
《2》数据抓取:可从网页 / APP 精准提取数据,适配动态页面与验证码。
《3》自然语言驱动:可用中文 / 英文描述任务,AI 自动生成并执行流程。
《4》模型可替换:可通过配置文件切换底层 VLM,支持热插拔。
《5》协议兼容:支持 MCP(Model Context Protocol),可对接 Claude 等第三方智能体。
3系统支持《1》macOS:15.6+,仅 Apple Silicon(不支持 Intel)。
《2》Windows:10+,支持 GUI 自动化与浏览器操作。
4开源与使用《1》开源免费:代码托管于 GitHub,个人 / 科研用途完全免费。
《2》上手门槛:零基础可用,无需标记 UI、无需设计流程。
《3》局限:存在操作延迟、复杂对话 / 多轮任务易出错、实时性不足、隐私安全需谨慎。

Read more

Java调用YOLOv26全解析:从ONNX模型部署到工业质检实战

Java调用YOLOv26全解析:从ONNX模型部署到工业质检实战

我做工业自动化领域的上位机开发快5年了,前两年用OpenCV+传统算法做零件缺陷检测,误检率、漏检率一直卡着瓶颈——去年底换了YOLOv26,配合Java的ONNX Runtime部署,误检率从12%降到了2.1%,漏检率从8%降到了0.8%,完全满足客户的工业级要求。 今天就把这套完整的Java调用YOLOv26的方案分享出来,从ONNX模型的导出、预处理、推理、后处理,到工业质检场景的落地优化,全程都是我踩过坑、验证过的成熟方案,新手跟着步骤操作就能跑通,资深开发者也可以直接复用其中的性能优化、多线程推理、缺陷分类逻辑。 先说明:本文以YOLOv26s(小模型,工业场景部署首选) 为核心,推理引擎用ONNX Runtime Java 1.18.0(跨平台、性能好、官方支持完善),工业质检场景以汽车零件表面划痕、毛刺、缺角检测为例,所有代码都是基于真实项目简化的,没有冗余设计。 一、先搞懂:为什么选YOLOv26+ONNX

By Ne0inhk
【Java 开发日记】我们来说一下无锁队列 Disruptor 的原理

【Java 开发日记】我们来说一下无锁队列 Disruptor 的原理

目录 一、为什么需要 Disruptor?—— 背景与问题 二、核心设计思想 三、核心组件与原理 1. 环形缓冲区(Ring Buffer) 2. 序列(Sequence) 3. 序列屏障(Sequence Barrier) 4. 等待策略(Wait Strategy) 5. 事件处理器(EventProcessor) 6. 生产者(Producer) 四、工作流程示例(单生产者 -> 单消费者) 五、多消费者与依赖关系 六、总结:Disruptor 高性能的秘诀 一、为什么需要 Disruptor?—— 背景与问题 在高并发编程中,传统的队列(如 java.

By Ne0inhk

骑士一百天下载安装 MC JAVA

一、先搞清楚:到底下的是啥? 名称说明骑士一百天B 站 UP 主“M 仔”等发布的剧情向生存整合包(含任务书、假面骑士系模组、100 天倒计时)。核心 Mod假面骑士(KamenRider)、CraftTweaker、GameStage、CustomNPC、倒计时插件等。运行环境Java 版 1.16.5( Forge 36.2+ 实测可启动)。 二、获取地址(官方源) 直达链接:【整合包】MC假面骑士100天整合包(完结) 三、两种安装姿势:懒人一键包 vs 手动拼装 ✅ 推荐:一键整合(小白专用) 1. 下整合包 得到 骑士一百天v0.95.

By Ne0inhk
【JAVA探索之路】简单聊聊Kafka

【JAVA探索之路】简单聊聊Kafka

目录 一、Kafka核心概念与架构 核心概念解析 集群架构一览 二、Kafka核心特性与工作原理 顺序I/O与零拷贝 生产者可靠性保证 精确一次语义 三、Kafka关键API与生态系统 四、Kafka运维管理 五、Kafka典型应用场景 一、Kafka核心概念与架构 要掌握 Kafka,必须从理解其精心设计的基本模型开始。 核心概念解析 * 消息与批次:Kafka 的基本数据单元称为“记录”,包含键、值和时间戳。为提高效率,多条记录会组合成“批次”进行传输。 * 主题与分区:消息按“主题”进行分类,类似于数据库的表。每个主题可被分割为多个“分区”,这是 Kafka 实现并行处理和横向扩展的基石。消息在分区内按追加顺序存储,并分配一个单调递增的偏移量,从而保证了消息的顺序性。 * 生产与消费:生产者将消息发布到指定主题的特定分区;消费者则以“拉”

By Ne0inhk