CoPaw 与 OpenFang 开源 AI 工具本地部署及内存配置指南
介绍 CoPaw 与 OpenFang 两款免费开源 AI 工具。软件本体免费,模型 API 可能收费。详细列出了不同参数量模型的本地内存需求,并提供了三种部署方案:本地 Ollama 集成、Windows 内网穿透及 Linux 云服务器部署(含 1Panel 面板)。重点指导了如何在本地运行大模型以节省成本。

介绍 CoPaw 与 OpenFang 两款免费开源 AI 工具。软件本体免费,模型 API 可能收费。详细列出了不同参数量模型的本地内存需求,并提供了三种部署方案:本地 Ollama 集成、Windows 内网穿透及 Linux 云服务器部署(含 1Panel 面板)。重点指导了如何在本地运行大模型以节省成本。

CoPaw 和 OpenFang,两者软件本体都免费开源,但模型 API 可能产生费用。
https://github.com/agentscope-ai/CoPaw
https://github.com/RightNow-AI/openfang
一句话总结:工具免费,模型可能花钱;本地跑模型则全程免费。
Ollama 本地运行的内存需求,核心看模型大小 + 量化等级,CoPaw 调用时和直接用 Ollama 一致。
num_ctx 越大越占内存,默认 2048 够用,开 8192 会多占 1–2GBollama pull qwen2.5:7b-q2_K)/set parameter num_ctx 2048CoPaw 原生支持 Ollama,配置非常简单。
pip install ollama
# 下载模型(示例:qwen2.5:3b、mistral:7b)
copaw models ollama-pull qwen2.5:3b
copaw models ollama-pull mistral:7b
# 查看已下载模型
copaw models ollama-list
# 进入配置向导,选择 Ollama
copaw models config
# 按提示:选择 Ollama → 从列表选模型 → 设为默认
# 快速切换 Ollama 模型
copaw models set-llm
# 启动 CoPaw 聊天,用本地 Ollama 模型
copaw chat
此时 CoPaw 会直接调用本地 Ollama,全程免费、无 API 费用。
ollama run llama3 确保服务正常ollama pull qwen2.5:3b 直接拉取官方流程(Windows 本地):安装(必须用 PowerShell)、初始化、启动 Web 界面。浏览器自动打开 http://127.0.0.1:8088,在聊天框发送指令如'帮我配置钉钉机器人',CoPaw 会引导到 Control → Channels 页面,填入 client_id、client_secret 并启用。
本地 Windows 运行 CoPaw,用内网穿透工具让外网能访问。适合个人使用、稳定长期跑。
工具(免费够用):
流程:
优点:
可放服务器、外网访问、长期运行。方案为 Linux 云服务器 + 1Panel 面板,专门用来 24 小时运行 CoPaw、钉钉机器人长期在线。
1Panel 是现代化开源的 Linux 服务器运维管理面板,主打容器化、轻量化、AI 友好,用 Web 界面就能一键管理服务器、部署应用、建站、配置 SSL、管理数据库与容器。

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
使用加密算法(如AES、TripleDES、Rabbit或RC4)加密和解密文本明文。 在线工具,加密/解密文本在线工具,online
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
解析常见 curl 参数并生成 fetch、axios、PHP curl 或 Python requests 示例代码。 在线工具,curl 转代码在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online