免费开源AI工具:CoPaw与OpenFang整理
CoPaw 和 OpenFang,两者软件本体都免费开源,但模型 API 可能产生费用。
CoPaw(阿里云)
- 软件本身:完全免费开源(Apache 2.0),无会员、无广告、无功能限制
- 本地部署:免费,仅需 Python 环境,可跑本地模型(Ollama 等),零 API 费用
- 云端部署:魔搭创空间有免费测试额度;长期使用按云资源(CPU/GPU/ 存储)计费
- 模型 API:调用通义千问、OpenAI、DeepSeek 等按官方标准按量付费
CoPaw GitHub 地址
https://github.com/agentscope-ai/CoPaw
OpenFang(AI Agent 操作系统)
- 软件本身:完全免费开源(Apache-2.0 + MIT),可商用、可二次开发
- 本地部署:免费,支持 Ollama、LM Studio 等本地模型,零 API 费用
- 云端部署:免费,仅承担云服务器 / 算力成本
- 模型 API:调用云端大模型按各厂商标准付费
OpenFang GitHub 地址
https://github.com/RightNow-AI/openfangGitHub
一句话总结:工具免费,模型可能花钱;本地跑模型则全程免费。
Ollama 本地运行的内存需求,核心看模型大小 + 量化等级,CoPaw 调用时和直接用 Ollama 一致。
📌 主流模型内存参考(纯 CPU,Q4 量化)
- 0.5B / 1B:≥4GB 内存即可跑(入门聊天 / 简单任务)
- 3B:≥6GB 内存(日常对话、写文案)
- 7B:≥8GB 内存(流畅对话、代码、写作)
- 13B:≥16GB 内存(强推理、长文本)
- 32B:≥32GB 内存(复杂分析、专业场景)
- 70B:≥64GB 内存(企业级、深度推理)
🧠 关键影响因素
- 量化等级:Q2/Q3 比 Q4 更省内存,但效果略降;Q5/Q8 效果更好但更占内存
- GPU 加速:有 NVIDIA/Apple Silicon 时,显存分担内存压力,16GB 内存 + 4GB 显存可流畅跑 7B
- 上下文窗口:
num_ctx越大越占内存,默认 2048 够用,开 8192 会多占 1–2GB - 系统占用:Windows/macOS 本身占 2–4GB,建议预留 2GB 冗余
✅ 给 CoPaw 用的最佳实践
- 8GB 内存:选 3B 模型(qwen2.5:3b、llama3.2:3b),别跑 7B
- 16GB 内存:选 7B 模型(qwen2.5:7b、mistral:7b),日常足够
- 32GB+ 内存:可上 13B/32B,体验接近 GPT-3.5
🛠️ 内存不够怎么办
- 换更小模型(3B 比 7B 省一半)
- 用更低量化(
ollama pull qwen2.5:7b-q2_K) - 限制上下文:
/set parameter num_ctx 2048 - 关闭其他软件,释放内存
方式一:
CoPaw 原生支持 Ollama,配置非常简单。
一、准备工作
- 安装 Ollama(官网:ollama.com)
- 启动 Ollama 服务(默认端口 11434)
- 安装 CoPaw 的 Ollama 依赖:
pip install ollama 二、CoPaw 配置 Ollama(3 步)
1. 拉取 Ollama 模型(CoPaw CLI)
# 下载模型(示例:qwen2.5:3b、mistral:7b) copaw models ollama-pull qwen2.5:3b copaw models ollama-pull mistral:7b # 查看已下载模型 copaw models ollama-list 2. 配置 CoPaw 使用 Ollama
# 进入配置向导,选择Ollama copaw models config # 按提示:选择 Ollama → 从列表选模型 → 设为默认 3. 切换模型(后续)
# 快速切换Ollama模型 copaw models set-llm 三、验证是否生效
# 启动CoPaw聊天,用本地Ollama模型 copaw chat 此时 CoPaw 会直接调用本地 Ollama,全程免费、无 API 费用。
四、常见问题
- Ollama 未启动:先运行
ollama run llama3确保服务正常 - 模型拉取失败:检查网络,或用
ollama pull qwen2.5:3b直接拉取 - 端口被占用:修改 Ollama 端口,CoPaw 会自动检测
✅ 官方流程(Windows 本地)1. 安装(必须用 PowerShell,不能用 CMD)2. 初始化3. 启动 Web 界面
浏览器自动打开:http://127.0.0.1:80885. 控制台对话,配置钉钉机器人(最常用)http://127.0.0.1:8088启动后,直接在聊天框发指令发送指令:帮我配置钉钉机器人CoPaw 会引导你到 Control → Channels 页面,或直接给出配置入口。后续在 频道 手动填入client_id、client_secret并启用📌 最终可直接复制的 Windows 一键命令合集(PowerShell)
方式二::Windows + 内网穿透(最简单、最推荐)
本地 Windows 运行 CoPaw,用内网穿透工具让外网能访问。适合:个人使用、稳定长期跑。
工具(免费够用):
- 钉钉内网穿透
- Sunny-Ngrok
- ZeroTier
- Tailscale
流程:
- Windows 正常安装启动 CoPaw
- 开一个内网穿透,映射到
127.0.0.1:8088 - 外网直接访问穿透给你的域名 / IP 即可
优点:
- 完全 Windows
- 不用买服务器
- 不用学 Linux
- 现在就能用
方式三:(其他方式整理)官方部署说明书
可放服务器、外网访问、长期运行 方案Linux 云服务器 + 1Panel:专门用来 24 小时运行 CoPaw、钉钉机器人长期在线。不是大众软件适合玩服务器、部署 AI、自建服务的人
一、1Panel 是什么
1Panel 是飞致云出品、现代化开源的 Linux 服务器运维管理面板,主打容器化、轻量化、AI 友好,用 Web 界面就能一键管理服务器、部署应用、建站、配置 SSL、管理数据库与容器1Panel。
- 核心定位:Linux 服务器 “智能管家”,适合个人 / 团队快速部署网站、AI 模型、智能体(如 CoPaw)。
- 关键优势:
- 容器化部署(Docker),应用隔离、漏洞面小。
- 应用商店一键装 AI 工具(Ollama、CoPaw 等)、建站程序1Panel。
- 支持 GPU 监控、本地大模型 / 智能体管理1Panel。
- 一键建站、SSL 证书、密码访问、数据备份1Panel。
二、官方网址
- 官网:https://1panel.cn/1Panel
- 文档:https://1panel.cn/docs/1Panel
- 演示环境:https://demo.1panel.cn
- GitHub:https://github.com/1Panel-dev/1Panel
三、1Panel 部署 CoPaw 智能体 极简完整版
1. 安装 CoPaw
- 进入 1Panel → 左侧 应用商店
- 点击 全部 → AI → 找到 copaw
- 开启 端口外部访问 → 确认
- 等待安装完成
2. 进入并配置模型
- 顶部菜单 已安装 → 找到 copaw → 跳转 打开界面
- 进入 模型设置:
- 选 Ollama:本地模型,直接用
- 选 DashScope:需要去阿里云百炼申请 API Key 并填入
- 选择对应 LLM 模型 → 保存
3. 创建外网可访问的网站
- 左侧 网站 → 创建网站
- 选择 已装应用 → 下拉选 copaw
- 填写你的 域名 → 确认
4. 配置 HTTPS 证书
- 左侧 证书 → 申请证书
- 填入域名 → 开启 自动续期 → 确认
- 回到 网站 → 点击你的网站名称
- 进入 HTTPS → 开启 HTTPS → 选择证书 → 保存
5. 设置密码访问(安全)
- 进入网站设置 → 密码访问
- 点击 创建
- 设置 用户名 + 密码 → 开启
6. 外网访问
浏览器输入你配置的域名,输入用户名、密码,即可进入 CoPaw 操作界面。