免费开源AI工具:CoPaw与OpenFang整理

免费开源AI工具:CoPaw与OpenFang整理

CoPawOpenFang,两者软件本体都免费开源,但模型 API 可能产生费用

CoPaw(阿里云)

  • 软件本身完全免费开源(Apache 2.0),无会员、无广告、无功能限制
  • 本地部署:免费,仅需 Python 环境,可跑本地模型(Ollama 等),零 API 费用
  • 云端部署:魔搭创空间有免费测试额度;长期使用按云资源(CPU/GPU/ 存储)计费
  • 模型 API:调用通义千问、OpenAI、DeepSeek 等按官方标准按量付费

 CoPaw GitHub 地址

https://github.com/agentscope-ai/CoPaw

OpenFang(AI Agent 操作系统)

  • 软件本身完全免费开源(Apache-2.0 + MIT),可商用、可二次开发
  • 本地部署:免费,支持 Ollama、LM Studio 等本地模型,零 API 费用
  • 云端部署:免费,仅承担云服务器 / 算力成本
  • 模型 API:调用云端大模型按各厂商标准付费

OpenFang GitHub 地址

https://github.com/RightNow-AI/openfangGitHub

一句话总结:工具免费,模型可能花钱;本地跑模型则全程免费

Ollama 本地运行的内存需求,核心看模型大小 + 量化等级,CoPaw 调用时和直接用 Ollama 一致。

📌 主流模型内存参考(纯 CPU,Q4 量化)

  • 0.5B / 1B≥4GB 内存即可跑(入门聊天 / 简单任务)
  • 3B≥6GB 内存(日常对话、写文案)
  • 7B≥8GB 内存(流畅对话、代码、写作)
  • 13B≥16GB 内存(强推理、长文本)
  • 32B≥32GB 内存(复杂分析、专业场景)
  • 70B≥64GB 内存(企业级、深度推理)

🧠 关键影响因素

  • 量化等级:Q2/Q3 比 Q4 更省内存,但效果略降;Q5/Q8 效果更好但更占内存
  • GPU 加速:有 NVIDIA/Apple Silicon 时,显存分担内存压力,16GB 内存 + 4GB 显存可流畅跑 7B
  • 上下文窗口num_ctx 越大越占内存,默认 2048 够用,开 8192 会多占 1–2GB
  • 系统占用:Windows/macOS 本身占 2–4GB,建议预留 2GB 冗余

✅ 给 CoPaw 用的最佳实践

  • 8GB 内存:选 3B 模型(qwen2.5:3b、llama3.2:3b),别跑 7B
  • 16GB 内存:选 7B 模型(qwen2.5:7b、mistral:7b),日常足够
  • 32GB+ 内存:可上 13B/32B,体验接近 GPT-3.5

🛠️ 内存不够怎么办

  1. 换更小模型(3B 比 7B 省一半)
  2. 用更低量化(ollama pull qwen2.5:7b-q2_K
  3. 限制上下文:/set parameter num_ctx 2048
  4. 关闭其他软件,释放内存

方式一:

CoPaw 原生支持 Ollama,配置非常简单

一、准备工作

  1. 安装 Ollama(官网:ollama.com
  2. 启动 Ollama 服务(默认端口 11434)
  3. 安装 CoPaw 的 Ollama 依赖:
pip install ollama 

二、CoPaw 配置 Ollama(3 步)

1. 拉取 Ollama 模型(CoPaw CLI)
# 下载模型(示例:qwen2.5:3b、mistral:7b) copaw models ollama-pull qwen2.5:3b copaw models ollama-pull mistral:7b # 查看已下载模型 copaw models ollama-list 
2. 配置 CoPaw 使用 Ollama
# 进入配置向导,选择Ollama copaw models config # 按提示:选择 Ollama → 从列表选模型 → 设为默认 
3. 切换模型(后续)
# 快速切换Ollama模型 copaw models set-llm 

三、验证是否生效

# 启动CoPaw聊天,用本地Ollama模型 copaw chat 

此时 CoPaw 会直接调用本地 Ollama,全程免费、无 API 费用

四、常见问题

  • Ollama 未启动:先运行 ollama run llama3 确保服务正常
  • 模型拉取失败:检查网络,或用 ollama pull qwen2.5:3b 直接拉取
  • 端口被占用:修改 Ollama 端口,CoPaw 会自动检测
✅ 官方流程(Windows 本地)1. 安装(必须用 PowerShell,不能用 CMD)2. 初始化3. 启动 Web 界面

浏览器自动打开:http://127.0.0.1:80885. 控制台对话,配置钉钉机器人(最常用)http://127.0.0.1:8088启动后,直接在聊天框发指令发送指令:帮我配置钉钉机器人CoPaw 会引导你到 Control → Channels 页面,或直接给出配置入口。后续在 频道 手动填入 client_idclient_secret 并启用📌 最终可直接复制的 Windows 一键命令合集(PowerShell)

方式二::Windows + 内网穿透(最简单、最推荐)

本地 Windows 运行 CoPaw,用内网穿透工具让外网能访问。适合:个人使用、稳定长期跑。

工具(免费够用):

  • 钉钉内网穿透
  • Sunny-Ngrok
  • ZeroTier
  • Tailscale

流程:

  1. Windows 正常安装启动 CoPaw
  2. 开一个内网穿透,映射到 127.0.0.1:8088
  3. 外网直接访问穿透给你的域名 / IP 即可

优点:

  • 完全 Windows
  • 不用买服务器
  • 不用学 Linux
  • 现在就能用

方式三:(其他方式整理官方部署说明书

可放服务器、外网访问、长期运行 方案Linux 云服务器 + 1Panel:专门用来 24 小时运行 CoPaw、钉钉机器人长期在线。不是大众软件适合玩服务器、部署 AI、自建服务的人

一、1Panel 是什么

1Panel 是飞致云出品、现代化开源的 Linux 服务器运维管理面板,主打容器化、轻量化、AI 友好,用 Web 界面就能一键管理服务器、部署应用、建站、配置 SSL、管理数据库与容器1Panel。

  • 核心定位:Linux 服务器 “智能管家”,适合个人 / 团队快速部署网站、AI 模型、智能体(如 CoPaw)。
  • 关键优势:
    • 容器化部署(Docker),应用隔离、漏洞面小。
    • 应用商店一键装 AI 工具(Ollama、CoPaw 等)、建站程序1Panel。
    • 支持 GPU 监控、本地大模型 / 智能体管理1Panel。
    • 一键建站、SSL 证书、密码访问、数据备份1Panel。

二、官方网址

三、1Panel 部署 CoPaw 智能体 极简完整版

1. 安装 CoPaw
  1. 进入 1Panel → 左侧 应用商店
  2. 点击 全部AI → 找到 copaw
  3. 开启 端口外部访问 → 确认
  4. 等待安装完成
2. 进入并配置模型
  1. 顶部菜单 已安装 → 找到 copaw → 跳转 打开界面
  2. 进入 模型设置
    • Ollama:本地模型,直接用
    • DashScope:需要去阿里云百炼申请 API Key 并填入
  3. 选择对应 LLM 模型 → 保存
3. 创建外网可访问的网站
  1. 左侧 网站创建网站
  2. 选择 已装应用 → 下拉选 copaw
  3. 填写你的 域名 → 确认
4. 配置 HTTPS 证书
  1. 左侧 证书申请证书
  2. 填入域名 → 开启 自动续期 → 确认
  3. 回到 网站 → 点击你的网站名称
  4. 进入 HTTPS → 开启 HTTPS → 选择证书 → 保存
5. 设置密码访问(安全)
  1. 进入网站设置 → 密码访问
  2. 点击 创建
  3. 设置 用户名 + 密码 → 开启
6. 外网访问

浏览器输入你配置的域名,输入用户名、密码,即可进入 CoPaw 操作界面。


Read more

2025年最全私有化部署开源大模型指南:从入门到实战,助你构建安全可控的AI应用!

2025年最全私有化部署开源大模型指南:从入门到实战,助你构建安全可控的AI应用!

支持私有化部署的开源大模型是当前企业和开发者构建自有AI应用、确保数据安全和实现技术自主可控的核心。 私有化部署意味着你可以将模型下载到自己的服务器(无论是本地数据中心还是私有云)上运行,所有数据和计算都在你的掌控之内。 以下是当前主流的、支持私有化部署的开源大模型,从模型本身、特点、适用场景和部署工具等多个维度进行介绍。 一、 顶级通用大模型(国际主流) 这些模型通常在英语和代码能力上表现优异,社区生态极为丰富。 1. Llama 3 系列(by Meta) * 简介:目前开源社区最强大、最受欢迎的模型之一,是 Meta 的最新力作。 * 特点: * 性能卓越:在多个行业标准基准测试中,其 8B 和 70B 版本都达到了顶级闭源模型的水平。 * 指令遵循能力强:对复杂指令的理解和执行能力非常出色。 * 高效的Tokenizer:拥有更大的词汇表,对多语言(尤其是非拉丁语系)编码效率更高。 * 相对宽松的许可证:Llama 3 许可证允许商业使用,但如果你的产品月活用户超过 7 亿,

By Ne0inhk
GitHub 热榜项目 - 日榜(2026-02-28)

GitHub 热榜项目 - 日榜(2026-02-28)

GitHub 热榜项目 - 日榜(2026-02-28) 生成于:2026-02-28 统计摘要 共发现热门项目: 16 个 榜单类型:日榜 本期热点趋势总结 本期GitHub热榜呈现出以AI智能体为核心的爆发式技术趋势,特别是以Claude Code、Deer-flow及OpenSandbox为代表的研究与编码Agent,正从单一对话向具备沙箱执行、长时记忆及多代理协同的复杂生产系统演进。技术热点聚焦于Agentic架构的工程化落地,涵盖了端侧边缘语音识别、矢量图神经网络数据库以及利用WiFi信号进行人体姿态感知的跨学科应用。行业洞察显示,开发者正从追求大型模型转向构建完善的Agent技能框架、上下文工程及代码智库,旨在通过可复现的工具链解决真实世界的自动化编程与多模态交互问题。 1. ruvnet/wifi-densepose * 🏷️ 项目名称:ruvnet/wifi-densepose * 🔗 项目地址: https://github.com/ruvnet/wifi-densepose * ⭐ 当前 Star 数: 9101 * 📈 趋势 S

By Ne0inhk
中国开源大模型霸榜全球:全球开源大模型排行榜前十五名,全部由中国模型占据

中国开源大模型霸榜全球:全球开源大模型排行榜前十五名,全部由中国模型占据

中国开源大模型霸榜全球:AI格局重塑与数学底层逻辑 2025 年 7 月,一则震撼全球 AI 社区的消息传来:全球开源大模型排行榜前十五名,全部由中国模型占据。这是中国开源力量的一次集中爆发,也是全球人工智能格局的一次历史性重塑。 近年来,中国在大模型领域的发展速度之快,令世界瞩目。从顶尖学术研究到产业落地,从企业巨头到社区开发者,中国 AI 在开源方向上实现了 “规模 + 性能 + 生态”三位一体的全面突破 。这不仅是一份成绩单,更是一场关于技术范式、产业竞争与全球格局的深刻变革。 文章目录 * 中国开源大模型霸榜全球:AI格局重塑与数学底层逻辑 * 一、全球霸榜:中国开源模型全面超越 * 二、五梯队划分:生态格局初步成型 * 三、前沿突破:DeepSeek 与 Qwen 的“双子星” * 四、智谱与月之暗面:创新驱动的“追赶者” * 五、开源生态:

By Ne0inhk
最新版 Kimi K2.5 完整使用教程:从入门到实战(开源部署+API接入+多模态核心功能)

最新版 Kimi K2.5 完整使用教程:从入门到实战(开源部署+API接入+多模态核心功能)

月之暗面(Moonshot AI)重磅发布Kimi系列最新开源多模态大模型——Kimi K2.5,一经推出便引爆开发者社区。作为“Agentic AI元年”的标杆开源模型,Kimi K2.5凭借1万亿总参数量、原生三模态融合、Agent集群协作(Agent Swarm)等核心优势,在SWE-Bench Verified编码评测中斩获76.8分,视觉理解精度对标GPT-5.2,且支持本地部署、在线调用、API接入全链路使用方式,免费开放商业使用权,成为个人开发者与企业落地AI应用的首选模型。 本文是Kimi K2.5最新、最全面的实战使用教程,从“零门槛在线使用”到“本地开源部署”,再到“API接入实战”“核心功能拆解”,每一步都配套可复用代码,无论你是新手还是资深开发者,都能快速上手并落地Kimi K2.5的核心能力。 一、前置认知:Kimi K2.

By Ne0inhk