MaxClaw 是基于 Go 语言开发的本地优先 AI 智能体平台,具备低内存占用和完全本地运行的特点。平台提供桌面应用和 Web UI 访问方式,支持多界面统一体验。核心功能涵盖本地化工作流引擎、工具生态系统、智能记忆与任务管理及多渠道通信集成。内置浏览器自动化高级功能和定时任务系统,支持技能扩展与 MCP 协议。适用于个人知识管理、企业自动化运营及开发者生产力提升等场景,确保数据隐私安全。
接口猎人0 浏览
MaxClaw:Go 语言实现的本地优先 AI 智能体平台
简介
MaxClaw 是一款采用 Go 语言开发的本地优先 AI 智能体平台,其设计理念深受 OpenClaw 项目启发,专注于提供低内存占用、完全本地运行、可视化操作且开箱即用的 AI 助手体验。作为面向个人与团队的 AI 代理解决方案,MaxClaw 将隐私保护置于核心地位,确保所有会话数据、记忆存储、工具执行记录和日志文件都完全保留在用户本地设备中,无需依赖任何第三方云服务。
技术定位:MaxClaw 在 AI 智能体生态中填补了高性能本地化解决方案的空白。与许多依赖云端处理或需要复杂配置的 AI 工具不同,MaxClaw 通过单二进制网关架构和优化的资源管理,实现了在有限硬件资源下的稳定长期运行。项目采用 Apache-2.0 开源许可证,鼓励社区贡献和透明开发,同时保持了商业友好的使用条款。
核心设计哲学:项目强调"本地优先"原则,这不仅体现在数据隐私保护上,更贯穿于整个系统架构。从 Go 语言后端的高效执行,到可视化 UI 的直观交互,再到多渠道的无缝接入,MaxClaw 致力于为用户提供既强大又易于掌控的AI 助手体验。特别适合那些对数据安全有严格要求、希望完全控制 AI 工作流程、或需要在资源受限环境中部署 AI 能力的用户和团队。
主要功能
1. 完全本地化的工作流引擎
MaxClaw 的核心优势在于其彻底的本地化设计。所有 AI 处理、数据存储和工具执行都在用户设备上完成,确保敏感信息永不离开本地环境。系统维护完整的工作流追溯能力,每个会话的交互记录、工具调用详情和系统日志都保存在本机目录结构中,用户可以随时审查和审计。这种设计特别适合处理机密文档、私有代码库或受监管行业的数据处理需求。
2. 多界面统一访问体验
平台提供桌面应用和 Web UI 两种访问方式,两者共享相同的后端服务端口。桌面应用采用现代化 UI 设计,具备优雅的圆角卡片、流畅的动画效果和完整的浅色/深色主题支持。Web 界面则提供了跨平台访问的灵活性,用户可以通过浏览器从任何设备连接到本地运行的 MaxClaw 实例。两种界面都支持实时流式对话显示,具备打字机效果的消息呈现和智能打断功能。
MaxClaw 支持与主流即时通讯平台的无缝集成,包括 Telegram、Discord、WhatsApp、Slack、QQ 和飞书等。每种渠道都有专门的配置选项和认证机制。对于 WhatsApp,项目通过独立的 Bridge 组件实现连接,Go 端通过 WebSocket 与 Bridge 通信。Telegram 和 Discord 则直接通过官方 API 集成。这种多渠道支持使用户可以通过自己习惯的通信工具与 AI 助手交互,极大提升了使用便利性。
6. 定时任务与自动化调度
平台内置了灵活的任务调度系统,支持 Cron 表达式、一次性执行和周期性重复三种任务模式。用户可以创建复杂的自动化工作流,如每日数据备份、定期网站监控、定时报告生成等。调度器提供完整的执行历史追踪和状态监控,确保任务可靠执行。结合 AI 的智能决策能力,定时任务可以动态调整执行策略,适应变化的环境条件。
7. 技能系统与 MCP 协议扩展
MaxClaw 的技能系统允许用户通过简单的 @技能名 语法快速加载预定义的能力模板。技能文件可以存放在工作区的 skills 目录中,支持单文件或多目录结构。更重要的是,项目完全支持 Model Context Protocol 标准,可以无缝接入外部 MCP 服务器,将第三方工具和服务集成到 AI 助手的工具集中。这种开放架构使 MaxClaw 能够不断扩展其能力边界。
MaxClaw 支持在 Linux 和 macOS 系统上运行,对硬件资源的要求相对适中。基础运行需要 Go 1.21 或更高版本作为后端运行时,Node.js 18 或更高版本用于 Web 界面和部分工具组件。虽然项目可以在资源受限的环境中运行,但为了获得最佳体验,建议配备至少 4GB 可用内存和 10GB 存储空间。对于需要浏览器自动化的功能,系统还需要安装 Chromium 或 Chrome 浏览器。
一键安装流程
项目提供了便捷的一键安装脚本,能够自动检测操作系统类型并执行相应的安装流程。用户只需在终端中执行简单的 curl 命令即可完成安装。安装脚本会自动下载最新版本的二进制文件,设置必要的系统服务(如 Linux 的 systemd 或 macOS 的 launchd),并创建默认的配置文件结构。安装过程还包含依赖项检查和环境验证,确保系统满足所有运行要求。
手动安装选项
对于希望更多控制安装过程的用户,MaxClaw 也支持手动构建和安装。用户需要先克隆项目仓库,然后使用 Make 工具执行构建命令。项目提供了完整的 Makefile,包含了开发构建、生产打包、依赖安装等常用任务。手动安装允许用户自定义安装路径、服务端口和其他运行参数,适合有特定部署需求的场景。
配置文件详解
安装完成后,用户需要编辑 ~/.maxclaw/config.json 文件进行个性化配置。配置文件采用 JSON 格式,结构清晰易懂。核心配置包括 AI 模型提供商设置(支持 OpenRouter、MiniMax、Qwen/DashScope、智谱 GLM 等)、工作区路径定义、执行模式选择和安全限制选项。用户可以根据自己的需求选择不同的 AI 模型,配置本地或云端的 API 端点,设置工作区访问权限等。
模型提供商配置
MaxClaw 支持多种 AI 模型提供商,每种都有特定的配置格式。对于 OpenRouter,只需提供 API 密钥即可;对于 MiniMax,需要通过 OpenAI 兼容接口进行配置;Qwen 模型通过阿里云的 DashScope 服务访问;智谱 GLM 则需要使用专门的编码套餐端点。项目文档提供了每种提供商的详细配置示例,用户只需复制相应段落并替换为自己的 API 凭证即可。
MaxClaw 提供了三种不同的执行模式,适应不同的使用场景和安全需求。安全模式(safe)采用保守策略,偏向只读操作,适合初步探索和测试;询问模式(ask)是默认设置,在执行可能产生副作用的操作前会请求用户确认;自动模式(auto)则允许 AI 助手连续执行复杂任务,无需人工干预。用户可以根据任务性质和风险承受能力选择合适的执行模式。
每次与 AI 助手的交互都在特定的会话上下文中进行。用户可以创建多个独立会话,分别处理不同的任务或项目。系统支持会话的持久化存储和恢复,即使重启服务也不会丢失对话历史。通过 /new 命令可以清空当前会话并开始新的对话,同时系统会自动将之前的对话内容摘要归档到历史文件中。这种设计既保持了上下文的连贯性,又避免了无限增长的会话负担。
工具调用与自动化任务
MaxClaw 的强大功能通过丰富的工具集实现。用户可以通过自然语言描述任务需求,AI 助手会自动选择合适的工具并执行相应操作。例如,当用户请求"搜索最新的 AI 新闻"时,助手会调用网页搜索工具;当需要"整理当前目录下的文档"时,则会使用文件操作工具。对于复杂任务,助手能够将目标分解为多个步骤,依次调用不同工具,最终完成整体目标。
浏览器自动化实战
浏览器自动化是 MaxClaw 的特色功能之一,特别适合处理需要网页交互的任务。典型的使用流程包括:首先通过 browser login 命令在受管浏览器配置文件中完成网站登录;然后在对话中指示 AI 助手使用浏览器工具执行具体操作。助手可以导航到指定页面、抓取页面内容和可交互元素、执行点击、输入等操作,并在需要时保存截图作为执行证据。整个过程完全自动化,无需人工干预。
对于有特殊需求的用户,MaxClaw 提供了丰富的定制选项。通过 MCP 协议,可以集成外部工具和服务,扩展 AI 助手的能力范围。通过环境变量和配置文件,可以调整各种运行时参数,优化性能和资源使用。通过自定义技能和工作区模板,可以创建针对特定场景的优化配置。项目还提供了完整的 API 接口,支持与其他系统的深度集成。
解决方案:研究人员部署 MaxClaw 作为个人知识管理助手,配置了专门的研究工作区。每天开始工作时,助手会自动扫描预定义的学术资源网站,抓取最新发表的论文摘要和行业动态。通过浏览器自动化功能,助手能够登录需要订阅的学术数据库,下载相关文献的 PDF 版本。使用文件操作工具,助手将下载的文档按照预设分类体系整理到本地目录中。对于每篇重要文献,助手会自动提取核心观点、研究方法、关键数据和参考文献,生成结构化的阅读笔记。所有处理过程都在本地完成,原始文献和生成笔记都存储在研究人员控制的设备上。
项目愿景:MaxClaw 致力于成为最实用、最隐私友好的本地 AI 助手平台,让每个人都能在完全控制数据的前提下享受 AI 自动化的便利。项目不仅提供了开箱即用的解决方案,更建立了一个可扩展的生态系统,用户可以根据自己的需求定制和扩展功能。随着 AI 技术的普及和隐私意识的增强,MaxClaw 的本地优先理念将越来越受到重视,为个人和小团队提供企业级 AI 能力的同时,确保数据的完全自主权。