版本概览
2026 年 2 月 24 日,Ollama 发布了全新的 v0.17.0 版本。这次更新意义不小,不仅引入了全新的 OpenClaw 自动化集成能力,还针对核心 Tokenizer 性能、VRAM 动态上下文分配、系统配置迁移逻辑、Web 搜索插件 等功能进行了深层次优化。这是一次面向 AI 模型本地化与云端融合、性能与易用性双提升的版本升级。
OpenClaw 自动化集成
OpenClaw 是 Ollama 生态中的关键应用,它作为一个运行在本地系统上的个人 AI 助手,能够把 WhatsApp、Telegram、Slack、Discord、iMessage 等消息服务与本地 AI 模型连接起来,实现跨平台智能交互。
在 v0.17.0 中,Ollama 引入了全新的 自动安装与集成机制,让 OpenClaw 能够一键配置:
- Ollama 会检测系统环境并自动安装 OpenClaw;
- 若未安装,将提示通过 npm 自动安装;
- 启动流程包括安装、安全提示、模型选择、网关配置和启动;
- 支持本地模型与云模型自动联动。
想快速体验?一条命令就够了:
ollama launch openclaw
该命令会自动完成以下过程:检查 OpenClaw 是否已安装;如果未安装,执行 npm 安装;自动执行安全检查;启动模型选择器,支持 kimi-k2.5、glm-5、minimax-m2.5 等开放模型;最后自动启动后台网关守护进程。
新版本中还引入了 EnsureInstalled 机制,这意味着 OpenClaw、Clawdbot、Moltbot 都可以被 Ollama 自动检测与安装,无需手动干预。
if !AutoInstallable(name) { return nil }
if IsIntegrationInstalled(name) { return nil }
_, err := ensureOpenclawInstalled()
return err
Web 搜索新特性
在使用云模型的场景下(如 kimi-k2.5:cloud、glm-5:cloud),Ollama v0.17.0 新增了 Websearch 插件支持,即 OpenClaw 能够自动调用网络搜索功能。
新增逻辑位于 cmd/config 目录,负责将 web search 插件安装到用户级别的扩展目录。这意味着在云端模型推理时,OpenClaw 可以根据用户问题动态调用实时网络信息,实现动态问题感知与上下文信息更新。这在代码生成、信息检索、任务自动化等场景中尤为关键。
VRAM 动态上下文长度
此前版本中,Ollama 使用固定 4096 context length。v0.17.0 版本则引入了全新的 基于 VRAM 动态上下文机制,上下文长度会自动根据可用显存进行推算。
关键变化:
- 数据结构中新增 DefaultContextLength:
type InferenceInfo struct {
Computes []InferenceCompute
DefaultContextLength int
}
- 正则表达式识别日志中的 VRAM 配置信息:
defaultCtxMarker := regexp.MustCompile()
defaultCtxRegex := regexp.MustCompile()

