ollama v0.18.3 发布:VS Code 原生集成 + Agent 模式,本地 AI 开发体验全面革新

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

一、版本总览:Ollama v0.18.3,2026年3月26日正式上线

2026年3月26日,开源本地大模型管理工具Ollama正式发布v0.18.3版本,这是Ollama在AI开发工具集成领域的一次里程碑式升级。本次更新核心聚焦VS Code深度原生集成Agent模式能力开放两大核心功能,同时完成多项底层优化与Bug修复,进一步强化了本地大模型在开发场景中的实用性与稳定性。

从版本更新数据来看,本次v0.18.3版本由8位贡献者共同参与,累计提交22次代码提交,涉及83个文件修改,覆盖从核心功能开发、文档更新到底层引擎优化的全流程,是一次功能与稳定性并重的全面升级。

二、核心功能一:Ollama原生启动VS Code,本地模型无缝融入开发环境

2.1 功能核心:一行命令打通Ollama与VS Code

Ollama v0.18.3最重磅的更新,是实现了Ollama直接启动VS Code的原生能力,开发者无需额外配置复杂的插件或中间件,仅需一行命令即可完成Ollama与VS Code的深度绑定,让本地大模型成为VS Code开发环境的原生组成部分。

启动命令极为简洁,在终端中输入以下任意一条命令即可:

ollama launch vscode # 或 ollama launch code 

执行命令后,Ollama会自动完成与VS Code的连接配置,无需手动修改VS Code设置或安装第三方扩展,即可在VS Code中直接调用本地部署的所有Ollama模型。

2.2 操作流程:三步在VS Code中使用Ollama模型

命令执行完成后,开发者可通过以下三步,在VS Code的Copilot Chat中无缝使用Ollama本地模型,实现AI辅助编码:

  1. 打开Copilot Chat:在VS Code中打开Copilot Chat界面,macOS系统使用快捷键Ctrl+Cmd+I,Windows/Linux系统使用快捷键Ctrl+Alt+I
  2. 选择模型选择器:在Copilot Chat的输入框上方,找到并点击模型选择器(Model Picker);
  3. 选择Ollama模型:在模型选择器中点击Other models(其他模型)选项,即可在列表中找到所有本地部署的Ollama模型,选择后即可开始使用本地或云端模型进行编码辅助。

这一流程彻底简化了本地大模型与VS Code的集成步骤,此前开发者需手动安装Continue、Copilot Chat等扩展并配置模型地址,而Ollama v0.18.3通过原生集成,将这一过程压缩为一行命令+三步操作,大幅降低了本地AI开发的使用门槛。

2.3 功能价值:本地模型+VS Code,打造私有化AI开发环境

Ollama原生启动VS Code的核心价值,在于为开发者提供了私有化、离线化、可定制的AI开发环境:

  • 数据安全:所有代码交互与模型推理均在本地完成,无需将代码上传至云端,彻底解决企业与个人开发者的代码隐私顾虑;
  • 离线可用:无需依赖网络连接,即可在无网环境下使用本地模型进行代码生成、调试与优化,适配离线开发场景;
  • 模型自由:支持所有Ollama兼容的本地模型(如Llama 3、Qwen、DeepSeek-Coder等),开发者可根据需求选择轻量级或高性能模型,无需受限于云端模型的选择范围;
  • 无缝协同:与VS Code原生功能深度融合,支持代码补全、错误修复、文档生成等全场景开发辅助,无需在多个工具间切换。

三、核心功能二:Agent模式上线,Ollama化身VS Code智能开发助手

3.1 Agent模式定义:让Ollama具备自主执行开发任务的能力

Ollama v0.18.3正式开放Agent模式,这一功能让Ollama能够借助VS Code的Agent模式能力,自主执行命令、编辑文件、迭代代码,从单纯的“问答式AI助手”升级为“可行动的开发智能体”,大幅提升AI在开发流程中的自动化能力。

简单来说,Agent模式下的Ollama不再局限于“你问我答”,而是可以根据开发者的指令,直接操作VS Code完成一系列开发任务,例如运行测试、修复Bug、生成文档、修改代码等,实现开发流程的自动化与智能化。

3.2 实用指令:Agent模式下的高频开发指令示例

Agent模式支持开发者通过自然语言指令,让Ollama自主完成复杂开发任务,以下是本次更新中官方推荐的高频实用指令,覆盖测试、文档、代码生成三大核心场景:

  1. 测试相关指令
    • “Run the tests and fix any failures”(运行测试并修复所有失败用例):Ollama会自动运行项目测试,定位失败原因,直接修改代码修复问题;
    • “Generate unit tests for this file”(为当前文件生成单元测试):自动分析当前文件的代码逻辑,生成覆盖核心功能的单元测试代码;
  2. 文档相关指令
    • “Update the README with the new API changes”(根据新的API变更更新README文档):自动识别项目API的更新内容,同步修改README文档,确保文档与代码一致;
  3. 代码迭代指令
    • 支持“优化当前函数性能”“重构代码结构”“添加注释”等自定义指令,Ollama会根据指令自主编辑代码文件,完成迭代优化。

3.3 功能优势:Agent模式重构本地AI开发流程

Agent模式的推出,彻底改变了本地大模型在开发中的角色,核心优势体现在三个方面:

  • 任务自动化:将开发者从重复、繁琐的开发任务中解放,例如测试修复、文档更新、代码生成等,大幅提升开发效率;
  • 上下文感知:基于VS Code的项目上下文,Ollama可精准理解项目结构、代码逻辑与开发需求,执行的操作更贴合实际开发场景;
  • 全流程协同:从代码编写、测试到文档维护,Agent模式覆盖开发全流程,实现AI与开发工具的深度协同,打造“一站式”智能开发体验。

四、其他核心更新:底层优化+集成增强,全面提升Ollama稳定性

除了VS Code集成与Agent模式两大核心功能,Ollama v0.18.3还完成了多项底层优化与集成能力增强,覆盖工具调用解析、第三方集成、引擎修复、功能完善等多个维度,进一步夯实了Ollama的稳定性与兼容性。

4.1 工具调用优化:GLM解析器升级,提升工具调用稳定性

本次更新对GLM解析器进行了专项优化,重点提升了模型工具调用(Tool Calls)的解析能力与稳定性。GLM解析器是Ollama处理模型工具调用请求的核心组件,优化后可更精准地解析模型输出的工具调用指令,减少解析错误与格式异常,确保Agent模式下的命令执行、文件操作等功能稳定运行,为Agent模式的落地提供了底层支撑。

4.2 第三方集成增强:OpenClaw集成优化,完善网关检查逻辑

Ollama v0.18.3对OpenClaw集成进行了深度优化,重点改进了网关检查(Gateway Checks)的逻辑与稳定性。OpenClaw是Ollama的重要第三方集成组件,用于实现模型的联网搜索、外部服务调用等能力,本次优化后:

  • 网关健康检查逻辑更健壮,可适配不同网络环境与部署场景;
  • 修复了无守护进程安装时的网关检查冗余问题,减少不必要的系统资源消耗;
  • 提升了OpenClaw与Ollama核心服务的协同效率,确保联网能力稳定可用。

4.3 底层引擎修复:MLX Runner多项修复,优化推理性能

针对MLX Runner(Ollama的核心推理引擎之一),本次更新修复了多项关键问题,同时优化了缓存机制与推理性能:

  1. 修复Slice(0, 0)返回异常:修复了MLX Runner中Slice(0, 0)操作返回完整维度而非空维度的Bug,确保张量操作的准确性;
  2. KV缓存共享优化:实现了KV缓存跨会话共享,对于具有公共前缀的对话会话,可复用已缓存的KV数据,大幅降低重复推理的内存消耗与时间成本;
  3. 缓存管理增强:支持纯Transformer缓存的部分匹配,优化缓存命中率;在缓存转储树中显示“上次使用时间”,方便开发者监控缓存状态;修复了双重取消固定(double unpin)导致的panic问题,提升引擎稳定性;
  4. 格式支持扩展:新增mxfp4、mxfp8、nvfp4等量化格式的导入支持,适配更多量化模型,提升本地推理的兼容性。

4.4 功能完善与Bug修复:覆盖桌面端、日志、CI等全场景

本次更新还完成了多项功能完善与Bug修复,覆盖桌面应用、日志系统、CI流程、交互界面等多个维度:

  1. 桌面应用修复:修复了OLLAMA_HOST配置为未指定地址时,桌面应用 stuck加载的问题,提升桌面端兼容性;
  2. 日志系统优化:新增调试请求日志开关,支持开启详细的请求日志记录,方便开发者排查问题;修复了MLX子进程日志死锁问题,确保日志输出稳定;
  3. 交互界面优化:TUI(终端交互界面)的模型选择器新增左箭头返回导航功能,提升终端操作的便捷性;
  4. CI流程修复:修复了Windows平台下CGO编译器错误,确保CI/CD流程在Windows环境下稳定运行;
  5. 配置优化:launch模块新增“模型未变更时跳过冗余配置写入”逻辑,减少不必要的磁盘IO,提升启动效率;
  6. API修复:修复了api/show模块中Copilot Chat的basename覆盖问题,确保模型信息展示准确。

4.5 文档更新:完善集成指南,覆盖OpenClaw、Claude Code等场景

为配合新功能上线,Ollama官方同步更新了文档内容,重点完善了第三方集成与使用指南:

  • 更新Claude Code相关文档,新增Telegram集成指南,扩展Claude模型的使用场景;
  • 新增Nemoclaw集成文档,完善OpenClaw生态的使用说明;
  • 更新OpenClaw的Web搜索相关文档,明确联网能力的使用方法与配置细节。

五、版本更新明细:按时间线梳理所有提交内容

Ollama v0.18.3版本的代码提交覆盖2026年3月18日至3月25日,以下按时间线完整梳理所有提交内容,确保无遗漏:

5.1 3月18日提交

  1. 文档更新:更新Claude代码与OpenClaw的Web搜索相关内容;
  2. 配置优化:cmd/launch模块新增“模型未变更时跳过冗余配置写入”逻辑;
  3. MLX Runner修复:修复Slice(0, 0)返回异常问题;
  4. MLX Runner优化:实现KV缓存跨会话共享(公共前缀复用)。

5.2 3月19日提交

  1. 桌面应用修复:修复OLLAMA_HOST未指定时桌面应用加载卡住问题;
  2. 工具解析优化:parsers模块新增健壮的XML工具修复功能,提升工具调用稳定性。

5.3 3月20日提交

  1. 功能新增:新增调试请求日志开启功能;
  2. MLX修复:修复子进程日志死锁问题;
  3. MLX Runner修复:修复done通道值被第一个接收者消费的问题;
  4. OpenClaw优化:launch模块新增“无守护进程安装时跳过OpenClaw网关健康检查”逻辑;
  5. 文档更新:新增Nemoclaw集成文档。

5.4 3月23日提交

  1. MLX更新:同步更新MLX引擎至3月23日版本;
  2. 文档更新:更新Claude Code文档,新增Telegram集成指南。

5.5 3月24日提交

  1. MLX Runner优化:支持纯Transformer缓存的部分匹配;
  2. MLX Runner优化:缓存转储树中显示“上次使用时间”;
  3. MLX Runner修复:修复双重取消固定导致的panic问题;
  4. 格式支持:新增mxfp4、mxfp8、nvfp4量化格式导入支持;
  5. 测试优化:提升单个模型的测试能力;
  6. CI修复:修复Windows平台CGO编译器错误。

5.6 3月25日提交

  1. TUI优化:模型选择器新增左箭头返回导航功能;
  2. 核心功能开发:实现ollama launch vscode核心功能;
  3. API修复:修复api/show模块中Copilot Chat的basename覆盖问题。

六、总结:Ollama v0.18.3,本地AI开发的“效率革命”

代码地址:bgithub.xyz/ollama/ollama

Ollama v0.18.3版本的发布,标志着本地大模型在开发工具集成领域进入了全新阶段。本次更新通过VS Code原生集成Agent模式开放两大核心功能,彻底打通了本地大模型与主流开发编辑器的壁垒,让私有化、离线化的AI开发成为现实;同时,底层引擎的全面优化、第三方集成的增强以及多项Bug修复,进一步提升了Ollama的稳定性与实用性。

Read more

5分钟体验Face Analysis WebUI:上传图片即得分析结果

5分钟体验Face Analysis WebUI:上传图片即得分析结果 1. 什么是Face Analysis WebUI?——零门槛的人脸智能分析工具 你有没有遇到过这样的场景:需要快速确认一张照片里有多少人、每个人的年龄性别、头部朝向是否自然,甚至想看看关键点定位是否精准?过去这可能需要写代码、调模型、搭环境,而现在,只需5分钟,就能用上一套开箱即用的智能人脸分析系统。 Face Analysis WebUI 就是这样一款面向开发者和非技术用户的轻量级人脸分析工具。它不依赖复杂部署,不强制要求GPU,也不需要你懂深度学习原理——上传一张图,点击分析,结果立刻呈现。背后支撑的是业界知名的 InsightFace 模型 buffalo_l,在精度、速度与鲁棒性之间做了优秀平衡。 它不是实验室里的Demo,而是真正能“拿来就用”的分析系统:支持多人脸同时检测、106+68点高密度关键点、可读性强的年龄性别预测、直观易懂的头部姿态描述。更重要的是,它以 Gradio WebUI

利用 Claw Cloud Run 免费应用部署前端网页

利用 Claw Cloud Run 免费应用部署前端网页

一、注册 1. 使用注册180天的github账户注册Claw Cloud账户,可获得每月5$的免费配额 2. 官网链接 - https://run.claw.cloud/ (ps:直接github账号登录应该就不用写了吧) 二、创建应用 开启外部访问 CPU选0.1即可,当然大点也没问题,就是费用多点 点击Create App 打开App Launchpad 三、查看Nginx信息,挂载空间部署 1. 确认update重启 挂载空间 关闭控制台点击update 最下方选择local Storage挂载空间(默认的就填上面查到的,改配置文件的就填你选择的路径) cd进入目录下通过配置文件查看Nginx默认路径(当然你也可以自己改,到时候换个地方挂载就好) 输入nginx -t查询Nginx配置文件信息 点进刚刚创建的App,拖到最下面打开控制台(旁边的文件夹是要挂载之后才有的) 四、上传文件 点击控制台旁边的文件图标,将打包后的文件上传即可

从零开始:九联UNT413A刷机全流程解析与避坑指南

九联UNT413A刷机实战:从零开始打造全能电视盒子 1. 认识你的设备:九联UNT413A硬件解析 九联UNT413A是中国移动定制的一款网络机顶盒产品,搭载了晶晨S905L3A处理器方案。这颗芯片采用四核Cortex-A53架构,主频可达1.8GHz,搭配Mali-G31 MP2 GPU,支持4K HDR视频解码,性能足以流畅运行安卓9.0系统。机器通常配备2GB内存和8GB/16GB存储空间,支持双频WiFi和蓝牙连接。 核心硬件规格表: 组件规格参数处理器晶晨S905L3A 四核1.8GHzGPUMali-G31 MP2内存2GB DDR4存储8GB/16GB eMMC视频解码4K@60fps, H.265/HEVC, VP9网络千兆有线+双频WiFi系统安卓9.0 选择刷机的主要原因在于原厂系统存在诸多限制: * 预装大量运营商定制应用无法卸载 * 应用安装权限被严格管控 * 系统界面不够直观友好 * 功能扩展性较差 通过刷入第三方固件,可以彻底释放硬件潜力,获得以下优势: * 纯净系统无广告和冗余应用 * 自由安装各类电视应用 * 支