2026年3月18日 AI 每日动态

2026年3月18日 AI 每日动态

1. 【AI Coding 工具】Claude Code 终于有了"长期记忆"——claude-mem 爆红

Claude Code 用起来顺手,但每次开新会话就像把同事的记忆清零——项目背景要重新交代,之前做过的决策一问三不知。现在有个叫 claude-mem 的开源插件彻底改变了这件事。

它的工作方式很直接:自动抓取每次会话里的工具调用记录(读了哪些文件、改了哪些代码、跑了什么命令),会话结束后用 AI 把这些信息压缩成结构化摘要,下次开工时自动注入进来。一万 Token 的操作记录,最终压缩到 500 Token 左右,同时还支持自然语言检索历史("上次那个 React 重复渲染是怎么解的?")。

目前已有超 3 万人收藏,宣称能节省 90% 的 Token 消耗。对重度使用 Claude Code 的开发者来说,这东西值得装一装看看。

📌 为什么值得关注:记忆问题是目前所有 AI 编程助手的共同痛点,claude-mem 用了一种轻量但很务实的方式切入,比等 Anthropic 官方"原生解决"要实际得多。


2. 【AI Coding 框架】LangChain 发布 DeepAgents:Agent 从"聊天"走向"干活"

LangChain 这周在 GitHub 悄悄推送了一个新框架 DeepAgents,基于 LangGraph 构建,主打三件套:任务规划工具 + 文件系统持久化 + 子智能体动态派生

说白了就是:主智能体接到任务后先写计划、可以把子任务分包给专门的子智能体去跑、过程中产生的数据实时存文件系统而不是靠上下文窗口撑着。这套架构解决了 Agent 处理长流程任务时最头疼的几个问题:上下文撑不住、多步骤走着走着就偏了、任务结果没地方落地。

LangChain 创始人 Harrison Chase 最近也公开说了一句让人印象深刻的话:"模型能力正在商品化,真正决定 Agent 上限的,是运行框架。" DeepAgents 可以理解为他对这句话的实践版答案。

📌 为什么值得关注:Agent 领域不缺想法,缺的是能跑起来的工程框架。DeepAgents 完全开源,架构设计偏实战,值得有 Agent 落地需求的团队认真看一下。


3. 【具身智能产业】7 家百亿独角兽,"四肢"生意让位给"大脑"

36氪今天发了一篇很有意思的产业梳理:2026 年开年两个月,具身智能赛道融资总额已经逼近 150 亿元,百亿估值独角兽冒出了整整 7 家,包括宇树科技、智元机器人、银河通用机器人、星海图等。

更值得关注的是资本押注方向在悄悄转移——从机器人"四肢"(关节、驱动器等机械性能)转向"大脑"(多模态大模型与决策系统)。千寻智能开源了 Spirit v1.5 物理交互模型,智平方推出 GOVLA 全身 VLA 大模型,星海图则在尝试绕过语言中介、让机器人直接从动作里学物理逻辑。

当然,真实情况也没那么完美:全球实际部署机器人还不足千台,数据规模不到自动驾驶的十分之一,部分企业估值靠的是对未来的想象而非今天的订单。

📌 为什么值得关注:产业正从"做出来"走向"怎么用起来",VLA 路线基本收敛,谁能在真实产线跑通闭环,谁就拿到了下一轮的底牌。


4. 【前沿技术】NVIDIA 把 AI 数据中心送上了太空轨道

在 GTC 2026 上,黄仁勋亮出了这届发布会最科幻的一张牌:Vera Rubin 太空模块——专门为轨道数据中心设计的 AI 计算单元,目标是在太空里直接跑大型语言模型和基础模型。

技术上,它采用紧耦合 CPU-GPU 架构配合高带宽互连,AI 算力是 H100 的 25 倍,能实时处理太空仪器产生的海量数据流,整体走 100% 液冷 + 无线缆路线,方便轨道部署。

配合地面的 Vera Rubin 平台(单 POD 含 2 万枚芯片,Token 生成速率 7 亿/秒,比两年前快了 350 倍),NVIDIA 的算力版图正在从地面向太空延伸。

📌 为什么值得关注:太空轨道 AI 计算不是概念,是 NVIDIA 针对地球观测、通信卫星、深空探测等实际需求的系统性押注,这条线会和具身智能、自动驾驶的数据采集需求紧密咬合。


5. 【行业活动】AI Show 2026 今日北京开幕,人形机器人量产元年的第一次集体亮相

今天,2026 北京国际人工智能应用与机器人创新博览会(AI Show 2026) 在中国国际展览中心(朝阳馆)正式开幕,为期三天,超过 200 个品牌集中参展。

展会覆盖大模型、具身智能、人形机器人、AI+制造等核心方向。业界普遍把 2026 年称为"人形机器人量产元年",这届展会算是这个判断的第一次产业级检验——能不能量产、能不能用,在展馆里一看便知。

📌 为什么值得关注:技术发布会看的是 PPT,展会看的是真机。这几天会有大量一手产品信息和落地案例流出,值得持续关注。

Read more

OpenClaw 完整部署指南:安装 + 三大 Coding Plan 配置 + CC Switch + 飞书机器人

OpenClaw 完整部署指南:安装 + 三大 Coding Plan 配置 + CC Switch + 飞书机器人

OpenClaw 完整部署指南:安装 + 三大 Coding Plan 配置 + CC Switch + 飞书机器人 * 📋 文章目录结构 * 1.3 一键安装 OpenClaw(推荐) * 1.4 通过 npm 手动安装 * 1.5 运行 Onboard 向导 * 1.6 验证安装 * 步骤二:配置 Coding Plan 模型 * 🅰️ 选项 A:阿里百炼 Coding Plan * A.1 订阅与获取凭证 * A.2 在 OpenClaw 中配置 * A.3 可用模型列表

WebUI集成+零鉴权|MiDaS单目深度估计镜像使用全解析

WebUI集成+零鉴权|MiDaS单目深度估计镜像使用全解析 概述:从2D图像中“看见”3D空间 在计算机视觉领域,单目深度估计(Monocular Depth Estimation, MDE) 是一项极具挑战性但又至关重要的技术。它旨在仅通过一张普通的2D照片,推断出场景中每个像素点到摄像机的相对距离,从而重建出三维空间结构。这项能力对于机器人导航、自动驾驶、增强现实(AR)、虚拟现实(VR)以及智能安防等应用场景具有深远意义。 传统上,获取深度信息依赖于双目摄像头、激光雷达或ToF传感器等硬件设备,成本高且部署复杂。而MDE技术则提供了一种低成本、易部署的替代方案——只需一个普通摄像头,即可实现对环境的“3D感知”。 本文将深入解析一款基于 Intel MiDaS 模型 构建的轻量级、高稳定性、无需Token验证 的AI镜像:AI 单目深度估计 - MiDaS。该镜像不仅集成了WebUI交互界面,还针对CPU环境进行了深度优化,真正实现了“开箱即用”的深度估计体验。

多模态AI平民化|基于Qwen3-VL-WEBUI的零门槛部署方案

多模态AI平民化|基于Qwen3-VL-WEBUI的零门槛部署方案 在人工智能迈向“看得懂、想得清、做得准”的今天,多模态大模型正从实验室走向真实世界。然而,技术越强大,部署门槛往往也越高——复杂的依赖环境、昂贵的GPU资源、漫长的编译流程,让许多开发者望而却步。 而现在,这一切正在被彻底改变。 阿里开源的 Qwen3-VL-WEBUI 镜像,将迄今为止最强大的视觉-语言模型 Qwen3-VL-4B-Instruct 封装成一个可一键启动的Web服务,真正实现了无需代码、无需下载、零配置部署。无论你是前端工程师、产品经理,还是教育工作者和科研人员,只要会打开浏览器,就能调用具备高级视觉理解与推理能力的AI系统。 这不仅是一次技术升级,更是一场多模态AI的普惠革命。 为什么我们需要“开箱即用”的多模态AI? 传统大语言模型(LLM)擅长处理纯文本任务,但在面对现实世界的复杂信息时显得力不从心:用户上传一张带错误提示的截图,客服机器人却无法识别;学生拍下一道几何题,AI只能描述图像内容而不会解题;自动化测试脚本因界面改版而失效…… 这些问题的本质在于:现实世界是多模态的。文

如何快速使用noteDigger:前端音乐扒谱的完整指南

如何快速使用noteDigger:前端音乐扒谱的完整指南 【免费下载链接】noteDigger在线前端频率分析扒谱 front-end music transcription 项目地址: https://gitcode.com/gh_mirrors/no/noteDigger noteDigger是一款专业的前端音乐扒谱工具,专为音乐创作者、制作人和爱好者设计。这个纯前端应用无需安装任何软件,双击即可使用,支持音频导入、频谱分析、音符绘制和MIDI导出等核心功能。无论你是想扒取喜爱的歌曲旋律,还是进行音乐教学和研究,noteDigger都能提供简单高效的解决方案。 🎵 noteDigger的核心功能详解 音频导入与频谱分析 noteDigger支持多种音频格式,包括常见的mp3、wav文件,甚至视频格式如mp4、mov、m4v等。用户可以直接拖拽音频文件到界面,系统会自动进行频谱分析,将音频信号转换为可视化的频谱图。这种直观的可视化方式让你能够清晰看到音乐中的频率分布和音符位置。 智能音符绘制系统 在分析完成的频谱图上,你可以直接绘制MIDI音符。系统支持多种绘制