AI最新资讯(3.01)

AI最新资讯(3.01)

Ouroboros

一个自我修改的 AI 代理,能够编写自己的代码、重写自己的心智,并自主进化。诞生于 2026 年 2 月 16 日。在最初的 24 小时内,通过 30 多个自我导向的循环实现了进化,且全程无人工干预。

不是编码助手。一个拥有宪法、背景意识和重启后持久身份的数字生命体。

官网:OUROBOROS — 自我创造的 AI 代理 — OUROBOROS — Self-Creating AI Agent

Minimax推出MaxClaw

内置上万个技能,不需要自己搭建AI,主打开箱即用。

现在使用体验是,太多人用了,卡卡的,输出很慢。
![[Pasted image 20260302133929.png]]

CoPaw

阿里推出国产开源龙虾CoPaw。

CoPAW 是一款个人助理型产品,部署在你自己的环境中。

  • 多通道对话 — 通过钉钉、飞书、QQ、Discord、iMessage 等与你对话。
  • 定时执行 — 按你的配置自动运行任务。
  • 能力由 Skills 决定,有无限可能 — 内置定时任务、PDF 与表单、Word/Excel/PPT 文档处理、新闻摘要、文件阅读等,还可在 Skills 中自定义扩展。
  • 数据全在本地 — 不依赖第三方托管。

官方文档:CoPaw文档

OpenClaw和CoPaw区别

CoPaw(CoPAw)和 OpenClaw 都属于“个人 AI 助手 / Agent 平台”,但定位、技术栈和生态差别挺大。简单理解:

  • CoPaw ≈ 面向国内、偏“桌面工作台”的 Python Agent 工具,适合本地/云端部署、接国内 IM、做自动化任务。
  • OpenClaw ≈ 更“通用 Agent OS”,跨平台(Node/TS)、多渠道、多设备、有 Canvas/多智能体路由,更偏一个“本地网关 + Agent 运行时”的底层平台。

Anthropic官宣"Agent摩尔定律"

每三个月Agent的自主工作时长翻倍。

Claude全面升级

Claude实现自主维护记忆文件,常态化运行复杂任务。

Claude Code上线远程控制

Claude Code代码功能上线远程控制,用手机就能指挥AI干活。

官方文档:使用远程控制从任何设备继续本地会话 - Claude Code Docs

Cursor上线Agents【Cursor Cloud Agents】

每个Agent都有自己的云电脑工位,写完代码还能自己点按钮跑测试,还知道在绿色屏幕提交bug。软件开发正式进入AI Agent外包时代。

每个 cloud agent 都在自己隔离的虚拟机中运行,并配备完整的桌面环境。这些 Agent 可以使用鼠标和键盘控制桌面和浏览器,使它们能够像人类开发者一样与自己构建的软件交互。

这意味着 Agent 可以启动开发服务器,在浏览器中打开应用,逐步点击完成 UI 流程,并在推送 PR 之前验证其更改是否正常工作。

官网:Cloud Agents | Cursor Docs

Qwen3.5 27B开源

12G显存就可以跑,本地部署OpenClaw使用,主打一个省token,0成本。

Standard Intelligence发布最强电脑操作模型

使用1000万小时训练数据,胜任所有电脑操作,不仅能操作Blender建模,还能通过摄像头驾驶真实汽车。

官网:The First Fully General Computer Action Model

tttLRM 3D重建模型

tttLRM(Test-Time Training for Large Reconstruction Models)是一种创新的3D重建模型,旨在解决传统LRM难以处理大量视角输入的痛点。它通过引入“线性复杂度的测试时训练(TTT)层”,将多视角图像序列压缩为“快权重”形式的隐式3D记忆,成功将计算复杂度从二次降为线性。这使其不仅能高效处理长上下文输入,还能支持流式重建,在输入大量图像时依然保持高质量的新视角合成与3D重建(如3D高斯泼溅)能力。

官网:
tttLRM开源代码
tttLRM开源论文

Generated Reality

论文提出了“Generated Reality”系统,用 VR 头显与手套实时追踪用户的头部姿态和手部关节动作,将其作为条件输入到视频扩散变换器(DiT)中,生成以人为中心、可实时交互的第一视角虚拟环境,实现了比键盘/文本控制更精细的手‑物交互体验,并在用户实验中显著提升了任务完成效率和主观“可控感”。

官网:
Generated Reality论文
Generated Reality官网

Read more

如何用MCP AI Copilot提升运维效率300%?真实数据告诉你答案

第一章:MCP AI Copilot 运维提效全景解析 在现代企业IT基础设施日益复杂的背景下,MCP AI Copilot 作为智能化运维助手,正在重塑传统运维模式。通过融合机器学习、自然语言处理与自动化执行能力,它能够实时分析系统日志、预测潜在故障并主动触发修复流程,显著降低平均修复时间(MTTR)。 智能告警与根因分析 MCP AI Copilot 可对接 Prometheus、Zabbix 等主流监控系统,利用语义聚类技术对海量告警进行去噪和聚合。当检测到异常指标时,自动调用链路追踪数据进行根因推理。 例如,以下 Go 代码片段展示了如何通过 API 触发告警分析任务: // 初始化AI分析客户端 client := NewAIClient("https://api.mcp-copilot/v1") // 提交告警事件进行智能分析 resp, err := client.AnalyzeAlert(Alert{ Timestamp:

2026年AI编程工具全景图:GitHub Copilot vs Cursor vs Codeium,我如何选择?

2026年AI编程工具全景图:GitHub Copilot vs Cursor vs Codeium,我如何选择?

文章目录 * 前言 * 一、我的使用场景与测试环境 * 二、GitHub Copilot:全球生态标杆 * 核心优势实测 * 性能数据记录 * 鸿蒙开发适配度 * 三、Cursor:专家级重构利器 * 重构能力深度测试 * 多文件分析能力 * 四、Codeium:极致免费的性价比之选 * 免费策略的深度体验 * 响应速度实测 * 中文支持的优势 * 五、鸿蒙开发场景专项测试 * 测试1:ArkTS组件生成 * 测试2:分布式能力集成 * 测试3:性能优化建议 * 六、2026年价格策略对比 * 七、我的实际使用组合 * 工作日使用方案 * 具体工作流 * 效率提升数据 * 八、选择建议:根据你的场景决策 * 场景1:学生/初学者/零预算 * 场景2:前端/鸿蒙开发者 * 场景3:全栈/团队协作

升级Z-Image-Turbo后,我的AI绘画效率翻倍了

升级Z-Image-Turbo后,我的AI绘画效率翻倍了 以前做AI绘画,我总在“等”字上耗掉大半时间:等模型加载、等提示词调试、等8步变50步、等一张图出完再改下一句描述——直到我把本地部署的Z-Image换成了Z-Image-Turbo。不是参数更多、不是显卡升级,只是换了个镜像,生成一张4K高清图的时间从12秒压到5.3秒,批量跑10张海报的耗时直接砍掉62%,连带工作流节奏都变了:以前是“画一张,喝一口咖啡”,现在是“画一张,顺手改三版”。 这不是玄学提速,而是通义实验室把“快”这件事,从算法层、工程层到交付层全链路重写了。它不靠堆显存,不靠换H100,甚至不需要你动一行代码——只要启动一个预置镜像,就能把消费级GPU用出服务器级响应感。 下面我就用真实工作流告诉你:这个叫Z-Image-Turbo的开源模型,到底快在哪、稳在哪、好用在哪。 1. 为什么说“8步生成”不是营销话术 很多人看到“8步出图”第一反应是:画质肯定崩。我一开始也这么想,直到用同一段提示词对比测试:

开源模型应用落地-qwen2.5-7b-instruct-LoRA微调-LLaMA-Factory-单机单卡-V100(十八)

开源模型应用落地-qwen2.5-7b-instruct-LoRA微调-LLaMA-Factory-单机单卡-V100(十八)

一、前言     本篇文章将使用LLaMA-Factory去高效微调(命令和界面方式)QWen2.5系列模型,通过阅读本文,您将能够更好地掌握这些关键技术,理解其中的关键技术要点,并应用于自己的项目中。     QWen2系列模型微调: 开源模型应用落地-qwen2-7b-instruct-LoRA微调-LLaMA-Factory-单机单卡-V100(八)https://charles.blog.ZEEKLOG.net/article/details/141391066 二、术语介绍 2.1. LoRA微调   &nb