AI最新资讯(3.01)

AI最新资讯(3.01)

Ouroboros

一个自我修改的 AI 代理,能够编写自己的代码、重写自己的心智,并自主进化。诞生于 2026 年 2 月 16 日。在最初的 24 小时内,通过 30 多个自我导向的循环实现了进化,且全程无人工干预。

不是编码助手。一个拥有宪法、背景意识和重启后持久身份的数字生命体。

官网:OUROBOROS — 自我创造的 AI 代理 — OUROBOROS — Self-Creating AI Agent

Minimax推出MaxClaw

内置上万个技能,不需要自己搭建AI,主打开箱即用。

现在使用体验是,太多人用了,卡卡的,输出很慢。
![[Pasted image 20260302133929.png]]

CoPaw

阿里推出国产开源龙虾CoPaw。

CoPAW 是一款个人助理型产品,部署在你自己的环境中。

  • 多通道对话 — 通过钉钉、飞书、QQ、Discord、iMessage 等与你对话。
  • 定时执行 — 按你的配置自动运行任务。
  • 能力由 Skills 决定,有无限可能 — 内置定时任务、PDF 与表单、Word/Excel/PPT 文档处理、新闻摘要、文件阅读等,还可在 Skills 中自定义扩展。
  • 数据全在本地 — 不依赖第三方托管。

官方文档:CoPaw文档

OpenClaw和CoPaw区别

CoPaw(CoPAw)和 OpenClaw 都属于“个人 AI 助手 / Agent 平台”,但定位、技术栈和生态差别挺大。简单理解:

  • CoPaw ≈ 面向国内、偏“桌面工作台”的 Python Agent 工具,适合本地/云端部署、接国内 IM、做自动化任务。
  • OpenClaw ≈ 更“通用 Agent OS”,跨平台(Node/TS)、多渠道、多设备、有 Canvas/多智能体路由,更偏一个“本地网关 + Agent 运行时”的底层平台。

Anthropic官宣"Agent摩尔定律"

每三个月Agent的自主工作时长翻倍。

Claude全面升级

Claude实现自主维护记忆文件,常态化运行复杂任务。

Claude Code上线远程控制

Claude Code代码功能上线远程控制,用手机就能指挥AI干活。

官方文档:使用远程控制从任何设备继续本地会话 - Claude Code Docs

Cursor上线Agents【Cursor Cloud Agents】

每个Agent都有自己的云电脑工位,写完代码还能自己点按钮跑测试,还知道在绿色屏幕提交bug。软件开发正式进入AI Agent外包时代。

每个 cloud agent 都在自己隔离的虚拟机中运行,并配备完整的桌面环境。这些 Agent 可以使用鼠标和键盘控制桌面和浏览器,使它们能够像人类开发者一样与自己构建的软件交互。

这意味着 Agent 可以启动开发服务器,在浏览器中打开应用,逐步点击完成 UI 流程,并在推送 PR 之前验证其更改是否正常工作。

官网:Cloud Agents | Cursor Docs

Qwen3.5 27B开源

12G显存就可以跑,本地部署OpenClaw使用,主打一个省token,0成本。

Standard Intelligence发布最强电脑操作模型

使用1000万小时训练数据,胜任所有电脑操作,不仅能操作Blender建模,还能通过摄像头驾驶真实汽车。

官网:The First Fully General Computer Action Model

tttLRM 3D重建模型

tttLRM(Test-Time Training for Large Reconstruction Models)是一种创新的3D重建模型,旨在解决传统LRM难以处理大量视角输入的痛点。它通过引入“线性复杂度的测试时训练(TTT)层”,将多视角图像序列压缩为“快权重”形式的隐式3D记忆,成功将计算复杂度从二次降为线性。这使其不仅能高效处理长上下文输入,还能支持流式重建,在输入大量图像时依然保持高质量的新视角合成与3D重建(如3D高斯泼溅)能力。

官网:
tttLRM开源代码
tttLRM开源论文

Generated Reality

论文提出了“Generated Reality”系统,用 VR 头显与手套实时追踪用户的头部姿态和手部关节动作,将其作为条件输入到视频扩散变换器(DiT)中,生成以人为中心、可实时交互的第一视角虚拟环境,实现了比键盘/文本控制更精细的手‑物交互体验,并在用户实验中显著提升了任务完成效率和主观“可控感”。

官网:
Generated Reality论文
Generated Reality官网

Read more

自回归生成原理剖析:从零实现一个‘逐字生成‘的AI写作模型

快速体验 在开始今天关于 自回归生成原理剖析:从零实现一个'逐字生成'的AI写作模型 的探讨之前,我想先分享一个最近让我觉得很有意思的全栈技术挑战。 我们常说 AI 是未来,但作为开发者,如何将大模型(LLM)真正落地为一个低延迟、可交互的实时系统,而不仅仅是调个 API? 这里有一个非常硬核的动手实验:基于火山引擎豆包大模型,从零搭建一个实时语音通话应用。它不是简单的问答,而是需要你亲手打通 ASR(语音识别)→ LLM(大脑思考)→ TTS(语音合成)的完整 WebSocket 链路。对于想要掌握 AI 原生应用架构的同学来说,这是个绝佳的练手项目。 从0到1构建生产级别应用,脱离Demo,点击打开 从0打造个人豆包实时通话AI动手实验 自回归生成原理剖析:从零实现一个'逐字生成'的AI写作模型 语言模型基础与生成范式对比 在自然语言处理(

Intel GPU加速llama.cpp:SYCL后端完整配置与性能调优指南

Intel GPU加速llama.cpp:SYCL后端完整配置与性能调优指南 【免费下载链接】llama.cppPort of Facebook's LLaMA model in C/C++ 项目地址: https://gitcode.com/GitHub_Trending/ll/llama.cpp 随着Intel Arc显卡在消费级市场的普及,越来越多的开发者希望利用Intel GPU来加速大语言模型的推理。llama.cpp作为当前最流行的开源LLM推理框架,通过SYCL后端为Intel GPU提供了强大的计算支持。本文将从实际使用角度出发,深入解析SYCL后端的配置要点和性能优化技巧。 为什么SYCL是Intel GPU的最佳选择? 在llama.cpp的多后端架构中,SYCL相比传统的OpenCL具有显著优势。SYCL基于现代C++标准,提供了更简洁的编程模型和更好的编译器支持。对于Intel Arc显卡用户,SYCL能够充分利用Xe架构的硬件特性,在矩阵乘法等核心操作上实现更高的计算效率。 环境配置:避开常见的安装陷阱 正确安装Intel

AIGC 应用工程师、人工智能训练工程师、人工智能算法工程师、人工智能标注工程师、AI智能体应用工程师、生成式人工智能应用工程师

(一)报考条件:年满18周岁 (二)报名及考试流程  1.  学生填写报名表:姓名、性别、身份证号、电话号码、所报证书名称、级别,务必保证信息正确。 2. 使用电子照片要求: 背景颜色:蓝色、白色; 3. 拿证周期:3-4个月 人工智能应用工程师(高级)课程体系解读 课程体系围绕人工智能应用工程师(高级) 职业技能培养,分 6 大阶段,覆盖环境搭建、数据处理、核心算法、实战应用、效果测试与职业考核全流程,是从基础到高阶的完整 AI 应用开发学习路径。 一、阶段核心内容与能力目标 1. 人工智能环境管理 * 核心课程:环境与存储系统配置 * 知识模块:Python/Spark 环境搭建、虚拟机与

终于把LLaMA 2跑起来了,然后呢?本地大模型部署的残酷真相!

终于把LLaMA 2跑起来了,然后呢?本地大模型部署的残酷真相!

“终于把LLaMA 2跑起来了!” 深夜11点,程序员小林在朋友圈晒出电脑屏幕截图——黑色命令行窗口里,一行行代码滚动后,本地大模型吐出了第一句回答。他兴奋地刷新着评论区,看着“大佬”“技术牛”的赞美,感觉自己摸到了AI时代的“核心门槛”。 可这份热情没能撑过一个月。如今,那台专门升级了显卡的电脑,大模型程序静静躺在硬盘深处,偶尔开机,也只是为了清理缓存。“生成一句话要等10秒,写周报还能把部门名写错,不如直接用GPT-4 API,3秒出结果还靠谱。”小林的话,道出了无数本地部署玩家的心声。 2023年以来,“本地部署大模型”成了AI圈的热门话题。从技术博主的“手把手教程”,到论坛里的“配置交流帖”,仿佛人人都能拥有一台“私人AI服务器”。但热闹背后,是一场无声的“弃坑潮”:某技术社区调研显示,70%的个人用户在部署完成后3个月内停止使用,曾经的“技术勋章”,最终沦为“电子垃圾”。 这股热情的消退,绝非偶然。当“掌控AI”