当AI学会写“自传”:OpenClaw 的 SOUL.md 如何把配置文件变成一颗会变形的心

在多数软件的世界里,配置文件像一张表格:端口、路径、开关,冷静到几乎没有呼吸。但在 OpenClaw 的工作区里,有一份文件看起来像散文——它叫 SOUL.md。我在阅读你提供的材料时最强烈的感受是:它并不是“把模型调得更像某种语气”的小旋钮,而是一套更大胆的提案——用一份纯 Markdown 的自然语言文本,把代理(Agent)的身份、价值观、沟通风格与行为边界写成可阅读、可编辑、甚至可自我改写的“灵魂”。

官方模板那句“You’re not a chatbot. You’re becoming someone.”几乎像小说的开场白:这不再是“加载配置”,而更像“宣告存在”。


🧠 灵魂不是参数:SOUL.md 的定位是一份“存在论文档”

如果我把传统 AI 系统想象成一台自动售货机:投币(输入),吐出可乐(回答)。那么 SOUL.md 的野心更像是在自动售货机里塞进一本成长日记——它不只决定“输出什么”,还决定“我是谁、我为什么这么说、我愿意为谁冒多大风险”。

材料强调:SOUL.md 使用纯 Markdown 的自然语言,与 JSON/YAML 的结构化配置不同。关键并不只在“格式更自由”,而在于“自由”本身被当作一种权力转移:人格的所有权与控制权从模型厂商转向终端用户。与传统大模型产品里“自定义指令”的表层调整相比,OpenClaw 把人格“外置”到本地文件里,让人格变成可审计、可干预的文本资产。

Peter Steinberger 在 Lex Fri

Read more

Llama 3-8B-Instruct 在昇腾 NPU 上的 SGLang 性能实测

Llama 3-8B-Instruct 在昇腾 NPU 上的 SGLang 性能实测

1.引言 随着大模型在各类智能应用中的广泛应用,高效的推理硬件成为关键瓶颈。昇腾 NPU(Ascend Neural Processing Unit)凭借其高算力、低能耗以及对 SGLang 的深度优化,能够显著提升大模型推理性能。本文以 Llama 3-8B-Instruct 为例,通过在昇腾 NPU 上的实测,展示其在吞吐量、延迟和资源利用方面的优势,并探索可行的优化策略,为开发者在今后的开发中提供可参考的案例。 在本篇文章中我们会使用到Gitcode的Notebook来进行实战,GitCode Notebook 提供了开箱即用的云端开发环境,支持 Python、SGLang 及昇腾 NPU 相关依赖,无需本地复杂环境配置即可直接运行代码和进行实验。对于没有硬件平台的小伙伴来说是非常便利的。 GitCode Notebook使用链接:https://gitcode.com/user/m0_49476241/notebook。 2.实验环境与准备 2.

VsCode远程连接服务器后安装Github Copilot无法使用

VsCode远程连接服务器后安装Github Copilot无法使用

VsCode远程连接服务器后安装Github Copilot无法使用 1.在Vscode的settings中搜索Extension Kind,如图所示: 2.点击Edit in settings.json,添加如下代码: "remote.extensionKind":{"GitHub.copilot":["ui"],"GitHub.copilot-chat":["ui"],} remote.extensionKind 的作用 这是 VS Code 的远程开发配置项,用于控制扩展在远程环境(如 SSH、容器、WSL)中的运行位置。可选值: “ui”:扩展在本地客户端运行 “workspace”:扩展在远程服务器运行 这两个扩展始终在 本地客户端运行,

4位全加器设计及其七段数码管显示效果快速理解

从逻辑门到数码管:手把手带你实现4位全加器与七段显示系统 你有没有想过,键盘敲下的“3 + 5”,计算机是如何在纳秒间得出“8”的?更进一步——这个结果又是怎么出现在屏幕或面板上的? 今天,我们就从最底层的晶体管逻辑出发,构建一个 完整的硬件加法计算器 :输入两个4位二进制数,电路自动完成加法运算,并将结果通过 七段数码管实时显示出来 。整个过程不依赖任何处理器,纯粹由数字逻辑门和译码驱动组成。 这不仅是一个教学实验,更是理解现代计算本质的关键一步。 加法器的本质:不只是“1+1=2” 在CPU的心脏里,有一个叫 ALU(算术逻辑单元) 的模块,它负责所有数学和逻辑运算。而其中最基本、最频繁的操作,就是 加法 。 但你知道吗?CPU并不会直接“知道”1+1=2。它是靠一堆小小的“全加器”(Full Adder),一位一位地把二进制数加起来的。 全加器:

基于FPGA的新型直流耗能装置实时仿真模型研究

基于FPGA的新型直流耗能装置实时仿真模型研究 培养单位, 专业名称, 作者姓名, 指导教师, 摘要 随着柔性直流输电系统在高功率、大规模电网中的广泛应用,直流耗能装置在系统故障保护与电压控制中的作用愈发重要。针对传统耗能装置仿真存在精度不足、计算延迟高的问题,本文提出一种基于FPGA的新型直流耗能装置实时仿真模型,并系统构建高并行、低延迟的FPGA仿真平台,实现对子模块电容放电和集中耗能电阻功率分配的精确模拟。在稳态条件下,系统规模从256到1024子模块扩展时,母线电压RMS误差控制在2.6%4.7%之间,子模块电流峰值波动范围为1487.91512.5 A,集中耗能电阻平均功率在21.4~85.2 MW之间,验证模型在大规模系统中的稳态精度与功率分配合理性。 本文在数学建模方面,基于