昇腾AI CANN训练营〔开源基础系列〕:从语法基础到算子实操,一站式构建 Ascend C 全链路编程能力

昇腾AI CANN训练营〔开源基础系列〕:从语法基础到算子实操,一站式构建 Ascend C 全链路编程能力

昇腾AI CANN训练营〔开源基础系列〕:从语法基础到算子实操,一站式构建 Ascend C 全链路编程能力

Ascend C 算子是什么

在这里插入图片描述
Ascend C 算子是基于 CANN 推出的支持 C/C++ 标准规范的编程语言 Ascend C 所开发的算子,编写的算子程序经编译器编译和运行时调度可在昇腾硬件上运行,助力开发者高效实现自定义创新算法;使用它开发自定义算子具有遵循 C/C++ 编程规范、自动并行调度获得最优执行性能、结构化核函数简化算子开发逻辑、CPU/NPU 孪生调试提升算子调试效率等优势。

Ascend C 编程模型

1、Ascend C 的核函数是算子在设备侧 AI Core 的执行入口,也是连接 CPU 与 NPU 的桥梁,编写核函数定义设备端计算逻辑,编译后可在昇腾硬件并行执行,是自定义算子的核心载体;采用 SPMD 模型,仅需写一份核函数代码,设备会自动分发到多 AI Core,各核心通过内置变量 block_idx 区分身份,独立处理数据分片,实现一份代码、多核心并行处理不同数据

2、核函数开发规则(需添加特定限定符,明确运行载体和类型)global:标识为可被主机端调用的设备函数aicore:明确在昇腾 AI Core 上执行(区别于 CUDA 的核函数)

3、参数与变量规则

入参类型:仅支持指针(需用 gm 标识指向全局内存,如gm float*)或 C/C++ 内置类型(如int32_t)

4、调用流程核函数如何被主机端触发(主机端通过特定语法调用核函数,需指定并行配置)blockDim:指定参与执行的 AI Core 数量l2ctrl:保留参数,暂设为 nullptrstream:任务队列( aclrtStream 类型),用于管理设备端任务的并行、串行执行

5、实践示例HelloWorld 核函数全流程核函数实现(设备侧逻辑)主机端调用(CPU 侧控制流程)

需配合 AscendCL(昇腾计算库)完成初始化、资源管理等步骤

Ascend C 硬件架构抽象与编程范式

Ascend C 基于硬件抽象架构,采用流水线式编程范式,将算子拆分为多个流水任务,通过 Queue 实现任务通信同步、Pipe 统一管理内存资源;其中 Vector 编程范式明确 CopyIn、Compute、CopyOut 三阶段流程,结合逻辑存储位置 TPosition 和张量对象 Global/LocalTensor 管理数据,并通过 Pipe、TBuf 分别完成常规与临时变量的内存分配回收,以此支撑算子在昇腾硬件上的高效开发执行基于硬件抽象架构屏蔽底层差异,采用流水线式编程范式,将算子拆分为流水任务并通过 Queue 实现任务通信同步,依托 Pipe 统一管理设备侧资源核心的 Vector 编程范式明确 CopyIn(数据搬入)、Compute(向量计算)、CopyOut(数据搬出)三阶段流程,结合 TPosition及GlobalTensor/LocalTensor实现精细化数据管理通过 Pipe 分配回收常规内存、TBuf 管理临时变量内存,保障内存高效利用,支撑算子在昇腾硬件上的高效开发与执行

Ascend C API 体系:基础与高层 API 的分层赋能

在这里插入图片描述
Ascend C 的 API 体系分为基础 API和高层 API,分别支撑底层功能灵活组合与上层算法快速落地的开发需求
基础 API:底层能力的灵活拼接
1、计算类 API:分为标量(Scalar 单元)、向量(Vector 单元)、矩阵(Cube 单元)三类,适配不同粒度的计算场景

2、数据搬运 API:以DataCopy为核心,实现Global Memory与Local Memory间的数据迁移

3、内存管理 API:通过AllocTensor/FreeTensor管理内存生命周期

4、任务同步 API:通过EnQue/DeQue实现任务间通信
高层 API:上层算法的高效封装
高层 API 封装了 Matmul、Softmax 等常用算法逻辑,借助 “对象化封装 + 流程化调用” 模式,将复杂算法逻辑转化为简洁的 API 调用,既减少了重复开发工作,又大幅提升了开发效率

基于 Kernel 直调工程的算子开发

核函数定义
用 global__ __aicore 限定符定义设备侧入口,调用算子类的初始化与处理函数
算子类实现
通过CopyIn(数据从 Global 搬入 Local)、Compute(向量加法)、CopyOut(结果搬出至 Global)三个流水任务实现逻辑,结合Queue做任务同步、Pipe做内存管理
init实现
KernelAdd 类的 Init 方法主要做两件事:通过 block_idx 给当前 AI Core 划分全局内存数据,把 xGM、yGM、zGM 绑定到当前核心的处理区域,实现多核并行;用 pipe 初始化输入输出队列的双缓冲内存,按 TILE_LENGTH 分配内存块,队列深度设为 BUFFER_NUM,支撑流水线并行
Process() 实现
KernelAdd 类的 Process () 方法通过循环调度 CopyIn、Compute、CopyOut 三个阶段,结合双缓冲实现流水线并行

流程中,CopyIn 将全局内存数据搬入本地并通过队列同步,Compute 执行向量加法并将结果入队,CopyOut 将结果搬回全局内存,借助双缓冲和流水线机制让数据搬运与计算并行,提升昇腾 AI Core 的 Vector 单元利用率
ddCustom算子的主机侧 main.cpp
CPU 模式逻辑(用于算法逻辑快速验证,不依赖昇腾硬件,直接在 CPU 上执行计算)NPU 模式主机侧逻辑(用于在昇腾 NPU 硬件上执行算子,充分利用硬件加速能力)
数据生成脚本gen_data.py
基于 NumPy 编写,用于生成 AddCustom 算子的输入数据和真值数据,为算子的功能验证提供标准化的输入与预期结果参考

实现逻辑:生成两个形状为(8, 2048)的 float16 随机输入数据input_x 和 input_y(数值范围 1-100)计算加法算子的真值数据 golden(即 input_x + input_y)将输入数据和真值数据以二进制格式分别保存到指定路径,供后续算子调用、验证时使用

用途

为 AddCustom 算子的开发、调试和测试提供一致的输入源与真值基准,确保算子计算结果的准确性
简单工程执行
在这里插入图片描述
Ascend C 算子的简易工程执行方式:将编译和执行命令封装到run.sh脚本中,可通过不同参数实现 CPU 和 NPU 模式下的算子运行调试CPU 模式:执行 bash run.sh -v Ascend910x -r cpu ,通过 md5 校验 output_z.bin 与 golden.bin 一致性验证执行成功;架构依赖 Host APP、CPU 调用库、算子 kernel 程序和 AscendC 类库NPU 模式:执行 bash run.sh -v Ascend910x -r npu,通过 md5 校验验证编译、执行成功;架构依赖 Host APP、AscendCL API 库及设备侧算子 kernel 程序、AscendC 类库,实现主机 - 设备交互与功能验证

Read more

OpenClaw 2026.3.13 重磅发布:Dashboard-v2 开启本地 AI 助理“控制台革命”,Agent 协同效率飞跃

OpenClaw 2026.3.13 重磅发布:Dashboard-v2 开启本地 AI 助理“控制台革命”,Agent 协同效率飞跃

发布时间:2026 年 3 月 13 日 核心标签:#OpenClaw #本地AI #开源架构 #Dashboard-v2 #AI助理 📝 前言:本地 AI 的“iPhone 4”时刻 在 AI 领域,2026 年被公认为是“本地私有化”爆发的元年。随着隐私政策的收紧和边缘计算能力的跃升,曾经高度依赖 API 的开发者们纷纷转向本地部署。 就在今天凌晨,备受瞩目的开源项目 OpenClaw 正式将开发分支 bump 至 2026.3.13,同时发布了稳定版 v2026.3.12。这不仅仅是一个版本号的跳跃,更是 OpenClaw 从“极客命令行工具”向“

脉脉独家【AI创作者xAMA】| 开启智能创作新时代

脉脉独家【AI创作者xAMA】| 开启智能创作新时代

🔥草莓熊Lotso:个人主页 ❄️个人专栏: 《C++知识分享》《Linux 入门到实践:零基础也能懂》 ✨生活是默默的坚持,毅力是永久的享受! 🎬 博主简介: 文章目录 * 前言: * 一、脉脉:AI创作者的职场成长沃土 * 二、AI创作者xAMA:聚焦智能创作的深度对话 * (一)顶级嘉宾阵容,覆盖AI创作全链路 * (二)核心交流话题,精准戳中AI创作者痛点 * (三)丰富参与方式与福利,激发AI创作者热情 * 三、AI创作者的机遇与挑战 * (一)机遇 * (二)挑战 前言: 在AI技术飞速发展的当下,创作领域正经历着前所未有的变革。脉脉平台敏锐地捕捉到这一趋势,推出了专为AI创作者打造的 【AI创作者xAMA】 活动,为广大AI创作者提供了一个与行业大咖深度交流、学习成长的绝佳平台。 一、脉脉:AI创作者的职场成长沃土 脉脉早已不再是简单的职场社交App,它已成为覆盖1.2亿+中高端职场人的“

OpenClaw 都在排队养,你还在云端白嫖?手把手教你用 Python 搭建本地 AI 智能体(小白也能养自己的小龙虾)

OpenClaw 都在排队养,你还在云端白嫖?手把手教你用 Python 搭建本地 AI 智能体(小白也能养自己的小龙虾)

🦞 长文警告! 📜 文章目录(点击跳转,这波操作稳如老狗) 1. 前言:别再当云端 AI 的韭菜了,把“小龙虾”养在自己家 2. 第一步:给电脑装个“胃”——下载安装 Python(含官网地址) 3. 第二步:请个本地“大脑”——Ollama + Qwen 模型(白嫖党狂喜) 4. 第三步:搭个“龙虾笼子”——安装 OpenClaw(附项目地址) 5. 第四步:用 Python 写个“传话筒”,让你的小龙虾听你指挥 6. 第五步:第一次对话——你的本地贾维斯上线 7. 总结:白嫖虽好,但别让龙虾把你的电脑“钳”

figma + claude + weavy AI :从会用到用好

figma + claude + weavy AI :从会用到用好

Google ai studio + figma + claude.ai + cosmos + Design with Weavy AI 这套头脑风暴工具看完后,你一定可从其中悟出独特、见解,并为之惊讶。我们不需要自己动手去建房子,我们可以借助不同的工具,去找找灵感,为自己创造东西,自然而然的知道自己的感受,和想要的感受。 1 / GoogleAIStudio 端到端 制定原型 GoogleAIStudio非常好,因为它能端到端完成。然后我发现Gemini在界面设计上真的很厉害!(本次以开发一款音乐日记讲述全流程)。 2 / claude.ai 制定品牌指南 (生成品牌指南 guidelines ) 先谈谈设计思想。 就像电影和电视剧有开头、中间、结尾一样,我们现在还不太在意中间和结尾。用户他们不应该觉得我们在抢他们的注意力,或者强迫他们。用户更不愿意看到一堆广告和各种乱七八糟的东西。 很多人,觉得品牌指南听起来很像企业用语,但我认为如claude、gemin这些头脑风暴工具一定能帮助我们找到想要的点。利用claude制定品牌指南,自己想要什么,我们可以看看这个,