海光 DUC 环境(海光 DCU K100_AI)部署 ollama+deepseek

看到 ZEEKLOG 上好多的这个部署流程不是要收费就是写的不清不楚,所以决定将我的部署流程写出来,明明所有的官方文档都是免费的。

“不太懂为什么吃了别人免费的饭,现在拉出来的屎要收费!”

声明:本人不是专业运维实施人员,所有的流程都是靠试或直觉,还有一点点的知识

正式开始:

系统:Kylin Linux Advanced Server V10(Lance)

CPU:海光 C86 7360(24 核)

内存:256GB

内核:Linux-4.19.90-52.48.v2207.ky10.x86_64

显卡:海光 DCU K100_AI(Co-processor)

1. 环境部署

1.1 驱动安装

光合开发者社区下载驱动

通过显卡型号选择驱动

驱动版本

支持硬件

推荐DTK版本

rock-4.0-23-5.6.25

Z100/Z100L

21.04/21.10/22.04

rock-4.5.2-5.11.40

Z100/Z100L

22.04/22.10/23.04

rock-5.2.0-5.16.18

Z100/Z100L

22.10/23.04

rock-5.2.0-5.16.29

Z100/Z100L/K100

23.04/23.10

rock-5.7.1-6.2.26+

Z100/Z100L/K100/K100-AI

24.04/25.04

rock-6.3.8+

BW1000/K100-AI/K100/Z100L/Z100

25.04

安装驱动环境

centos:yum install -y rpm-build gcc-c++ cmake automake elfutils-libelf-devel libdrm libdrm-devel pciutils ubuntu:apt install -y gcc g++ cmake automake libelf-dev libdrm_amdgpu1或libdrm-amdgpu1 libtinfo5 pciutils libdrm-dev Centos:yum install -y kernel-devel-`uname -r` kernel-modules-extra ubuntu:apt install -y linux-headers-`uname -r` linux-modules-extra
chmod +x rock*.run systemctl restart hymgr
我这里选择安装 6.2.x 以下的驱动,因为 6.2.x 以上的驱动标识为hycu,以下的标识为hydcu,ollama 检测驱动时会检测标识为hydcu的驱动,如果安装新的会出现找不到 GPU 的问题。

以上内容是通过 ollama 日志猜测。。。
光合官方备注:

1)新版本驱动依赖cmake版本要高于3.2,gcc版本要大于7.3

2)kernel 版本要与kernel-devel版本一致

3)6.2.以前的驱动显示的模块名称是hydcu,6.3.以后的驱动模块是hycu。

4)6.3.*驱动下,docker调用时,推荐挂载/sys/kernel/debug路径,不然,容器内无法获取到dcu进程信息

1.2 DCU 环境安装

https://sourcefind.cn/#/image/dcu/pytorch?activeName=overview

拉取镜像要注意dtk的版本要跟你自己驱动的版本相匹配,上面有对应版本的表格,尽量新一点

推荐容器化部署,如果手动安装坑太多了!

docker run \ --shm-size 64g \ --network=host \ --name=test \ --privileged \ --device=/dev/kfd \ --device=/dev/dri \ --group-add video \ --cap-add=SYS_PTRACE \ --security-opt seccomp=unconfined \ -v {宿主机工作目录}:/home/ \ -v /opt/hyhal:/opt/hyhal:ro \ --it {镜像 id} bash
  • --shm-size 64g
    • 缓存区大小,默认好像是 64M
容器化部署就是这么简单,有兴趣可以了解下手动部署的流程

2. ollama 安装

进入容器内部 docker exec -it test bash

https://sourcefind.cn/#/model-zoo/1888167889015537665

下载模型和 ollma 用到的inference文件

cd inference pip install -r requirements.txt

这里有警告不要紧,因为有些环境在容器中已经包含,再次安装就是会有警告

2.1 编译 ollama

因为 ollama 默认适配的是英伟达的 CUDA 架构,并没有默认适配海光,所以还是得从光源下载

http://developer.sourcefind.cn/codes/OpenDAS

# 注意,这里的代码版本和 go 的版本是强绑定的,这里如果更换,下面的流程就会发生变化!!! git clone -b 0.5.7 http://developer.sourcefind.cn/codes/OpenDAS/ollama.git --depth=1 cd ollama # 编译 wget https://go.dev/dl/go1.23.4.linux-amd64.tar.gz tar -C /usr/local -xzf go1.23.4.linux-amd64.tar.gz export PATH=$PATH:/usr/local/go/bin # 修改go下载源,提升速度(按需设置) go env -w GOPROXY=https://goproxy.cn,direct # 运行编译 export LIBRARY_PATH=/opt/dtk/lib:$LIBRARY_PATH make -j 16 go build .

这时 ollama 文件夹中会出现一个 ollama 可执行文件

2.2 运行

设备可以通过 rocminforocm-smi查询

export HSA_OVERRIDE_GFX_VERSION=设备型号(如: Z100L gfx906对应9.0.6;K100 gfx926对应9.2.6;K100AI gfx928对应9.2.8) # 例如 export HSA_OVERRIDE_GFX_VERSION=9.2.8 export ROCR_VISIBLE_DEVICES=显卡序号(0,1,2,3,4,5,6,...) # 例如 export ROCR_VISIBLE_DEVICES=0,1,2,3 ./ollama serve # 另开一个窗口 ./ollama run deepseek-r1:14b

注意:ollama 启动后,要确认显卡启用,ollama 日志中会有

测试是否可以正常使用

curl http://localhost:11434/api/chat -d '{"model":"deepseek-r1:14b","messages":[{"role":"user","content":"为什么天空是蓝色的?"}]}' curl http://localhost:11434/api/generate -d '{"model":"deepseek-r1:14b","prompt":"为什么天空是蓝色的?"}' curl http://172.30.0.217:11434/api/chat -d '{"model":"deepseek-r1:14b","messages":[{"role":"user","content":"为什么天空是蓝色的?"}]}' curl http://172.30.0.217:11434/api/generate -d '{"model":"deepseek-r1:14b","prompt":"为什么天空是蓝色的?"}'

如果其它服务器无法访问,添加环境变量

OLLAMA_HOST=0.0.0.0:11434

# 监听所有 ip,默认监听 127.0.0.1:11434

3. 制作 docker 镜像

为了方便使用,这里将已经成功运行并已经部署好 ollama 和模型的容器只作为镜像

docker commit \ --change 'ENV PATH=$PATH:/usr/local/go/bin' \ --change 'ENV LIBRARY_PATH=/opt/dtk/lib:$LIBRARY_PATH' \ --change 'ENV HSA_OVERRIDE_GFX_VERSION=9.2.8' \ --change 'ENV ROCR_VISIBLE_DEVICES=0' \ --change 'CMD ["/workspace/ollama/ollama", "serve"]' \ test dcu-ollama-deepseek:0.0.1

运行:dcu-ollama-deepseek:0.0.1

docker run \ -d \ --restart=always \ --shm-size 64g \ --network=host \ --name=ollama \ --privileged \ --device=/dev/kfd \ --device=/dev/dri \ --group-add video \ --cap-add=SYS_PTRACE \ --security-opt seccomp=unconfined \ -e OLLAMA_HOST=0.0.0.0:11434 \ -v /usr/local/develop/data/ollama:/home/ \ -v /opt/hyhal:/opt/hyhal:ro \ dcu-ollama-deepseek:0.0.1

4. 参考

https://developer.sourcefind.cn/tool

https://developer.sourcefind.cn/gitbook//dcu_tutorial/#15

https://sourcefind.cn/#/image/dcu/pytorch?activeName=overview

https://download.sourcefind.cn:65024/6/main/

https://sourcefind.cn/#/model-zoo/1888167889015537665

国产化硬件任重道远,我们开发的关键是要保持好心态,耐心点,总能将问题解决🙂

Read more

用 OpenClaw 配置 Codex 5.3:一套“性价比很高”的个人 AI 编程方案

用 OpenClaw 配置 Codex 5.3:一套“性价比很高”的个人 AI 编程方案

这篇是我自己的实战复盘:从 OAuth 报错、模型没切过去,到最终把 OpenClaw 稳定跑在 openai-codex/gpt-5.3-codex 上,并通过飞书远程使用。 先说结论 如果你也在找「便宜 + 强 + 可控」的方案,我现在这套组合非常能打: * OpenClaw 负责 Agent 编排(工具、文件、会话、渠道) * OpenAI Codex 5.3 负责核心编码能力 * Feishu 作为消息入口(随时远程下指令) * 本地 Workspace 放在 G:\claw,项目资产可控 这套的性价比点在于: 1. 不需要重搭一整套复杂平台 2. Codex 5.3 编码质量明显高于普通通用模型

国产 AI 编程助手全景:哪些像 Claude Code?哪些可平替?差异与成本(技术分享)

国产 AI 编程助手全景:哪些像 Claude Code?哪些可平替?差异与成本(技术分享)

摘要 Claude Code 的核心价值是:“代理式”把活做完(读项目 → 多文件修改 → 跑命令/测试 → 迭代验证),而不是只给建议;在国内,最接近这种“能闭环交付”的,主要来自云厂商/大厂的 智能编码助手 + 智能体/AI 程序员能力(多文件改动、自动排错、生成单测等),常见形态是 IDE 插件/云 IDE/企业私有化。本文按“可替代程度”给你一个国产清单,并用差异点 + 价格口径帮助你选。 1)国内有哪些类似软件(按“可替代 Claude Code 的程度”分组) A. 最接近 Claude Code 的“代理式闭环”

Python开发者的创意免疫系统:当AI入侵数据时如何防御

Python开发者的创意免疫系统:当AI入侵数据时如何防御

前言:哈喽,大家好,今天给大家分享一篇文章!并提供具体代码帮助大家深入理解,彻底掌握!创作不易,如果能帮助到大家或者给大家一些灵感和启发,欢迎点赞 + 收藏 + 关注哦 💕 Python开发者的创意免疫系统:当AI入侵数据时如何防御 📚 本文简介 AI分析用户数据生成模块,不是创意的终结,而是新起点。🚀 Python让你有能力把AI当工具,而不是威胁。咱们的创意,像Python代码一样——可读、可扩展、永远有优化空间。未来,AI可能更智能,但人类的脑洞,永远是那个“杀手级应用”。所以,别焦虑,拿起键盘,用Python写点有灵魂的代码吧! 目录 * Python开发者的创意免疫系统:当AI入侵数据时如何防御 * 📚 本文简介 * 📚 一、引言:AI的数据自助餐与创意的饥饿游戏 * 📚 二、AI如何“嚼数据吐模块”:技术解剖与幽默解读 * 📘1、AI的数据消化系统:从用户数据到功能模块的流水线 * 📘2、Python在AI数据解析中的角色:幽默技术栈揭秘

愚人节最大“乌龙”:不是玩笑!Claude Code 51万行源码裸奔,AI独角兽栽在低级失误里

愚人节最大“乌龙”:不是玩笑!Claude Code 51万行源码裸奔,AI独角兽栽在低级失误里

4月1日愚人节,全网都在分辨真假段子、花式整活,但AI圈炸锅的Claude Code源码泄露事件,却半点玩笑成分都没有——这是一场由前端基础失误引发的史诗级技术事故,更是估值数百亿AI独角兽Anthropic,在全球开发者面前上演的大型“社死现场”。 3月31日,安全研究员Chaofan Shou在X平台曝出重磅消息:Anthropic官方npm包中,因漏删调试文件,直接把Claude Code的完整源码公之于众。消息发酵恰逢愚人节,无数人第一反应以为是恶搞,可事实狠狠打脸:51.2万行TypeScript代码、1900+源文件、40+功能模块,连同一堆未官宣的黑科技,全在网上“裸奔”了。 先划重点:这真不是愚人节彩蛋! 很多人第一反应:“今天4月1日,该不会是Anthropic搞的营销彩蛋吧?” 直接实锤:这是100%的真实事故,绝非策划。 1. 官方紧急止损:Anthropic第一时间下架泄露版本v2.1.88、删除npm包中的问题文件,还对GitHub上的镜像仓库发起DMCA下架投诉——若是彩蛋,完全没必要拼命阻止传播。 2. 二次翻同款车祸: