海光 DUC 环境(海光 DCU K100_AI)部署 ollama+deepseek

看到 ZEEKLOG 上好多的这个部署流程不是要收费就是写的不清不楚,所以决定将我的部署流程写出来,明明所有的官方文档都是免费的。

“不太懂为什么吃了别人免费的饭,现在拉出来的屎要收费!”

声明:本人不是专业运维实施人员,所有的流程都是靠试或直觉,还有一点点的知识

正式开始:

系统:Kylin Linux Advanced Server V10(Lance)

CPU:海光 C86 7360(24 核)

内存:256GB

内核:Linux-4.19.90-52.48.v2207.ky10.x86_64

显卡:海光 DCU K100_AI(Co-processor)

1. 环境部署

1.1 驱动安装

光合开发者社区下载驱动

通过显卡型号选择驱动

驱动版本

支持硬件

推荐DTK版本

rock-4.0-23-5.6.25

Z100/Z100L

21.04/21.10/22.04

rock-4.5.2-5.11.40

Z100/Z100L

22.04/22.10/23.04

rock-5.2.0-5.16.18

Z100/Z100L

22.10/23.04

rock-5.2.0-5.16.29

Z100/Z100L/K100

23.04/23.10

rock-5.7.1-6.2.26+

Z100/Z100L/K100/K100-AI

24.04/25.04

rock-6.3.8+

BW1000/K100-AI/K100/Z100L/Z100

25.04

安装驱动环境

centos:yum install -y rpm-build gcc-c++ cmake automake elfutils-libelf-devel libdrm libdrm-devel pciutils ubuntu:apt install -y gcc g++ cmake automake libelf-dev libdrm_amdgpu1或libdrm-amdgpu1 libtinfo5 pciutils libdrm-dev Centos:yum install -y kernel-devel-`uname -r` kernel-modules-extra ubuntu:apt install -y linux-headers-`uname -r` linux-modules-extra
chmod +x rock*.run systemctl restart hymgr
我这里选择安装 6.2.x 以下的驱动,因为 6.2.x 以上的驱动标识为hycu,以下的标识为hydcu,ollama 检测驱动时会检测标识为hydcu的驱动,如果安装新的会出现找不到 GPU 的问题。

以上内容是通过 ollama 日志猜测。。。
光合官方备注:

1)新版本驱动依赖cmake版本要高于3.2,gcc版本要大于7.3

2)kernel 版本要与kernel-devel版本一致

3)6.2.以前的驱动显示的模块名称是hydcu,6.3.以后的驱动模块是hycu。

4)6.3.*驱动下,docker调用时,推荐挂载/sys/kernel/debug路径,不然,容器内无法获取到dcu进程信息

1.2 DCU 环境安装

https://sourcefind.cn/#/image/dcu/pytorch?activeName=overview

拉取镜像要注意dtk的版本要跟你自己驱动的版本相匹配,上面有对应版本的表格,尽量新一点

推荐容器化部署,如果手动安装坑太多了!

docker run \ --shm-size 64g \ --network=host \ --name=test \ --privileged \ --device=/dev/kfd \ --device=/dev/dri \ --group-add video \ --cap-add=SYS_PTRACE \ --security-opt seccomp=unconfined \ -v {宿主机工作目录}:/home/ \ -v /opt/hyhal:/opt/hyhal:ro \ --it {镜像 id} bash
  • --shm-size 64g
    • 缓存区大小,默认好像是 64M
容器化部署就是这么简单,有兴趣可以了解下手动部署的流程

2. ollama 安装

进入容器内部 docker exec -it test bash

https://sourcefind.cn/#/model-zoo/1888167889015537665

下载模型和 ollma 用到的inference文件

cd inference pip install -r requirements.txt

这里有警告不要紧,因为有些环境在容器中已经包含,再次安装就是会有警告

2.1 编译 ollama

因为 ollama 默认适配的是英伟达的 CUDA 架构,并没有默认适配海光,所以还是得从光源下载

http://developer.sourcefind.cn/codes/OpenDAS

# 注意,这里的代码版本和 go 的版本是强绑定的,这里如果更换,下面的流程就会发生变化!!! git clone -b 0.5.7 http://developer.sourcefind.cn/codes/OpenDAS/ollama.git --depth=1 cd ollama # 编译 wget https://go.dev/dl/go1.23.4.linux-amd64.tar.gz tar -C /usr/local -xzf go1.23.4.linux-amd64.tar.gz export PATH=$PATH:/usr/local/go/bin # 修改go下载源,提升速度(按需设置) go env -w GOPROXY=https://goproxy.cn,direct # 运行编译 export LIBRARY_PATH=/opt/dtk/lib:$LIBRARY_PATH make -j 16 go build .

这时 ollama 文件夹中会出现一个 ollama 可执行文件

2.2 运行

设备可以通过 rocminforocm-smi查询

export HSA_OVERRIDE_GFX_VERSION=设备型号(如: Z100L gfx906对应9.0.6;K100 gfx926对应9.2.6;K100AI gfx928对应9.2.8) # 例如 export HSA_OVERRIDE_GFX_VERSION=9.2.8 export ROCR_VISIBLE_DEVICES=显卡序号(0,1,2,3,4,5,6,...) # 例如 export ROCR_VISIBLE_DEVICES=0,1,2,3 ./ollama serve # 另开一个窗口 ./ollama run deepseek-r1:14b

注意:ollama 启动后,要确认显卡启用,ollama 日志中会有

测试是否可以正常使用

curl http://localhost:11434/api/chat -d '{"model":"deepseek-r1:14b","messages":[{"role":"user","content":"为什么天空是蓝色的?"}]}' curl http://localhost:11434/api/generate -d '{"model":"deepseek-r1:14b","prompt":"为什么天空是蓝色的?"}' curl http://172.30.0.217:11434/api/chat -d '{"model":"deepseek-r1:14b","messages":[{"role":"user","content":"为什么天空是蓝色的?"}]}' curl http://172.30.0.217:11434/api/generate -d '{"model":"deepseek-r1:14b","prompt":"为什么天空是蓝色的?"}'

如果其它服务器无法访问,添加环境变量

OLLAMA_HOST=0.0.0.0:11434

# 监听所有 ip,默认监听 127.0.0.1:11434

3. 制作 docker 镜像

为了方便使用,这里将已经成功运行并已经部署好 ollama 和模型的容器只作为镜像

docker commit \ --change 'ENV PATH=$PATH:/usr/local/go/bin' \ --change 'ENV LIBRARY_PATH=/opt/dtk/lib:$LIBRARY_PATH' \ --change 'ENV HSA_OVERRIDE_GFX_VERSION=9.2.8' \ --change 'ENV ROCR_VISIBLE_DEVICES=0' \ --change 'CMD ["/workspace/ollama/ollama", "serve"]' \ test dcu-ollama-deepseek:0.0.1

运行:dcu-ollama-deepseek:0.0.1

docker run \ -d \ --restart=always \ --shm-size 64g \ --network=host \ --name=ollama \ --privileged \ --device=/dev/kfd \ --device=/dev/dri \ --group-add video \ --cap-add=SYS_PTRACE \ --security-opt seccomp=unconfined \ -e OLLAMA_HOST=0.0.0.0:11434 \ -v /usr/local/develop/data/ollama:/home/ \ -v /opt/hyhal:/opt/hyhal:ro \ dcu-ollama-deepseek:0.0.1

4. 参考

https://developer.sourcefind.cn/tool

https://developer.sourcefind.cn/gitbook//dcu_tutorial/#15

https://sourcefind.cn/#/image/dcu/pytorch?activeName=overview

https://download.sourcefind.cn:65024/6/main/

https://sourcefind.cn/#/model-zoo/1888167889015537665

国产化硬件任重道远,我们开发的关键是要保持好心态,耐心点,总能将问题解决🙂

Read more

Maxar Open Data:开源卫星影像数据集的完整指南

Maxar Open Data是一个开源项目,提供高分辨率卫星影像数据,支持紧急规划、风险评估、应急响应、损害评估和恢复工作。该项目使用Python作为主要编程语言,通过STAC(Spatial Temporal Asset Catalog)目录提供多种格式的数据,包括CSV、GeoJSON和MosaicJSON,让数据能够更容易地与Python和其他编程语言配合使用。 【免费下载链接】maxar-open-dataThe Maxar Open Data STAC Catalog in CSV, GeoJSON, and MosaicJSON formats 项目地址: https://gitcode.com/gh_mirrors/ma/maxar-open-data 项目核心价值与应用场景 Maxar Open Data项目为研究人员、开发者和应急响应人员提供了宝贵的数据资源。这些卫星影像数据在以下场景中发挥着重要作用: * 自然事件监测:地质活动、洪水、飓风等事件的前后对比分析 * 环境变化追踪:

FPGA 编程语言详解

FPGA 编程语言详解 FPGA 的“编程”本质上是硬件电路描述,而不是传统软件编程。因此,FPGA 主要使用硬件描述语言(HDL) 来描述数字电路的行为和结构。目前主流的 FPGA 编程语言如下,按使用广泛程度排序: 1. Verilog HDL(最常用,推荐入门首选) * 特点: * 语法类似 C 语言,简洁灵活,上手快。 * 代码可读性强,社区资源丰富。 * 支持行为级、RTL 级、门级描述。 * 版本演进: * Verilog-1995:基础版,语法较老。 * Verilog-2001:增强版(推荐使用),支持 generate、parameter 等。 * Verilog-2005:小幅改进。 * 适用场景:几乎所有 FPGA 项目,

一文讲清楚RAG 四大模式:Naive RAG、Advanced RAG、Modular RAG 与 Agentic RAG

一文讲清楚RAG 四大模式:Naive RAG、Advanced RAG、Modular RAG 与 Agentic RAG

随着技术迭代,RAG 已从最初的简单架构发展出多种进阶形态。本文将系统解析 RAG 的四大主流模式 ——Naive RAG、Advanced RAG、Modular RAG 与 Agentic RAG,从工作原理、技术特点到适用场景进行全方位对比,为技术选型提供参考。 一、RAG 基础:检索增强生成的核心逻辑 在深入模式解析前,需先明确 RAG 的核心逻辑。简单来说,RAG 由检索(Retrieval) 与生成(Generation) 两大模块构成: 检索模块:从预设知识库中精准定位与用户问题相关的信息片段(如文档、段落、句子); 生成模块:基于检索到的信息,结合大语言模型生成符合上下文、逻辑连贯的答案。 这种 “先检索再生成” 的模式,既保留了 LLM 的语言理解与生成能力,又通过外部知识的引入弥补了模型训练数据过时、事实准确性不足的缺陷。

FPGA Transformer加速完全指南:从模型优化到硬件实现(附实战案例)

🚀 FPGA Transformer加速完全指南:从模型优化到硬件实现(附实战案例) 📚 目录导航 文章目录 * 🚀 FPGA Transformer加速完全指南:从模型优化到硬件实现(附实战案例) * 📚 目录导航 * 概述 * 第一部分:Transformer基础与FPGA加速价值定位 * 1.1 Transformer架构概览 * 1.1.1 Transformer的基本结构 * 1.1.2 Transformer的关键特性 * 1.1.3 常见的Transformer变体 * 1.2 Transformer推理的挑战 * 1.2.1 计算复杂度分析 * 1.2.2 内存访问瓶颈 * 1.2.3 非线性操作的挑战 * 1.2.4 推理延迟分析 * 1.3