CentOS 7 docker安装ollama、open-webui

--创建 ai 用户,以 root 身份执行

useradd -m -s /bin/bash ai

passwd ai --ai@2026!

mkdir -p /home/ai

chown -R ai:ai /home/ai

chmod 755 /home/ai

--安装 Docker,以 root 身份执行

yum remove -y docker docker-client docker-client-latest docker-common docker-latest docker-latest-logrotate docker-logrotate docker-engine

yum install -y yum-utils device-mapper-persistent-data lvm2 # 安装依赖

yum-config-manager --add-repo https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo # 添加 Docker 仓库(使用阿里云镜像加速)

yum install -y docker-ce docker-ce-cli containerd.io # 安装 Docker

#ai用户加入docker、wheel组

usermod -aG docker ai

# 配置 Docker 镜像加速(国内)

mkdir -p /etc/docker

cat > /etc/docker/daemon.json <<EOF

{

"registry-mirrors": [

"https://docker.1ms.run",

"https://hub.rat.dev"

]

}

EOF

systemctl daemon-reload # 让 systemd 重新读取配置文件

systemctl start docker # 启动 Docker

systemctl status docker# 查看启动状态

systemctl restart docker # 重启 Docker

# 验证

docker --version

docker info 看Registry Mirrors是否国内镜像

- 安装ollama

su - ai

mkdir -p /home/ai/{ollama,open-webui}

docker pull docker.1ms.run/ollama/ollama:latest

docker pull docker.1ms.run/dyrnq/open-webui:latest

#查看镜像

[ai@localhost ~]$ docker images

REPOSITORY TAG IMAGE ID CREATED SIZE

docker.1ms.run/dyrnq/open-webui latest eef064db6151 3 days ago 4.64GB

docker.1ms.run/ollama/ollama latest cb27efcf587f 3 days ago 5.63GB

[ai@localhost ~]$

# 启动 Ollama容器

docker run -d \

--name ollama \

--restart unless-stopped \

-p 11434:11434 \

-v /home/ai/ollama:/root/.ollama \

-e OLLAMA_HOST=0.0.0.0 \

docker.1ms.run/ollama/ollama:latest

启动:docker start ollama # docker run会自动启动,stop以后才用此命令启动

停止:docker stop ollama

查看:docker ps -a | grep ollama # -a 参数可显示已经stop的容器

docker exec -it ollama ollama -v

curl http://localhost:11434/api/version

删除容器:docker rm -f ollama # 如果docker run 后面参数修改了,要重新启动,就需要先删除容器,否则会报错;-f 参数可强制删除正在运行的容器

离线模型-下载:https://modelscope.cn/models/unsloth/Qwen3-8B-GGUF下载Qwen3-8B-Q4_K_M、Qwen3-8B-Q3_K_M,下载后放到/home/ai/ollama/models目录

离线模型-注册文件:在目录/home/ai/ollama/models创建文件:vi Modelfile

FROM /root/.ollama/models/Qwen3-8B-Q4_K_M.gguf

在线模型-拉取:docker exec -it ollama ollama pull qwen3:4b

离线模型-注册:docker exec -it ollama ollama create qwen3-8b -f /root/.ollama/models/Modelfile

查看已下载模型:docker exec -it ollama ollama list

测试模型:docker exec -it ollama ollama run qwen3:4b "你好,请介绍一下你自己"

删除模型:docker exec -it ollama ollama rm qwen3-8b:latest

交互模式执行命令:docker exec -it ollama bash;ollama-v;

# 启动 Open WebUI(手动 docker run)

docker run -d \

--name open-webui \

--restart unless-stopped \

-p 3000:8080 \

-v /home/ai/open-webui:/app/backend/data \

--add-host=host.docker.internal:host-gateway \

-e OLLAMA_BASE_URL=http://host.docker.internal:11434 \

docker.1ms.run/dyrnq/open-webui:latest

停止:docker stop open-webui

查看:docker ps | grep open-webui

Open WebUI http://172.30.3.241:3000

Ollama API http://172.30.3.241:11434

Could not load content