Hunyuan-MT-7B WebUI 部署后无法访问网页?常见问题解答
用户在 AI 平台一键部署了 Hunyuan-MT-7B WebUI 镜像,点开 Jupyter,双击运行 1 键启动.sh,终端里跳出'WebUI 服务已启动,请访问 http://<实例 IP>:7860'——可当你把地址粘贴进浏览器,却只看到一片空白、转圈卡死,或干脆弹出'无法连接'提示。别急,这不是模型不行,也不是你操作错了,而是WebUI 服务启动成功 ≠ 网页能被正常访问。这中间隔着几个关键环节:端口是否暴露、网络策略是否放行、服务是否真正绑定到外部地址、浏览器访问方式是否正确……每一个都可能是'打不开'的真正原因。
本文聚焦一个目标:帮你 5 分钟内定位并解决'部署完成但网页打不开'这个最常卡住新手的实操问题。所有排查步骤均基于主流云算力平台,覆盖 95% 以上的常见故障场景。
1. 先确认:服务到底启没启动?
很多用户误以为终端输出'已启动'就万事大吉,其实这只是脚本执行成功,并不代表 WebUI 服务真正在监听端口。第一步必须验证服务进程是否存活、端口是否被占用。
1.1 查看服务进程是否存在
在 Jupyter 终端中,执行以下命令:
ps aux | grep "webui" | grep -v "grep"
如果返回类似这样的结果,说明服务进程正在运行:
root 12345 0.1 12.3 12345678 9876543 ? Sl 10:23 0:45 python -m webui --model-path /models/Hunyuan-MT-7B --host 0.0.0.0 --port 7860 ...
有输出 → 进入第 2 步排查网络
❌ 无输出 → 服务根本没起来,跳转至第 1.2 节
1.2 检查启动失败的常见原因
若 ps aux 查不到进程,说明 1 键启动.sh 脚本虽执行完毕,但服务启动中途报错退出。此时需回看脚本最后几行日志。常见报错及解法如下:
- 报错:'CUDA out of memory' 或 'OOM when allocating tensor'
→ 显存不足。该模型 FP16 推理需至少 14–16GB 显存。RTX 3080(10GB)、A10G(24GB 但部分平台限制)可能不够。
解法:换用 RTX 3090/A10(24GB)或 A100(40GB);或在脚本中添加--load-in-4bit参数启用 4 位量化(牺牲少量精度换显存)。
报错:'Address already in use' 或 'port 7860 is occupied'
→ 端口被其他进程占用(如之前未正常关闭的服务)。
解法:杀掉占用进程:
lsof -i :7860 | awk '{print $2}' | tail -n +2 | xargs kill -9
报错:'OSError: Can't load tokenizer' 或 'File not found: /models/Hunyuan-MT-7B/config.json'
→ 模型路径错误或权重未完整下载。镜像中模型默认放在 /models/Hunyuan-MT-7B,但部分平台部署时路径可能偏移。
解法:先确认模型目录是否存在:
ls -l /models/
若显示为空或无 Hunyuan-MT-7B 文件夹,说明模型未自动挂载。需手动从 Hugging Face 下载(需提前配置 HF_TOKEN):
huggingface-cli download Tencent-Hunyuan/Hunyuan-MT-7B --local-dir /models/Hunyuan-MT-7B --revision main

