在腾讯云 HAI 部署 DeepSeek 模型
将 DeepSeek 模型部署于腾讯云 HAI,不仅能避开部分网络限制,还能依托其云端算力运行 R1 等模型。这一方案降低了本地环境配置门槛,缩短了部署时间。HAI 平台已支持 DeepSeek-R1 模型预装环境和 CPU 算力,通过简单的几步操作即可调用。
进入腾讯云 HAI 控制台,选择创建实例。目前平台提供了多种尺寸的蒸馏模型供体验,包括 1.5B、7B、8B 等版本。

实例购买完成后,再次进入控制台查看资源列表。可以看到已生成的 DeepSeek-R1 CPU 体验版实例。

点击'算力连接',可以选择 ChatbotUI 快速体验,或者使用 JupyterLab 进行更深入的交互。

若选择 ChatbotUI,跳转后是 Ollama 对应的可视化界面,可以直接选择模型进行对话。

同样也可以选择 JupyterLab,里面预装了 Ollama 环境,执行命令安装模型即可。

打开终端输入指令:
ollama run deepseek-r1:14b
下载完成后即可开始体验。
利用 AI 生成个人网页
准备好模型后,我们可以尝试让它帮我们写代码。复制以下提示词到对话框中:
请帮我设计一个个人网页,要求:使用 HTML,响应式设计,适配手机,包含以下板块:个人简介、技能特长、项目经历、联系方式,风格要现代简约,配色要专业大气。请提供完整代码。

生成完成后,点击下载按钮保存文件。





