llama的Qwen3.5大模型单GPU高效部署与股票筛选应用|附代码教程

全文链接:https://tecdat.cn/?p=45082
原文出处:拓端数据部落公众号

 

封面

在当今AI技术快速迭代的背景下,大模型的能力边界不断被突破,但随之而来的隐私安全、推理成本等问题也逐渐凸显。对于许多企业和研究者而言,将大模型部署在本地环境,既能保证数据隐私,又能灵活控制推理流程,成为了迫切需求。我们团队在近期的一个咨询项目中,就帮助客户完成了Qwen3.5大模型的本地化部署,并基于此开发了一款股票筛选工具,整个方案已通过实际业务校验。
本文将从环境准备开始,一步步讲解如何在单GPU上高效运行Qwen3.5,包括llama.cpp的编译、模型下载、服务启动,以及最终的应用开发。希望能为有大模型本地化需求的读者提供一些实用参考。
本文内容改编自过往客户咨询项目的技术沉淀并且已通过实际业务校验,该项目完整代码教程已分享至交流社群。阅读原文进群获取更多最新AI见解和行业洞察,可与900+行业人士交流成长;还提供人工答疑,拆解核心原理、代码逻辑与业务适配思路,帮大家既懂 怎么做,也懂 为什么这么做;遇代码运行问题,更能享24小时调试支持。

全文脉络流程图

进群获取完整内容及更多AI见解、行业洞察,与900+行业人士交流成长。

Qwen3.5模型概述

Qwen3.5是阿里推出的最新大模型系列,在推理、编程和多模态任务上都有出色表现。独立基准测试显示,Qwen3.5-397B-A17B在LiveCodeBench、AIME26等测试中得分很高,不少类别上超过了主流模型,推理吞吐量也比前代提升明显。

硬件与软件要求

要在本地流畅运行Qwen3.5,得先满足硬件和软件要求。我们这次用的是NVIDIA H200 GPU(141GB显存),搭配240GB系统内存,能高效运行MXFP4_MOE版本的Qwen3.5。
作为参考,Unsloth 4-bit动态量化版本UD-Q4_K_XL大约占214GB磁盘空间,能直接放在256GB的设备上,也能在单张24GB GPU加256GB内存的环境中运行,每秒能生成25个以上token。3-bit量化版本能放在192GB内存里,8-bit版本则需要最多512GB的显存和内存总和。
一般来说,显存加内存的总和最好和量化后的模型大小差不多。如果不够,llama.cpp能把部分模型卸载到SSD,但推理速度会变慢。
软件方面,得安装最新的NVIDIA GPU驱动,还有近期的CUDA Toolkit,保证和llama.cpp、CUDA加速推理兼容。

环境搭建

要在本地运行Qwen3.5,得有一台性能强劲的GPU机器。大多数笔记本和台式机没有足够的显存或内存来运行这么大的模型,所以我们用云GPU虚拟机。
这次我们用Hyperbolic来私密运行模型,也可以用AutoDL、恒源云等替代平台。选Hyperbolic是因为它目前的GPU实例性价比很高。
先启动一个单H200 GPU的实例。


机器启动后,能看到公网IP地址和连接所需的SSH命令。

连接前,确保本地设置好了SSH,创建虚拟机时添加了公钥。
实例准备好后,用带端口转发的SSH连接。这很重要,因为我们要通过8080端口在本地访问llama.cpp推理服务:

ssh -L 8080:localhost:8080 [email protected] 

第一次连接时,输入yes确认,然后用SSH密钥认证。


登录后,验证GPU是否正确检测:

nvidia-smi 

输出里应该能看到NVIDIA H200。


最后,安装下载、编译和运行llama.cpp所需的Linux软件包:

sudo apt update sudo apt install pciutils build-essential cmake curl libcurl4-openssl-dev -y 

完成这步后,环境就准备好安装llama.cpp和本地运行Qwen3.5了。


相关文章

DeepSeek、LangGraph和Python融合LSTM、RF、XGBoost、LR多模型预测NFLX股票涨跌|附完整代码数据

原文链接:https://tecdat.cn/?p=44060


安装llama.cpp

llama.cpp是开源的C/C++推理引擎,能让你用最少的设置本地运行大语言模型,支持CPU和GPU加速。
先克隆llama.cpp仓库:

接下来,用CMake配置启用CUDA的构建。我们用-DGGML_CUDA=ON启用CUDA,把CUDA架构设为90a,因为我们用的是NVIDIA H200(Hopper架构)。这能让构建生成针对Hopper特性优化的GPU代码。


现在编译服务器二进制文件。llama-server是内置的REST服务器,能把llama.cpp暴露为API端点:


最后,把编译好的二进制文件复制到主文件夹,方便运行:

下载Qwen3.5模型

现在llama.cpp安装好了,下一步是下载GGUF格式的Qwen3.5模型权重。这些文件很大,所以用Hugging Face CLI是最可靠的方法,直接把它们下载到GPU机器上。
我们先安装Python,因为Hugging Face下载工具和认证工具是作为Python包分发的。虽然llama.cpp本身是用C++写的,但Python让管理模型下载和传输容易多了。
先安装pip:

接下来,安装Hugging Face Hub客户端和性能辅助工具。hf_transferhf-xet能大幅加快下载速度,这在下载数百GB的模型文件时很重要:

现在从Hugging Face下载Qwen3.5模型。这次我们只获取MXFP4_MOE变体,它针对高效的MoE推理进行了优化:


下载完成后,模型文件会存储在model_storage/Qwen3.5里,准备加载到llama.cpp进行本地推理。
进群获取完整内容及更多AI见解、行业洞察,与900+行业人士交流成长。

启动推理服务

现在我们能用llama-server启动Qwen3.5了。这会给我们一个OpenAI兼容的API端点,能从本地工具和应用调用。
我们针对单GPU设置优化了服务器,做了三件关键的事。第一,启用--fit on,让llama.cpp自动在GPU显存和系统内存之间平衡模型,而不是在模型不能完全放进显存时失败。
第二,用--ctx-size 16384设置更大的上下文窗口,让服务器能处理更长的提示。第三,启用--jinja并传递--chat-template-kwargs来控制聊天格式,禁用思考模式以获得更快、更直接的响应。
用以下命令运行服务器:

模型加载时,你会注意到它同时使用GPU显存和系统内存,这对于大型MoE模型来说是正常的。


加载完成后,服务器可以在以下地址访问:

  • 虚拟机上的0.0.0.0:8080

SSH端口转发后本地机器上的http://127.0.0.1:8080


让服务器保持运行。在本地电脑上,打开一个新终端,用SSH端口转发重新连接:

然后通过列出可用模型来测试服务器:

如果响应中看到Qwen3.5,说明服务器运行正常,你可以准备从OpenAI SDK和本地应用调用它了。

接口测试

现在Qwen3.5推理服务器运行起来了,下一步是验证它能和真实的客户端应用正常工作。llama.cpp最大的优势之一是llama-server暴露了OpenAI兼容的API,这意味着你可以使用官方OpenAI SDK而不用改变代码结构。
先在本地机器上(或者如果你愿意的话在虚拟机里)安装OpenAI Python包:

现在运行一个简单的测试脚本。这会连接到你本地转发的端点http://127.0.0.1:8080/v1,而不是OpenAI的云服务器。

这里有几个重要的细节需要理解:

  • base_url指向你本地的Qwen3.5服务器,而不是OpenAI的API。
  • SDK仍然需要api_key,但llama.cpp不强制认证,所以任何占位符值都可以。
  • Qwen3.5模型加载成功
  • llama.cpp服务器运行正常
  • 你的SSH端口转发正常工作
  • 端点与OpenAI风格的应用完全兼容
    此时,你可以将Qwen3.5集成到任何已经支持OpenAI API格式的本地工具、智能体工作流或应用中。

model="Qwen3.5"名称和我们启动服务器时设置的别名匹配。
如果一切配置正确,你会从模型得到快速、清晰的响应。


这确认了:

股票筛选应用开发

llama.cpp包含一个内置的、ChatGPT风格的WebUI,你可以用它直接在浏览器中与模型聊天。这对于快速测试、提示迭代和生成代码很有用,不需要先写任何客户端脚本。
因为我们已经设置了SSH端口转发,你可以在本地机器上打开WebUI,它的行为就像服务器运行在你的笔记本上一样。
默认情况下,WebUI可以在以下地址访问:
http://127.0.0.1:8080
如果这个页面加载,它确认了两件事。你的SSH隧道工作正常,Qwen3.5服务器可以在本地访问,同时仍然在GPU虚拟机上私密运行。



进入WebUI后,粘贴这个提示。目标是让模型同时生成Python代码和简短的使用指南。
构建一个简单的Python TUI(文本用户界面)“股票筛选训练器”,使用rich库运行(没有Web UI),用python stock_app.py启动。它应该让你输入股票代码列表,选择模式(成长/价值/分红)和风险(低/中/高),从免费来源获取每个股票的基本公开指标,显示实时加载状态,然后渲染一个漂亮的表格和“根据我的评分规则的前5名”部分,带有清晰的“仅供教育,不构成财务建议”免责声明,并将完整结果保存到stockults.csv
几秒钟内,Qwen3.5应该会生成一个stop.py文件,通常还有一个关于如何运行它的快速解释。


现在切换到你的本地终端(你的笔记本)。安装生成的应用所需的依赖:

这会安装:

  • rich用于TUI布局、表格、提示和进度指示器
  • yfinance用于获取免费的公开股票指标
    创建一个名为stock_app.py的文件,粘贴模型生成的代码,然后运行:

运行脚本后,你应该会看到TUI在你的终端中正常启动。应用会提示你输入要分析的股票代码,以及你偏好的筛选模式和风险水平。
例如,我们用三只热门股票测试了它。


短暂的加载阶段后,工具返回完整的股票指标表格,根据评分规则突出显示结果,并将所有内容保存到stock_results.csv文件。


这是一个很好的例子,说明Qwen3.5如何仅使用4-bit量化模型端点和简单提示,一次性生成完整的工作应用。
进群获取完整内容及更多AI见解、行业洞察,与900+行业人士交流成长。

总结

本地运行Qwen3.5是一种强大的方式,可以在保持一切私密和完全在你控制之下的同时,访问前沿规模的模型。在本文中,模型托管在单个H200 GPU虚拟机上,使用SSH端口转发从本地机器安全访问,并通过优化的llama.cpp OpenAI兼容端点提供服务。
也就是说,有一些实际限制值得记住。因为一切都依赖于活动的SSH隧道,连接需要保持稳定。如果你的网络中断或会话断开,你会失去对本地端口的访问,通常需要重新连接并重新启动部分工作流。
另一个常见问题是正确构建llama.cpp。如果你没有为你的GPU指定正确的CUDA架构标志,编译可能需要更长时间,并且可能无法完全针对硬件进行优化。提前设置正确的架构会在构建时间和性能上产生明显差异。
最后,虽然4-bit MXFP4_MOE量化对于高效运行大型模型非常好,但它并不总是适合智能体编程工作流。在使用Qwen Code CLI、Kilo Code CLI和OpenCode等工具进行测试时,模型在深度推理方面遇到困难,并且在较长的生成循环中经常失败,有时甚至触发GPU不稳定。
更高精度的量化或更小的专注于推理的模型可能更适合可靠的基于智能体的编程。

封面

Read more

【保姆级教程】从零到一:在飞书中接入 OpenClaw,打造你的专属 AI 助手

摘要:本文将手把手带你从零开始,完成 OpenClaw 的安装部署,并将其接入飞书,让你在飞书聊天窗口中直接与 AI 助手对话、下达指令。全文覆盖环境准备、一键安装、AI 模型配置、飞书机器人创建与对接、首次使用以及常见问题排查,适合所有技术水平的读者。 一、OpenClaw 是什么? OpenClaw(前身为 ClawdBot / Moltbot)是 2026 年迅速崛起的一个开源 AI 智能体项目。与 ChatGPT 等云端 AI 不同,OpenClaw 运行在你自己的本地环境(个人电脑或云服务器)中,核心理念是"将控制权交还给用户"。 简单来说,OpenClaw 是一个 AI 网关——它连接了你日常使用的通信工具(如飞书、钉钉、

Ocbot:一款开源的 AI 原生浏览器,到底有什么不一样?

Ocbot:一款开源的 AI 原生浏览器,到底有什么不一样?

快速摘要 Ocbot 是一款基于 Chromium 内核深度定制的 AI 原生浏览器,它将 AI 智能体(Agent)直接内嵌到浏览器内核中,让 AI 不再只是"辅助工具",而是能像人一样自主浏览网页、操作界面、提取数据。 它最大的亮点在于"自愈工作流"——当网站改版后,AI 能通过视觉理解自动修复执行路径,无需人工干预。同时,它支持 Gemini、GPT-4、Claude 等主流大模型自由切换,也可以接入本地私有化部署的大模型,数据完全由用户自己掌控。如果你对 AI 驱动浏览器自动化感兴趣,或者正在寻找比 OpenClaw 更轻量的替代方案,往下看有更详细的拆解。 —— 莫潇羽 一、为什么我们需要一款 AI 原生浏览器? 浏览器是我们日常使用频率最高的软件之一。

【AI大模型入门】04:可灵AI——一句话生成一段视频,国产视频AI天花板

【AI大模型入门】04:可灵AI——一句话生成一段视频,国产视频AI天花板

【AI大模型入门】04:可灵AI——一句话生成一段视频,国产视频AI天花板 📖 阅读时长:约9分钟 🎯 适合人群:想用AI生成视频的创作者、对AI视频感兴趣的新手 💡 你将学到:可灵AI是什么、能生成什么样的视频、怎么用、实际效果如何 一、视频生成AI,为什么这么火? 想象一下: 你打了一段话:“一只橘猫坐在窗台上,窗外下着雪,它回头看了看镜头,轻轻地打了个哈欠……” 几十秒后,一段真实感十足的视频就出现在你面前。 这不是科幻,这是2024年开始普及的AI视频生成技术。 而在国产AI视频领域,可灵AI(Kling AI)是当之无愧的天花板。 二、可灵AI 是什么? 可灵AI 是快手推出的AI视频生成大模型,2024年6月正式发布。 快手做短视频起家,积累了海量视频数据和顶尖的视频技术团队。这让可灵AI从一开始就有了很强的"视频基因"。 快手 AI 产品矩阵: ┌─────────────────────────────────────┐ │ 可灵AI ── 视频/

AI 数学的秘密花园:02.词怎么变成数字?(Tokenization:把一锅语言粥切成能下嘴的小积木)

AI 数学的秘密花园:02.词怎么变成数字?(Tokenization:把一锅语言粥切成能下嘴的小积木)

第2章:词怎么变成数字?(Tokenization:把一锅语言粥切成能下嘴的小积木)** 上一章咱们刚把AI数学比作搭乐高,是不是已经有点手痒想动手拼了?今天继续往前走,先解决一个最基础、最接地气的问题:那些五颜六色的乐高积木,到底是从哪儿来的? (瞧这张厨房图,孩子做饭要切菜——把里面的菜换成“语言粥”,小机器人拿着菜刀笑眯眯地切,就完美了!) AI不是天生就会说话,它其实是个超级挑食的数字星人——只吃数字,不吃汉字! 很多人以为AI直接读懂“你好,世界”,其实不然。它眼里只有0和1,像个只吃数字饭的小朋友,根本不认识那些弯弯曲曲的字。所以,第一步就是把人类的语言——那锅热腾腾、黏糊糊的语言粥——切成一块块大小能直接下嘴的小积木块。这道工序,就叫 Tokenization(分词 / Token化)。 我最爱这个比喻:一锅语言粥,切成乐高小积木。粥里混着中英文、标点、表情、网络热梗……乱七八糟热气腾腾。AI胃口小,吃不了整锅,得切成均匀小块才行! 为什么一定要切?