OpenAI gpt-oss 模型本地部署实战指南
OpenAI 最近发布了首个开源的开放权重模型 gpt-oss,这在 AI 圈引起了巨大轰动。对于开发者和 AI 爱好者来说,这意味着我们终于可以在自己的机器上,完全本地化地运行和探索这款强大的模型了。
本教程将指导你如何在 Windows 和 Linux 系统上,借助本地大模型运行框架 Ollama,轻松部署和使用 gpt-oss 模型。
一、准备工作:系统配置与性能预期
在开始之前,了解运行环境非常重要。本次部署将在个人电脑上进行,下面是推荐配置:
- CPU: 现代多核 CPU,如 Intel Core i7 或 AMD Ryzen 7 系列
- 内存 (RAM): 32 GB 或更多
- 显卡 (GPU): 强烈推荐 NVIDIA GeForce RTX 4090 (24 GB 显存)。这是确保大型模型流畅运行与高效微调的理想选择。
- 操作系统: Linux 或 Windows 11
- Python 版本: 推荐 3.12
性能预期:
在我的测试环境下,运行 gpt-oss-20b 这样中等规模的模型,响应速度会比较慢,生成一段较长文本可能需要几十秒甚至更久。但这完全可用于功能测试、学习和轻度使用。如果你的显卡性能更强(如 RTX 5090, 4090),体验会流畅很多。

二、了解 gpt-oss 模型
gpt-oss 是 OpenAI 发布的开放权重语言模型,截止到 2025 年 8 月 8 日,提供了 gpt-oss-120b 和 gpt-oss-20b 两个版本。它旨在支持开发者在各种硬件上进行研究和创新。
官方 GitHub 仓库: https://github.com/openai/gpt-oss

三、安装 Ollama:本地部署的神器
Ollama 是一个开源框架,它极大地简化了在本地运行 Llama, Mistral, Gemma 以及现在 gpt-oss 等大模型的过程。
1. 访问 Ollama 官网并下载
打开浏览器,访问 Ollama 官网。你会看到一个简洁的界面,邀请你与开源模型一起对话和构建。

点击 "Download" 按钮后,页面会自动跳转到下载选择页面。
2. 选择操作系统
Ollama 支持 macOS, Linux 和 Windows。我们选择 Windows。












