如何在本地计算机上安装和使用 DeepSeek R1
大家似乎都在谈论 DeepSeek R1,这款由国内 AI 公司 DeepSeek 开发的全新开源 AI 语言模型。一些用户声称,它在推理能力方面与 OpenAI 的 o1 不相上下,甚至更强。

目前,DeepSeek 是免费的,这对用户来说是个好消息,但也引发了一些问题。随着用户量的激增,他们是如何管理服务器成本的呢?硬件运行成本应该不便宜吧?一个合理的推测是——数据。数据是 AI 模型的命脉。他们可能通过某种方式收集用户数据,这些数据可能对他们的量化交易模型有益,或者用于其他形式的变现。所以,如果你担心数据隐私,但仍然希望使用 R1 而不共享数据,最好的方法就是在本地运行该模型。
什么是 DeepSeek R1?
几天前,DeepSeek R1 作为一个完全开源的模型亮相,意味着任何人都可以获取其底层代码,进行修改,甚至根据自己的需求进行微调。从技术角度来看,DeepSeek R1(通常缩写为 R1)来源于一个叫做 DeepSeek-V3 的大型基础模型。研究团队通过结合高质量人工标注数据的监督微调(SFT)和强化学习(RL)来优化这个模型。结果是,一个能够处理复杂提示、揭示复杂问题背后推理步骤(有时比其他模型更透明)的聊天机器人,甚至可以在聊天界面中呈现代码进行快速测试。说实话,真的非常令人印象深刻,尤其是对于一个开源模型来说。
如何在本地运行
要在本地运行 DeepSeek R1,我们将使用一个叫做 Ollama 的工具。Ollama 是一个免费的开源工具,允许用户在他们的计算机上本地运行大型语言模型(LLM)。它适用于 macOS、Linux 和 Windows。
访问 Ollama 的官方网站,点击'下载'按钮,并将其安装在你的系统上。

为了确认安装成功,请打开终端并运行以下命令:
ollama -v

你应该能看到 Ollama 的版本号,而不是错误信息。
在'模型'标签下,搜索关键词'deepseek',你应该能在搜索列表的第一个位置看到'deepseek-r1'。

点击它后,在'模型'部分,你会注意到有多个模型尺寸,参数量从 50 亿到 6710 亿不等。作为一个经验法则,较大的模型需要更强大的 GPU 来运行。

像 80 亿参数版本这样的小模型可以在 8GB 显存的 GPU 上运行。而较大的模型则需要显著更多的资源(参见下文的显存和 GPU 要求部分)。
要下载并运行 80 亿参数的模型,请使用以下命令:





