如何本地部署 DeepSeek 搭建个人知识库。

注意: 若非研究技术或需保护涉密数据,本地部署成本较高。
原因如下:
目前 Ollama 从 1.5B 到 70B 都只是把 R1 的推理能力提炼到 Qwen 和 Llama 的蒸馏版本上。
虽然性能有所提升,但与原版 R1 模型相比仍有差距。
官方满血版本为 671B 参数,对普通用户而言本地部署成本过高。
一、个人知识库使用效果(满血版)
以下展示使用案例:如何利用个人知识库文件作为外脑,通过方法论指导正确操作?
**DeepSeek 功能强大,关键在于提问技巧。**若不会提问,AI 难以发挥作用。
与其花费时间学习提示词,不如本地准备一份提问指南,让 AI 指导正确提问,以发挥其最大价值。

AI 借助知识库内的DeepSeek 指导手册,预判了我可能想问的问题,以及建议的正确提示词格式。
从回答中可以发现,AI 不是依据自身语料库回复,而是基于知识库内容回复。

当然,我们也可以直接提问,精准搜索知识库的原始信息,从而达到快速查询的效果。

二、API 搭建知识库
如果本地数据不涉密,还想获得最佳使用效果,那肯定得选满血的 DeepSeek R1 模型。
我们来看看怎么利用 API 用上满血的 R1 模型(671B)。
1、先下


