为什么选择 DeepSeek 作为国产模型?
极致性价比:相同推理能力下,DeepSeek 的 API 价格远低于 GPT-4o。
OpenAI 兼容性:API 接口遵循 OpenAI 标准,现有代码仅需修改 base_url 即可无缝迁移。
本地推理强:DeepSeek-R1 等模型在数学和编程逻辑上表现优异。
一、云端适配:热切换
得益于良好的生态兼容性,无需安装新库。
from openai import OpenAI
# 只需修改两个参数,即可将 Agent 切换到国产引擎
client = OpenAI(
api_key="YOUR_DEEPSEEK_API_KEY",
base_url="https://api.deepseek.com"
)
response = client.chat.completions.create(
model="deepseek-chat",
messages=[{"role": "user", "content": "用 Python 写一个异步装饰器"}]
)
二、本地化部署:使用 Ollama
若数据涉及商业机密或拥有高性能显卡,本地部署是优选。
1. 环境搭建
下载并安装 Ollama。
终端执行:ollama run deepseek-v3(或 R1 推理模型)。
2. Python 调用本地模型
本地模型通常运行在 http://localhost:11434。利用 LangChain 对接:
from langchain_community.llms import Ollama
# 接入本地部署的 DeepSeek
local_llm = Ollama(model="deepseek-v3")
# 可作为 Agent 的大脑运行
print(local_llm.invoke("分析这段私密财报数据的风险..."))
三、混合策略:云端推理 + 本地检索
架构方案:
- 本地端:使用 Ollama 运行 Embedding 模型(如 bge-m3)进行私有文档向量化,确保敏感数据不出库。
- 云端:将检索出的脱敏片段发给 DeepSeek 云端 API 进行深度总结,平衡性能与隐私。
四、避坑指南:国产模型适配微调
需指出国产模型的细微差异:
- 提示词偏好:DeepSeek 对中文指令理解深刻,处理复杂逻辑时建议使用符合中文逻辑的引导词(如'请按步骤拆解')。
- 速率限制 (Rate Limit):高峰期可能出现连接问题。对策:在 Python 端引入 tenacity 库实现指数退避重试。

