DeepSeek V3 正式发布:性能突破与开源生态解析
DeepSeek V3 是拥有 6710 亿参数的专家混合模型,激活 370 亿参数,基于 14.8T token 预训练。相比 V2.5 生成速度提升 3 倍,在数学、代码和中文任务上表现突出,超越 Qwen2.5-72B 和 Llama-3.1-405B。采用多头潜在注意力架构,训练成本约 557.6 万美元。已开源原生 FP8 权重,支持 SGLang 等工具推理。API 服务提供优惠价格,推动 AI 技术普惠发展。

DeepSeek V3 是拥有 6710 亿参数的专家混合模型,激活 370 亿参数,基于 14.8T token 预训练。相比 V2.5 生成速度提升 3 倍,在数学、代码和中文任务上表现突出,超越 Qwen2.5-72B 和 Llama-3.1-405B。采用多头潜在注意力架构,训练成本约 557.6 万美元。已开源原生 FP8 权重,支持 SGLang 等工具推理。API 服务提供优惠价格,推动 AI 技术普惠发展。

2024 年 12 月 26 日,DeepSeek 正式发布了其最新一代大型语言模型:DeepSeek-V3。
这一模型的发布不仅标志着 DeepSeek 在 AGI(人工通用智能)探索道路上的又一里程碑,也再次证明了其在开源 AI 领域的领先地位。从 V2.5 到 V3,DeepSeek 仅用了短短几个月的时间,便完成了从通用与代码能力融合到全面性能突破的跨越。
DeepSeek 始终秉持'投身于探索 AGI 的本质,不做中庸的事,带着好奇心,用最长期的眼光去回答最大的问题'的理念。这种长期主义的追求,使得 DeepSeek 在技术研发上不断突破,从 V2.5 的通用与代码能力融合,到 V3 的全面性能提升,每一步都彰显了其对技术创新的执着。
DeepSeek-V3 是一款拥有6710 亿参数的专家混合(MoE)模型,激活370 亿参数,基于14.8T token的预训练数据。
生成速度方面相比 V2.5 提升了 3 倍,从 20TPS 提升至惊人的 60TPS。实测回复速度极快。
在性能上,DeepSeek-V3 在多项基准测试中超越了 Qwen2.5-72B 和 Llama-3.1-405B 等开源模型,并与GPT-4 和 Claude-3.5-Sonnet等顶尖闭源模型不相上下。尤其在数学、代码和中文任务上,V3 表现尤为突出,成为当前最强的开源模型。
DeepSeek-V3 采用了多项创新技术,包括多头潜在注意力(MLA)架构、无辅助损失的负载均衡策略以及多 token 预测(MTP)目标。
MLA 通过压缩 KV Cache 显著降低了显存占用,同时保持了长上下文的理解能力。这使得模型在处理超长文档或复杂对话时更加高效。
模型采用稀疏 MoE 设计,激活 370 亿参数处理单次请求,而总参数量达到 6710 亿。这种设计在保证推理速度的同时,极大扩展了模型的知识容量和泛化能力。
MTP 允许模型在一次前向传播中预测多个后续 token,进一步加速了自回归生成的过程,减少了延迟。
这些技术不仅提升了模型的推理效率,还大幅降低了训练成本。V3 的整个训练过程仅耗费了278.8 万 H800 GPU 小时,总成本约为557.6 万美元,远低于其他前沿大模型。
随着 V3 的发布,DeepSeek 调整了 API 服务价格。优惠期内(即日起至 2025 年 2 月 8 日),API 价格为每百万输入 tokens 0.1 元(缓存命中)/1 元(缓存未命中),每百万输出 tokens 2 元。优惠期结束后,价格将恢复至每百万输入 tokens 0.5 元(缓存命中)/2 元(缓存未命中),每百万输出 tokens 8 元。
| 时期 | Token 类型 | 缓存命中 | 缓存未命中 |
|---|---|---|---|
| 优惠期内 (至 2025 年 2 月 8 日) | 输入 tokens(每百万) | ¥0.1 | ¥1 |
| 输出 tokens(每百万) | ¥2 | ¥2 | |
| 优惠期后 | 输入 tokens(每百万) | ¥0.5 | ¥2 |
| 输出 tokens(每百万) | ¥8 | ¥8 |
DeepSeek-V3 不仅开源了原生 FP8 权重,还提供了BF16 转换脚本,方便社区适配和应用。SGLang、LMDeploy、TensorRT-LLM等工具已支持 V3 模型推理,进一步降低了用户的使用门槛。
DeepSeek-V3 对话已在官网上线,用户可以通过直接体验模型效果。
DeepSeek API 接口支持以下功能:
开发者可以通过 API 文档了解详细的接入方式和示例代码。以下是使用 Python 调用 DeepSeek API 的示例:
import requests
import json
url = "https://api.deepseek.com/v1/chat/completions"
headers = {
"Authorization": "Bearer YOUR_API_KEY",
"Content-Type": "application/json"
}
data = {
"model": "deepseek-v3",
"messages": [
{"role": "user", "content": "请解释什么是 Transformer 架构?"}
],
"temperature": 0.7,
"max_tokens": 500
}
response = requests.post(url, headers=headers, json=data)
result = response.json()
print(result["choices"][0]["message"]["content"])
对于需要私有化部署的场景,可以使用 SGLang 或 vLLM 进行推理。
安装 SGLang:
pip install sgl-kernel sgl-router
启动推理服务:
python -m sglang.launch_server --model-path deepseek-v3 --port 30000
验证连接:
from sglang import Runtime
runtime = Runtime(url="http://localhost:30000")
output = runtime.generate("你好,DeepSeek V3")
print(output)
DeepSeek-V3 的发布不仅是技术的一次飞跃,更是开源精神的体现。
它不仅在性能上与世界顶尖的闭源模型媲美,更以开源的方式推动了人工智能技术的普惠发展,是当之无愧的国产之光!
未来,相信 DeepSeek 将会继续在 AGI 探索的道路上砥砺前行,为 AI 领域带来更多创新与突破。通过降低使用门槛和优化成本,DeepSeek-V3 有望成为企业级应用和个人开发者的首选模型之一。

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
使用加密算法(如AES、TripleDES、Rabbit或RC4)加密和解密文本明文。 在线工具,加密/解密文本在线工具,online
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
解析常见 curl 参数并生成 fetch、axios、PHP curl 或 Python requests 示例代码。 在线工具,curl 转代码在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online