Deepseek R1模型本地化部署+API接口调用详细教程:释放AI生产力

Deepseek R1模型本地化部署+API接口调用详细教程:释放AI生产力

文章目录


前言

随着最近人工智能 DeepSeek 的爆火,越来越多的技术大佬们开始关注如何在本地部署 DeepSeek,利用其强大的功能,甚至在没有互联网连接的情况下也能进行高效的使用。事实上,DeepSeek 的技术实力已经不亚于 OpenAI 的 GPT 系列,因此许多人对其部署和应用产生了浓厚的兴趣。
在这篇文章中,我将一步步带你完成本地 DeepSeek 部署的整个过程,确保你能够顺利地将其应用于你的工作或个人项目中。除此之外,我还会指导如何通过API接口的调用,把deepseek应用到vscode中,成为你的编程助手。

在这里插入图片描述

一、deepseek R1模型与chatGPT o1系列模型对比

deepseek R1模型与chatGPT 4o:

在这里插入图片描述

deepseek R1模型与chatGPT o1:

在这里插入图片描述


总体而言,DeepSeek R1在性能和成本方面具有优势,适合对成本敏感的应用;而ChatGPT o1在可靠性和安全性方面更为出色,适合对隐私和安全有高要求的场景。

二、本地部署步骤

1.安装ollama

我们需要先安装ollama,安装地址ollama,我们直接点击下载,并不需要魔法,官网打开十分流畅

在这里插入图片描述

选择对应的版本进行下载,这里我的是Windows

在这里插入图片描述

下载完成后双击exe文件进行安装,直接点击这里的install进行软件的安装,等待几分钟即可

在这里插入图片描述

要判断 Ollama 是否安装成功,可以按照以下步骤进行:

1.打开命令提示符:按下 Win + R 键,输入 cmd 并按回车,这将打开命令提示符窗口。

2.检查安装版本:在命令行中输入以下命令:

ollama -v 

按下回车后,如果系统显示出 Ollama 的版本号,说明安装成功。

如果出现版本号,表示 Ollama 已经正确安装并可以使用。如果没有显示版本号或出现错误信息,说明安装可能失败,需要重新检查安装过程。

在这里插入图片描述

2部署DeepSeek R1模型

接下来我们进行部署DeepSeek R1模型的操作,我们依旧打开ollama的官网,可以看见左上角有一个Models的选项,我们点击下

在这里插入图片描述

选择deepseek-r1,这里的话有很多模型,我们可以根据自己电脑的显卡配置进行选择相应的版本,以下是模型与配置的建议

在这里插入图片描述

这里我选择7b模型

在这里插入图片描述

选择好之后复制

在这里插入图片描述

回到命令提示符模式,首先按下 Win + R 键,输入 cmd 并按回车,打开命令行窗口。然后,将之前复制的命令粘贴到命令行中,并按下回车。

接下来,等待片刻让下载开始。需要注意的是,下载过程可能会稍微慢一些,我自己等待了一段时间才完成下载。通常情况下,文件会默认下载到 C 盘,因此如果你没有更改下载路径,可以在 C 盘找到相关文件。

如果你发现下载速度很慢,可以按 Ctrl + C 中断当前的下载命令,然后重新输入相同的命令再次启动下载。值得注意的是,重新开始下载时,系统通常会从上次下载的进度继续进行,因此你不需要从头开始下载。在我重新尝试下载后,下载速度明显提高了一些。

在这里插入图片描述


出现了一个success就是下载好了,那么我们就可以直接进行对话了,如果想退出对话输入/bye来退出
查看已经安装的模型我们可以输入指令

ollama list 
在这里插入图片描述

删除已存在模型,以7b模型为例

用指令

ollama list 

查看已存在的模型,复制要删除的模型名称

在这里插入图片描述

再输入指令

ollama rm deepseek-r1:7b

即可


三、DeepSeek API接口调用

点击DeepSeek官网右上角API开放平台,完成登录后,默认会获得10元。接着,进入左侧栏的API keys。创建API key,即可拿到DeepSeek的APIKey了。

在这里插入图片描述

Cline配置

Cline是一个编程助手插件,旨在提升开发者的编码效率。它可以在VSCode中提供代码自动补全、智能提示、错误检测等功能。通过与DeepSeek API的结合,Cline可以实现更加强大的AI辅助功能,帮助开发者更快速地进行开发。

具体操作流程如下:

  1. 安装Cline插件:
  2. 配置DeepSeek API:
    • 选择已经安装好的Cline插件,配置API接入源为DeepSeek。
    • 输入DeepSeek的API Key,完成后点击【Done】。
  3. 完成配置:
  4. 启用编码助手:
    • 在Cline配置完成后,选择【全选】功能,勾选启用自动补全和智能提示等功能,帮助你更高效地编写代码。

完成API的配置后,Cline插件就与DeepSeek关联成功。此时,你可以在插件的输入框上方看到一些配置选项。

在这里插入图片描述

打开VSCode,点击左侧菜单,搜索并选择安装名为“Cline”的插件。插件安装后,它会出现在左侧菜单中。

在这里插入图片描述

Read more

被问爆的Agent实战:从0到1搭建可落地AI智能体

被问爆的Agent实战:从0到1搭建可落地AI智能体

🎁个人主页:User_芊芊君子 🎉欢迎大家点赞👍评论📝收藏⭐文章 🔍系列专栏:AI 文章目录: * 【前言】 * 一、先搞懂:2026年爆火的AI Agent,到底是什么? * 1.1 Agent的核心定义 * 1.2 Agent的4大核心能力 * 1.3 2026年Agent的3个热门落地场景 * 二、框架选型:2026年6大主流Agent框架,新手该怎么选? * 三、实战环节:从0到1搭建可落地的“邮件处理Agent”(全程代码+步骤) * 3.1 实战准备:环境搭建(10分钟搞定) * 3.1.1 安装Python环境 * 3.1.2 创建虚拟环境(避免依赖冲突) * 3.

使用LLaMA-Factory的数据集制作流程与训练微调Qwen3及评估

使用LLaMA-Factory的数据集制作流程与训练微调Qwen3及评估

文章目录 * 1 LLaMA-Factory环境安装 * 2 数据集制作 * 3 模型下载 * 4 使用命令进行训练 而非webui * 训练命令 * 导出模型命令 * 5 训练后的Qwen3模型评估 * 6 训练后的Qwen3模型进行测试 AutoDL中的LLaMA-Factory 使用 训练微调 llame3数据集 cmmlu 使用LLaMA-Factory微调训练Qwen2-VL-7B/Qwen2.5-VL-7B与视觉大模型数据集制作流程与训练评估 b站:https://www.bilibili.com/video/BV1KceNzoE87/ 本文介绍了使用LLaMA-Factory框架微调Qwen3-4B-Instruct-2507模型的完整流程。内容包括:1) 环境安装与WebUI配置;2) 数据集制作与格式要求;3) 通过ModelScope下载Qwen3模型;4) 使用命令行进行LoRA微调训练,展示了训练参数与GPU使用情况;5) 模型导出方法;6) 最后对微调后的模型进行评估。整个过程在6块GPU上约15分钟完成训练,并提供了训练

别花钱买API了!NVIDIA白送顶级AI模型,GLM-4.7 + MiniMax M2.1 免费调用攻略

别花钱买API了!NVIDIA白送顶级AI模型,GLM-4.7 + MiniMax M2.1 免费调用攻略 开发者血亏警告! 你还在为调用大模型API烧钱吗?每月几百块的账单是不是看得肉疼?今天这条消息能让你彻底告别付费时代——NVIDIA官方放出王炸福利,一个账号免费调用GLM-4.7和MiniMax M2.1等顶级模型,效果直接对标付费的Claude Code! 🔥 颠覆认知的免费盛宴 最近NVIDIA悄悄上线了AI Playground服务(官网:build.nvidia.com),只要注册账号就能领取永久免费额度。实测可用模型包括: * GLM-4.7 Flash:128K超长上下文,代码生成能力碾压GPT-4 Turbo * MiniMax M2.1:国产最强编程模型,百万token上下文吊打闭源产品 * Kimi K2:长文本解析神器 * DeepSeek系列:数学推理专家 更疯狂的是,这些模型无需单独付费,全部整合在NVIDIA统一账户下!开发者再也不用在不同平台间反复充值,一站式解决所有需求。 ⚡ 性能实测: