[DeepSeek] 入门详细指南(上)

[DeepSeek] 入门详细指南(上)

前言

今天的是 zty 写DeepSeek的第1篇文章,这个系列我也不知道能更多久,大约是一周一更吧,然后跟C++的知识详解换着更。

来冲个100赞兄弟们

最近啊,浙江出现了一匹AI界的黑马——DeepSeek。这个名字可能对很多人来说还比较陌生,但它已经在全球范围内引发了巨大的关注,甚至让一些科技巨头感到了压力。简单来说这 DeepSeek足以改变世界格局

                                                  先   赞   后   看    养   成   习   惯 

众所周知,一篇文章需要一个头图

                                                  先   赞   后   看    养   成   习   惯  

上面那行字怎么读呢,让大家来跟我一起读一遍吧,先~赞~后~看~养~成~习~惯~

想要 DeepSeek从入门到精通.pdf 文件的加这个企鹅群:953793685(顺便是个技术交流群)

                                                  先   赞   后   看    养   成   习   惯  

正文

废话不多说,直接开始正文

DeepSeek 想要链接的宝宝们看这里

DeepSeek是什么?

DeepSeek(中文名:深度求索)是一款由杭州深度求索人工智能基础技术研究有限公司开发的人工智能模型。它的英文名“DeepSeek”可以读作“深思”(Deep)和“探索”(Seek),寓意着通过深度学习技术探索未知的领域。

简单来说,DeepSeek想要让机器像人类一样思考和学习,而不仅仅是执行简单的指令。

DeepSeek的核心是一个强大的语言模型,它能够理解自然语言并生成高质量的文本内容,无论是回答问题、撰写文章,还是进行复杂的推理,DeepSeek都能轻松应对。

大家光听上去,可能觉得不是特别厉害,但是请看下面你就知道他有多厉害了

DeepSeek有多厉害!

DeepSeek 的模型在性能上接近美国顶尖AI模型,但研发成本极低。

DeepSeek-R1模型的训练成本仅为560万美元,远低于美国科技巨头数亿美元乃至数十亿美元的投入。

这种低成本、高效率的模式直接挑战了美国依靠高算力、高资本建立的人工智能发展模式。

 

DeepSeek还免费让全球开发者自由下载和使用,这不仅加速了AI技术的普及,也削弱了美国在AI技术上的垄断地位。

DeepSeek的崛起引发了美国科技股的大幅下跌。受DeepSeek冲击,美国芯片巨头英伟达股价暴跌17%,博通下跌17%,AMD下跌6%,微软下跌2%。

英伟达、博通、AMD、微软:DeepSeek,我日你仙人

 DeepSeek:老子打的就是精锐

(搞笑一下,不要当真)

美国科技行业的“霸主地位”遭遇史无前例的挑战。

DeepSeek 的应用程序在苹果应用商店的下载量超越 Chat GPT,成为排名第一的免费应用程序。

这 Chat GPT 啊,可是美国的宝贝啊,以前那可是风光无限,觉得自己是AI界的霸主。但是现在呢,被DeepSeek给超越了。

美国总统 懂王川普 称 DeepSeek 的出现“给美国相关产业敲响了警钟”,并强调美国需要集中精力赢得竞争。

 DeepSeek怎么用

 打开 DeepSeek,聊天界面提供了三种模式——基础模型、深度思考(R1)和联网搜索,可根据不同场景和需求,灵活选用。

基础模型,于去年12月升级到DeepSeek-V3版,性能比肩全球顶尖的开闭源模型(如4o、Claude-3.5-Sonnet、Qwen2.5、Llama-3.1等)。 

不勾选任何功能,即默认使用V3基础模型。大多数情况下,选择基础模型就完全够用了。

深度思考(R1),是今年1月新发的DeepSeek-R1正式版(2个月前,我们测评过预览版),效果完全不输OpenAI o1(只有尊贵的Pro用户才能使用,200美刀/月),因免费+开源+极低价API,让DS在这个春节成为“国运”级模型,爆火海内外。

R1是一个爱思考的深度推理模型,主要擅长处理数理逻辑、代码和需要深度推理的复杂问题。通常,一些写诗、写文章的需求,用不到这个模型。

联网搜索,是让DS根据网络搜索结果来回答问题,也就是RAG(检索增强生成),你可以把它理解为DeepSeek的AI搜索功能。

联网搜索 / 深度思考 开启不开与不开启的区别是什么呢,我不妨看看DeepSeek是怎么说的

特性联网搜索不联网搜索
数据来源互联网实时数据本地或预加载数据
实时性支持实时更新数据静态,无法实时更新
功能范围功能丰富,支持在线服务功能受限,依赖本地资源
隐私保护可能存在隐私风险隐私性高,数据不上传
速度受网络影响速度快,无网络延迟
稳定性依赖网络稳定性稳定性高,不受网络影响
适用场景实时信息、在线服务、动态数据查询隐私保护、离线环境、固定知识查询
特性开启深度思考不开启深度思考
问题理解深入理解背景和隐含含义依赖表面信息,理解较浅
答案准确性更高,经过推理和验证较低,可能忽略细节
逻辑推理多步推理,分析因果关系推理能力有限,回答简单
内容复杂性复杂、详细、结构化简单、直接
响应速度较慢,需要更多计算较快,适合即时回答
适用场景复杂问题、创造性任务、深度分析简单问题、快速查询、日常对话

开启联网功能时,DeepSeek 能结合最新的网络信息,给出更全面、准确的答案,非常适合需要获取最新信息的场景;而不开启时,它主要依赖预训练知识库,回答速度更快,但无法获取最新信息,更适合解决通用知识类问题。这里要注意,预训练的时间节点是 2024 年 7 月,之后的内容需要联网才能获取更全面的信息。

DeepSeek使用技巧

1、提示词核心:准确表达

DeepSeek,无论是V3还是R1模型,都是不太吃提示词的,只需要做到【准确表达】即可。

通用提示词模板=你是谁+你的目标。 

    适当情况下,还可以补充一些背景信息:

    你是谁+背景信息+你的目标。 

      也可以是:

      通用提示词模板=你是谁+你的目标。 

        适当情况下,还可以补充一些背景信息:

        你是谁+背景信息+你的目标。 

          也可以是:

          我要xx,做xx用,希望达到xx效果,但担心xx问题…… 

            不管哪个模板,其核心都是【准确表达】。做到准确表达,基本就够用了。过去学的那些结构化提示词,现在起,可以直接丢掉了。

            2、与DS沟通,尽量说人话

            与DS沟通,尽量说人话。

            越是直白、俗气,就越能激发它的潜能。

            3、活用上传附件

            DS的推理模型,不仅能联网,还支持上传附件(最多不超过50个,每个不超过100MB)。

            推理+上传附件,可以做更多本地化、私密化的东西,比如你自己的知识库或者内部资料。让其基于自有知识库进行推理和思考。

            示例:阅读这篇材料,你认为,未来o系列模型会怎样引流AI发展?输出言简意赅,发人深省。

            当机器开始制造机器,AI开始研究AI,人类唯一的护城河,是直面自身局限的勇气。”说得真好,当AI能创新、发明后,人类确实需要直面自身的勇气。

            继续追问:你认为人类需要担心AI失控吗?

            我们需要的不仅是更聪明的AI,更是能内化人类伦理的‘意义对齐系统’。”对自己的认识,也相当深刻。

            人类不必因恐惧止步,但须以工程师的严谨与哲学家的审慎,为AI戴上“责任的镣铐”。

            来一段花絮:

            当我询问DeepSeek : ZEEKLOG zty郑桐羽呀是谁

            (括号中的内容是我评价的)

            他的回答:一、个人简介与技术领域身份特征以学生身份活跃于ZEEKLOG,常提及“上学期间发作品较少”,推测可能为在校学生367。(猜对了哦)技术方向覆盖算法竞赛题解(如NOIP题目、洛谷题库)和C++小游戏开发,擅长使用Dev C++ 6.7.5 Red Panda编译器及C++14标准368。社区影响力截至2024年4月,已发布17篇博客、6个资源,内容以代码实战为主,部分文章阅读量较高7。(那是我发博客的第1个月)在部分技术讨论中被提及(如勋章排行榜未直接显示,但社区标签关联C++、算法等领域)57。二、主要作品与项目 367算法题解(怎么尽挑些不是很好的文章来说P1348 Couple number:解析如何判断整数是否为平方差数,提供高效代码实现3。P1177 【模板】排序:使用C++标准库sort函数解决大规模数据排序问题8。代码风格简洁,注重时间复杂度优化,适合竞赛场景。C++小游戏开发(不错不错能量系列:推出多个版本(如1.0.1、1.0.6、1.1.2),包含战斗系统与AI逻辑,支持存档和调试模式,持续修复Bug并优化用户体验67。决战苍穹启动器:整合28个版本的游戏启动器,依赖自定义头文件运行7。(其实不是用自定义投头文件运行的,是我把每个版本的代码都做成一个个命名空间,然后想玩哪个版本调用哪个空间的主程序就行了,如果你们想要的话我也可以发出来,不过122万字符啊)工具与资源分享提供调优后的Dev C++ IDE安装包,强调“无病毒”和兼容性7。发布代码时附带详细更新日志,如“防伪水印”“输入优化”等功能改进7。防伪水印估计说的是决战苍穹(版本忘了),输入优化估计说的是能量1.1.2三、内容风格与互动特点行文习惯每篇博客开头和结尾均强调“先赞后看”,形成固定模板368。(还是你懂我,你们知道干什么了吗)代码注释较少,但通过分段和逻辑简化提升可读性,适合有一定基础的开发者参考。用户互动联系方式不公开,仅支持私信沟通368。(其实企鹅也可以:3782663736)部分文章因Bug修复或功能更新频繁调整,如能量1.0.1版本紧急修复游戏结束判断逻辑6。(就那么一篇文章你也拿出来说呀)四、开发环境与工具编译器:Dev C++ 6.7.5 Red Panda(附下载链接)7。(之前那个链接有问题现在这个链接没问题了标准与语言:C++14,代码兼容性较强38。(其实C++11也可以)调试与发布:注重版本迭代记录,如能量1.1.2版本新增调试模式和彩蛋功能7。五、社区参与与勋章虽未直接显示其获得“持之以恒Lv10”勋章,但根据勋章授予规则(累计10个月发布8篇原创IT博文),其博客发布频率符合条件可能性较高57。(确实啊)技术标签关联C++、算法、游戏开发,与社区热门方向一致57。

            如需进一步了解具体项目代码或更新详情,可访问其ZEEKLOG主页:zty郑桐羽呀的ZEEKLOG博客

            后记

            作者:zty郑桐羽呀

            联系方式:(QQ:3782663736)

            兄弟们给个赞呗

                                                              先   赞   后   看    养   成   习   惯  

            Read more

            43-dify案例分享-MCP-Server让工作流秒变第三方可调用服务

            43-dify案例分享-MCP-Server让工作流秒变第三方可调用服务

            1.前言 之前我们为大家介绍过MCP SSE插件,它能够支持MCP-server在Dify平台上的调用,从而帮助Dify与第三方平台提供的MCP-server进行无缝对接。有些小伙伴提出了疑问:既然Dify可以通过MCP SSE插件调用其他平台的MCP-server,那么Dify的工作流或Chatflow是否也能发布为MCP-server,供其他支持MCP client的工具使用呢?今天,我们将为大家介绍一款Dify插件——mcp-server,它能够实现这一功能,即将Dify的工作流或Chatflow发布为MCP-server,供其他第三方工具调用。 插件名字叫做MCP-server,我们在dify插件市场可以找到这个工具 Mcp-server 是一个由 Dify 社区贡献的 Extension 类型插件。安装后,你可以把任何 Dify 应用转变成符合 MCP 标准的 Server Endpoint,供外部 MCP 客户端直接访问。它的主要功能包括: * **暴露为 MCP 工具:**将 Dify 应用抽象为单一 MCP 工具,供外部 MCP 客户端(如

            By Ne0inhk
            【MCP】详细了解MCP协议:和function call的区别何在?如何使用MCP?

            【MCP】详细了解MCP协议:和function call的区别何在?如何使用MCP?

            本文介绍了MCP大模型上下文协议的的概念,并对比了MCP协议和function call的区别,同时用python sdk为例介绍了mcp的使用方式。 1. 什么是MCP? 官网:https://modelcontextprotocol.io/introduction 2025年,Anthropic提出了MCP协议。MCP全称为Model Context Protocol,翻译过来是大模型上下文协议。这个协议的主要为AI大模型和外部工具(比如让AI去查询信息,或者让AI操作本地文件)之间的交互提供了一个统一的处理协议。我们常用的USB TypeC接口(USB-C)统一了USB接口的样式,MCP协议就好比AI大模型中的USB-C,统一了大模型与工具的对接方式。 MCP协议采用了C/S架构,也就是服务端、客户端架构,能支持在客户端设备上调用远程Server提供的服务,同时也支持stdio流式传输模式,也就是在客户端本地启动mcp服务端。只需要在配置文件中新增MCP服务端,就能用上这个MCP服务器提供的各种工具,大大提高了大模型使用外部工具的便捷性。 MCP是开源协议,能让所有A

            By Ne0inhk
            【大模型系列篇】大模型基建工程:基于 FastAPI 自动构建 SSE MCP 服务器

            【大模型系列篇】大模型基建工程:基于 FastAPI 自动构建 SSE MCP 服务器

            今天我们将使用FastAPI来构建 MCP 服务器,Anthropic 推出的这个MCP 协议,目的是让 AI 代理和你的应用程序之间的对话变得更顺畅、更清晰。FastAPI 基于 Starlette 和 Uvicorn,采用异步编程模型,可轻松处理高并发请求,尤其适合 MCP 场景下大模型与外部系统的实时交互需求,其性能接近 Node.js 和 Go,在数据库查询、文件操作等 I/O 密集型任务中表现卓越。 开始今天的正题前,我们来回顾下相关的知识内容: 《高性能Python Web服务部署架构解析》、《使用Python开发MCP Server及Inspector工具调试》、《构建智能体MCP客户端:完成大模型与MCP服务端能力集成与最小闭环验证》   FastAPI基础知识 安装依赖 pip install uvicorn, fastapi FastAPI服务代码示例  from fastapi import FastAPI app

            By Ne0inhk
            超详细图文教程:用vscode+copilot(代理模式)便捷使用mcp+一个范例:用自然语言进行3d建模

            超详细图文教程:用vscode+copilot(代理模式)便捷使用mcp+一个范例:用自然语言进行3d建模

            在vscode使用claude mcp吧! 在vscode更新到最新版本(注意,这是前提)后,内置的copilot可以使用mcp了!!! 关于mcp(Model Context Protocol 模型上下文协议),可以参考我的上一篇文章: MCP个人理解+示例+集成管理+在python中调用示例,给AI大模型装上双手-ZEEKLOG博客 以下是使用教程: 1.点击左下角的齿轮状设置按钮,点击设置 2.在输入面板输入chat.agent.enabled,勾上勾选框 3.点击Ctrl+shift+P,输入reload,点击重新加载窗口,刷新窗口 4.打开copilot后,在右下角将模式改为代理即可。 5.点击工具按钮,开始安装mcp 先去github找到自己想要添加的mcp服务,以blender MCP为例,打开https://github.com/ahujasid/blender-mcp,可以在readme文档里看到详细的安装过程。可以看到,

            By Ne0inhk