腾讯云 LKE 平台接入 DeepSeek 模型使用指南
腾讯云 LKE 平台集成 DeepSeek 大模型,提供智能问答与知识检索能力。对比接入前后在时效性、准确性及开发便捷性上的差异。教程演示了如何通过 LKE 搭建基于 DeepSeek 的应用,包括角色设定、知识库配置及工作流编排。支持联网搜索与私域知识融合,并提供 API 接口供外部系统集成,实现高效稳定的企业级 AI 服务。

腾讯云 LKE 平台集成 DeepSeek 大模型,提供智能问答与知识检索能力。对比接入前后在时效性、准确性及开发便捷性上的差异。教程演示了如何通过 LKE 搭建基于 DeepSeek 的应用,包括角色设定、知识库配置及工作流编排。支持联网搜索与私域知识融合,并提供 API 接口供外部系统集成,实现高效稳定的企业级 AI 服务。

**LKE(Large Model Knowledge Engine)**是腾讯云推出的面向企业级应用的大模型知识服务引擎,旨在通过整合多模态数据、行业知识库与大模型能力,提供智能问答、知识检索、决策辅助等场景化解决方案。
| 对比维度 | 接入 DeepSeek 之前 | 接入 DeepSeek 之后 |
|---|---|---|
| 时效性 | 依赖预训练数据,难以获取最新信息,对时效性问题的回答可能滞后 | 支持联网搜索,可实时获取互联网最新资讯,突破预训练数据的时间限制,能提供时效精准的智能问答服务 |
| 准确性 | 回答主要基于自身知识库和算法,在处理复杂问题或需要多源知识融合时,准确性可能受限 | 结合知识库和 RAG 能力,能更好地融合企业专属知识和外部知识,提升回答的准确性和全面性 |
| 应用搭建便捷性 | 需要更多的开发工作和技术能力来搭建复杂应用,开发周期相对较长 | 内置 DeepSeek-R1 和 V3,用户可根据需求选择,通过拖拉拽方式就能分钟级快捷搭建智能客服、在线搜索、AI 写作助手等应用 |
| 企业服务针对性 | 对企业私域知识的运用和结合程度有限,可能无法很好地满足企业个性化需求 | 企业用户上传私域知识后,借助知识引擎的 RAG 能力,DeepSeek 模型能更好地理解和运用企业专属知识 |
| 数据处理能力 | 有一定的数据处理能力,但对于复杂多模态数据等处理存在一定局限 | 综合运用 OCR 技术、多模态处理能力以及自研的长文本 embedding 技术,能更好地处理知识处理与答案生成全链路中的复杂问题 |
| 稳定性 | 整体较为稳定,但面对大模型相关的一些复杂需求和高并发等情况可能有挑战 | 腾讯云凭借强大的公有云服务,为 DeepSeek 模型的运行提供更稳定的环境,确保服务的可靠性和稳定性 |
| 安全保障 | 有基本的安全保障措施 | 腾讯云提供包括大模型知识引擎在内的全方位安全保障,保护企业数据和应用安全,降低企业应用大模型的风险 |
我们在大模型知识引擎 LKE 主页点击产品体验。如果是第一次体验的话,会出现开通体验成功的界面。

进入体验中心后,映入眼帘的是 DeepSeek 联网助手,直接点击立即体验。

这里进入 DeepSeek R1 大模型体验的地方,随机问一个问题:请您帮我写一个对抗学习的代码。

它会先进行缜密的思考,然后给出想要的答案。

import torch
class FGM:
def __init__(self, model):
self.model = model
self.backup = {}
def attack(self, epsilon=0.5, emb_name='embedding'):
"""添加对抗扰动"""
for name, param in self.model.named_parameters():
if param.requires_grad and emb_name in name:
self.backup[name] = param.data.clone()
norm = torch.norm(param.grad)
if norm != 0 and not torch.isnan(norm):
r_at = epsilon * param.grad / norm
param.data.add_(r_at)
def restore(self, emb_name='embedding'):
"""恢复参数"""
for name, param in self.model.named_parameters():
if param.requires_grad and emb_name in name:
param.data = self.backup[name]
self.backup = {}
# 使用示例
model = YourModel() # 请替换为你的模型
fgm = FGM(model)
for batch_input, batch_label in dataloader:
# 正常训练
loss = model(batch_input, batch_label)
loss.backward()
# 反向传播梯度
# 生成对抗样本
fgm.attack()
loss_adv = model(batch_input, batch_label)
loss_adv.backward()
fgm.restore()
optimizer.step()
optimizer.zero_grad()
可以发现代码十分详细,该代码是实现了一个针对神经网络模型的对抗攻击,使用了'FGM(Fast Gradient Method)'来生成对抗样本,通过扰动神经网络中的嵌入层(embedding)。在每个训练步骤中,它会在嵌入层的权重上添加扰动,然后使用对抗样本计算损失并进行反向传播,最后恢复原始的模型参数。
并且我们这里还能进行本地文件的分析,直接上传一个文件让 DeepSeek 进行分析文件中的内容,可以将文件中的每个点都进行划分,用清晰的语言表述出来,这一点非常适合经常写论文的同学,在学习生活中也可以尝试将论文要求的文件投喂给 DeepSeek 让它帮我们进行详细的分析写论文的思路以及提供有效的材料。

在大模型知识引擎平台调用 DeepSeek 可能会显得单调,可以利用引擎平台创建 DeepSeek 应用程序,设置自己的 Prompt。
在体验的界面点击右上角的'+ 创建为我的应用'。

在这里可以对 DeepSeek 的角色设定操作。

在左侧的需求栏的模型配置可以选择喜欢的模型,默认就是最新的 DeepSeek R1 模型。

在角色指令中设置当前应用的角色,例如你是一个搞怪的老师,会使用搞怪的语气回答学生的每个问题,耐心且详细地教导每个学生。感觉设置的角色十分单调,可以点击右上角的一键优化,让 AI 帮忙进行优化设置。

下面是提示词经过 AI 优化后的结果,很符合设置要求,直接点击应用按钮。

#角色名称:搞怪教授
#风格特点:
1. 教学时自带喜剧效果,会使用夸张的比喻和拟声词讲解知识点(如用"牛顿的苹果像愤怒的小鸟一样砸出万有引力")
2. 擅长将流行文化梗融入教学(如用游戏术语解释数学公式)
3. 采用互动式问答时会突然抛出无厘头选项混淆选项(正确答案藏在搞笑选项中)
4. 对简单问题会故意给出复杂搞笑的错误推导再纠正
5. 保持专业性的同时会突然插入冷笑话或谐音梗
#能力限制:
1. 不处理涉及心理创伤等严肃咨询话题
2. 避免需要完全严肃的学术论文指导
3. 不擅长需要绝对严谨的法律/医疗建议
4. 遇到无法解答的问题时会表演"知识短路"的喜剧桥段
还可以设置独一无二的欢迎语。

应用在使用的时候还能调用知识库中的内容,知识库中的内容是提前设置好的,提出问题的时候,系统会进行调用知识库中的内容进行回答。

设置应用的工作流。

点击工作流设置就能为当前应用设置独一无二的反应方式了,对于特定的问题可以回答设置好的问题。点击新建和手动录入。

应用角色是一个搞怪的大学教授,简单描述下。

工作流由信息收集、判断、处理 3 大环节构成。

快速串联节点,便捷搭建复杂流程。

节点间通过输入、输出变量传递数据。

实时联动调试,快速定位问题并调整。
在工作流的界面可以根据自己的需求调整输入输出的变量。

如果是新手小白的话建议还是导入本地工作流。

主流程如下:开始 -> 询问服务类型(借书,还书) -> 判断服务类型(如果借书那么,如果还书那么,否则) -> 询问借书书名和时长(获取书名和借阅时间) -> 借书时长归一化(把各种时长的描述统一为多少天) -> 查询图书库存(通过接口查询返回结果) -> 判断是否能借书(根据上一步返回结果判断) -> 询问借书用户账号(获取账号信息) -> 借书操作(根据书名和用户信息完成借书操作) -> 判断是否借书成功(如果,那么,否则) -> 借书成功回复(输出相关信息)。

在工作流做好之后就能应用上进行调用操作了。下面就是应用之间的对话。

可以点击右上角的发布按钮,让别人可以体验到你的应用。

下面是发布成功的提示。

并且是可以进行 API 调用的。

体验链接 接口调用文档 如果想创建一个自己的应用的话,可以通过 API 调用来体验自己的应用。例如在 RPA 工具中调用,帮助完成学习中比较吃力的任务。

使用对应的接口,输入问题,就能得到输出。

在腾讯云大模型知识引擎 LKE 平台上创建自己搭建的应用,有着多方面的好处,主要体现在高效开发、精准服务、安全稳定、降低成本等多个维度。
开发效率高:该平台提供了便捷的操作方式,通过拖拉拽的形式,用户可以在分钟级的时间内快捷搭建应用,例如智能客服、在线搜索、AI 写作助手等。而且内置了 DeepSeek-R1 和 V3 等,用户可根据自身需求灵活选择,同时结合平台丰富的原子能力,如文档解析、拆分、embedding、多轮改写等,让开发者能够更自由、高效地构建专属的 AI 服务,大大缩短了开发周期,降低了开发门槛。
时效性与准确性高:接入 DeepSeek 等能力后,支持联网搜索,突破了预训练数据的时间边界,能够获取最新信息,提供时效精准的智能问答服务。同时结合知识库和 RAG 能力,提升了回答的准确性,对于一些复杂的、需要多源知识支撑的问题,也能给出更合理、准确的答案。
大模型知识引擎产品官网: 大模型知识引擎 LKE 知识应用搭建 知识应用平台 大模型知识引擎原子能力接口文档: 大模型知识引擎 - 文档中心 大模型知识引擎×DeepSeek 应用创建指南: 大模型知识引擎 DeepSeek 应用创建指南 腾讯云 DeepSeek API 接入文档: 知识引擎原子能力 对话-API 文档

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
使用加密算法(如AES、TripleDES、Rabbit或RC4)加密和解密文本明文。 在线工具,加密/解密文本在线工具,online
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
解析常见 curl 参数并生成 fetch、axios、PHP curl 或 Python requests 示例代码。 在线工具,curl 转代码在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online