华为云Flexus+DeepSeek征文|打造一款智能问数 AI Agent 的完整实践指南

华为云Flexus+DeepSeek征文|打造一款智能问数 AI Agent 的完整实践指南

目录

在大模型加速普及的今天,如何低门槛地搭建自己的 AI Agent 并将其应用到实际业务场景中,是很多开发者关心的话题。本次我将基于华为云提供的 DeepSeek-V3/R1 商用服务与 Dify LLM 应用开发平台,通过一键部署和自定义 Agent 开发,构建一款智能问数助手,并分享从平台开通、部署、开发到调优测试的全过程实践与思考。


一、项目背景与目标

“智能问数”是一个典型的数据驱动型 AI Agent 场景,它面向用户提问结构化数据中的信息(如销售、财务、运营等数据),并自动生成分析结果或报表答复。本项目旨在通过华为云大模型平台实现以下目标:

  • 快速构建一套可对接企业表格/知识库数据的 AI 问答系统;
  • 结合 DeepSeek-R1 模型实现更精准的多轮问答、自然语言理解;
  • 通过 Dify LLM 开发平台打造易于扩展的智能 Agent 架构;
  • 实现高并发响应测试,探索容器化高可用部署方案。

二、开通 DeepSeek-V3/R1 商用服务流程

华为云目前提供 DeepSeek 系列大模型服务,支持包括在线推理、Agent开发、Dify集成等多种能力。以下是详细的服务开通步骤:

1. 访问服务入口

在这里插入图片描述

前往 ModelArts Studio-MaaS 平台首页,进入“大模型即服务”模块。

2. 注册与登录账号

如尚无账号,先完成华为云注册,并实名认证。已有账号可直接登录控制台。

3. 进入在线推理模块

点击左侧导航栏“模型推理” → “在线推理”,进入模型调用入口。

在这里插入图片描述

4. 开通商用服务

选择 DeepSeek-V3 或 DeepSeek-R1 模型,并点击“商用服务”按钮进行开通。请务必确保账号余额 ≥10 元(避免部署过程中失败),充值链接如下:
华为云账号充值

在这里插入图片描述

三、一键部署 Dify LLM 应用开发平台

Dify 是一款低代码大模型应用开发平台,支持自定义工作流、知识库对接和 Agent 能力构建。部署方式如下:

1. 访问部署入口

打开官方部署教程页面:
快速搭建Dify平台

2. 使用“一键部署”功能

点击“一键部署”按钮,华为云将自动创建运行所需的容器资源及网络依赖,无需手动配置。整个过程仅需数分钟。

在这里插入图片描述

3. Flexus X 实例亮点介绍

Dify平台部署使用了华为云最新的 Flexus X实例,具备以下显著优势:

  • 性能提升 1.6 倍,大模型推理响应更快;
  • 关键业务应用最高加速 6 倍,特别适合 AI 推理类应用;
  • 综合降本约 30%,降低试验和部署成本;
  • 旗舰级可靠性保障,支持容器自动恢复与容错部署。

Flexus X 的引入,使 Dify 平台不仅部署更快,后续运行更加稳定、可控,是开发大模型 Agent 的理想选择。


四、一键部署Dify-LLM应用开发平台

点击“一键部署(知识库搜索增强版)”选项

在这里插入图片描述


这里点击下一步就行

在这里插入图片描述


设置一下密码,注意需要满足后面的要求

然后直接点击部署就行

在这里插入图片描述

等待几分钟,可看到我们的资源栈部署完成

在这里插入图片描述

访问输出中的地址即可进入Dify-LLM应用开发平台

在这里插入图片描述

首次登录需要设置邮箱、用户名和密码

在这里插入图片描述

部署可参考:一键部署Dify-LLM应用开发平台


五、开发智能问数 AI Agent 实践

基于 Dify 平台与 DeepSeek-V3 模型,我开发了一款面向表格数据的“智能问数”助手,实现用户通过自然语言提问,系统自动解析意图并给出数据结果或分析。

1.与MaaS服务对接

在ModelArts Studio左侧导航栏中,选择“在线推理”,开通服务并点击调用说明

在这里插入图片描述

然后接口类型选择“OpenAI SDK”获取API地址和模型名称。

在这里插入图片描述


另外点击下面的API key管理,创建key并保存,后面我们需要用到

在这里插入图片描述

2.完整模型供应商设置

在Dify平台界面,点击右上角用户名称,下拉并单击“设置”。

在这里插入图片描述


输入上面我们获取到的“模型名称”、“API endpoint URL”和"API Key"

在这里插入图片描述

3. Agent 创建流程

在 Dify 控制台中点击“创建应用”,选择“chatflow”

  • 调用模型:设置为 DeepSeek-V3,启用多轮上下文模式
  • 输出模块:直接输出模型回复文本
在这里插入图片描述

点击预览进行测试

在这里插入图片描述

结合上下文,Agent 表现出良好的语义理解和数据分析能力,测试完成之后可以点击发布。


温馨提示,用完记得删除一下 资源栈

在这里插入图片描述

不然像我一样放几个小时就欠费了

在这里插入图片描述

总结与展望

通过本次实践,我完整体验了从华为云大模型平台服务开通、Dify平台部署,到 AI Agent 开发与优化的全过程。DeepSeek 模型强大的语义理解能力、Dify 平台的低代码特性,再结合 Flexus X 实例的高性能与可用性,为企业构建个性化 AI 应用提供了完整解决方案。

未来展望:

  • 接入更多数据源,如数据库/API,拓展问数范围;
  • 结合图表组件,生成可视化分析报告;
  • 对接企业微信或钉钉,集成到日常办公工具中。

828 B2B企业节已经开幕,汇聚千余款华为云旗下热门数智产品,更带来满额赠、专属礼包、储值返券等重磅权益玩法,是中小企业和开发者上云的好时机,建议密切关注官方渠道,及时获取最新活动信息,采购最实惠的云产品和最新的大模型服务!

Read more

Flutter 组件 pathfinding 的鸿蒙化适配实战 - 驾驭极致拓扑寻踪大坝、实现 OpenHarmony 分布式端高性能 AI 寻路、迷宫拓扑与工业级路径导航核方案

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 组件 pathfinding 的鸿蒙化适配实战 - 驾驭极致拓扑寻踪大坝、实现 OpenHarmony 分布式端高性能 AI 寻路、迷宫拓扑与工业级路径导航核方案 前言 在鸿蒙(OpenHarmony)生态的分布式工业巡检、高性能游戏开发或者是对空间计算有极其严苛要求的 0308 批次智能仓储应用中。“复杂环境下的路径最优解计算与实时障碍避让维度”是衡量整个系统智慧化程度的最终质量门禁。面对包含数万个节点的网格地图、海量动态变化的货架坐标、甚至是由于跨设备同步产生的 0308 批次拓扑逻辑海洋。如果仅仅依靠简单的“直线欧式距离”或者是干瘪的广度优先搜索(BFS)。不仅会导致在处理大型复杂地图时让系统如同在逻辑废墟中盲人摸象。更会因为计算耗时指数级爆炸,让移动端在进行路径导航时瞬间陷入死机盲区。 我们需要一种“逻辑先行、代价建模”的空间演算艺术。 pathfinding 是一套专注于无缝整合全球公认顶级算法 A*、Dijkstra 以及二叉堆

老码农和你一起学AI系列:LLaMA衍生模型

老码农和你一起学AI系列:LLaMA衍生模型

LLaMA衍生模型指的是基于Meta发布的LLaMA基础模型,通过微调、优化或扩展而产生的各类变体模型。就像LLaMA是一个强大的“通用大脑”,而衍生模型则是针对不同语言、不同任务、不同应用场景进行“专业培训”后的“专家”。根据衍生方式的不同,可以分为两大类:LLaMA衍生模型、官方演进版本 一、官方演进版本 LLaMA系列本身就在持续演进,每一代都是前一代的“官方衍生版”: 版本核心升级技术亮点LLaMA 1开源奠基13B参数超越GPT-3,验证“小模型+大数据”路线LLaMA 2可商用、GQA上下文翻倍至4K,引入分组查询注意力,70B版本逼近GPT-3.5LLaMA 315T数据、128K上下文405B旗舰版性能比肩GPT-4,代码占比提升至25%LLaMA 4MoE稀疏架构、多模态17B激活参数达400B总参数效果,原生支持图像/视频理解,1000万上下文窗口 二、社区微调衍生模型 Alpaca(斯坦福):LLaMA衍生模型的“鼻祖”。斯坦福团队用52K条指令数据对7B LLaMA进行微调,仅花费不到600美元就训练出媲美GPT-3.5的对话模型。

AI绘画API开发指南:基于Z-Image-Turbo构建自己的图像生成服务

AI绘画API开发指南:基于Z-Image-Turbo构建自己的图像生成服务 作为一名全栈开发者,最近接到了为客户搭建AI绘画平台的需求。经过调研,我发现Z-Image-Turbo是一个高效的文生图模型,特别适合快速封装成API服务。本文将分享如何基于Z-Image-Turbo构建可调用的图像生成API,帮助开发者快速实现类似需求。这类任务通常需要GPU环境,目前ZEEKLOG算力平台提供了包含该镜像的预置环境,可快速部署验证。 Z-Image-Turbo简介与核心优势 Z-Image-Turbo是阿里开源的高性能文生图模型,相比传统Stable Diffusion具有以下特点: * 生成速度快:优化后的架构在16G显存设备上即可流畅运行 * 图像质量高:支持1024x1024高清输出,细节表现优秀 * 易用性强:提供标准化的API接口和预训练模型 实测下来,用默认参数生成一张512x512的图片仅需3-5秒,非常适合需要快速响应的商业场景。 环境准备与镜像部署 1. 选择GPU环境:建议使用至少16G显存的NVIDIA显卡 2. 拉取预置镜像(以ZEEKL

多模态大模型核心原理与实战:从Stable Diffusion到Sora全面解析

多模态大模型核心原理与实战:从Stable Diffusion到Sora全面解析

多模态大模型通过Embedding、信息融合与任务学习处理多源数据。Stable Diffusion利用CLIP和UNet实现文本到图像生成,Sora扩展到视频领域,加入时空切块和一致性模块保证连贯性。大模型赋能推荐系统实现个性化内容生成,如GeneRec和PMG。工程实践中需关注模型瘦身、流式训练及多层级评估体系,平衡效率与正确性。 多模态大模型的基本原理 多模态大模型的整体架构,与纯文本大模型没本质区别,都要经原始数据的 Embedding、信息融合与目标任务学习及微调等过程。 5阶段模型训练: (1) 理解数据并将其 Embedding化。 (2)多模态 Embedding 对齐。 (3)多模态信息交互与融合。 (4)多任务学习。 (5)多模态微调。 Stable Diffusion(稳定扩散模型) (1)文本编码器:负责把输入的 Prompt 映射到 Embedding 空间。 (2)图像信息生成器:负责在 Embedding 空间把文本 Embedding 转换成包含这些文本信息的图像 Embedding。 (3)