基于华为开发者空间-云开发环境(容器)+MaaS大模型构建智能写作助手应用

基于华为开发者空间-云开发环境(容器)+MaaS大模型构建智能写作助手应用

最新案例动态,请查阅 《基于华为开发者空间-云开发环境(容器)+MaaS大模型构建智能写作助手应用》。小伙伴快来领取华为开发者空间进行实操吧!

一、概述

1. 案例介绍

华为开发者空间,是为全球开发者打造的专属开发者空间,致力于为每位开发者提供一台云主机、一套开发工具和云上存储空间,汇聚昇腾、鸿蒙、鲲鹏、GaussDB、欧拉等华为各项根技术的开发工具资源,并提供配套案例指导开发者从开发编码到应用调测,基于华为根技术生态高效便捷的知识学习、技术体验、应用创新。

面对海量用户并发开发、测试对资源弹性与隔离性的高标准要求,华为开发者空间开发平台 - 云开发环境(容器)深度融合了弹性云主机的高性能计算与容器技术的敏捷弹性,通过构建集高效计算、安全隔离、敏捷部署于一体的云原生基础设施,不仅保障了云开发环境的稳定可靠,更实现了资源的秒级伸缩与高效利用,为加速应用创新提供了坚实底座。

华为MaaS平台不仅提供高质量的DeepSeek-V3模型,更具备百万token的超长上下文处理能力,使得本应用能够支持复杂的多轮对话场景和长文档分析任务。前端采用Gradio框架构建响应式聊天界面,后端通过封装MaaS平台API,为用户提供流畅的智能对话体验。

本案例基于华为开发者空间-云开发环境(容器)+MaaS大模型,构建智能写作助手应用。

2. 适用对象

  • 企业
  • 个人开发者
  • 高校学生

3. 案例时间

本案例总时长预计60分钟。

4. 案例流程

说明:

  1. 用户进入开发者空间开发平台云开发环境,创建容器;
  2. 使用VS Code连接云开发环境;
  3. 编写Web端项目代码集成MaaS大模型;
  4. 使用浏览器测试并体验智能写作助手。

5. 资源总览

本案例预计花费0元。

资源名称规格单价(元)时长(分钟)
华为开发者空间开发平台 - 云开发环境(容器)鲲鹏通用计算增强型 kc1 | 2vCPUs | 4G | HCE免费60

二、环境准备

1. 领取注册开发者空间

开发者空间是开发者专属的云上成长空间,预置免费华为根技术工具和资源,为开发者提供从学习、开发到部署的全旅程支持。

点击免费领取,立即领取开发者空间。

注意:领取开发者空间,需要登录华为账号,如果没有,请注册华为账号并完成实名认证。

2. 领取百万tokens代金券

参考案例《Versatile Agent中自定义接入大模型配置华为云Maas指导》中的“一、 领取”章节内容,领取华为开发者空间百万token代金券福利,购买ModelArts Studio DeepSeek-V3 轻量体验包(¥3.50)。开通商用模型服务,最后获取模型名称API地址API Key的参数值。

注意:记录API KeyAPI地址以及model名称留作后面步骤使用。

三、配置云开发环境(容器)

1. VS Code远程连接云开发环境(容器)

参考案例《华为开发者空间 - 云开发环境(容器)IDE插件远程连接操作指导》中的“二、云开发环境IDE插件远程连接操作指导”的内容,完成“1. 安装插件” ~ “4. 连接”章节步骤。

完成连接之后的状态:

四、构建智能写作助手应用

1. 获取智能写作助手项目代码

点击版本控制图标,再点击Initialize Repository

clone代码,输入代码仓地址,Clone from URL:https://gitcode.com/u014005316/writing-assistant.git

选择代码仓目录:/root/,点击Add to Workspace加入当前工作空间。

2. 安装项目依赖

按下Ctrl+Shift+`,打开Terninal窗口,选择writing-assistant目录,安装requestsflask

pip install requests pip install flask 

安装Python插件:

3. 智能写作助手代码功能介绍

智能写作助手代码结构如下图所示:

writing-assistant # 项目名称 ├── templates │ └── index.html # 智能写作助手UI界面的html文件 ├── app.py # 智能写作助手执行入口文件 │ └── index() # 主页路由 │ └── generate_content() # 调用模型生成内容 └── deepseek_api.py # 模型调用 

app.py部分代码如下

# app.py from flask import Flask, request, jsonify, render_template from deepseek_api import DeepSeekAPI import os app = Flask(__name__) # 初始化DeepSeek API客户端 api_client = DeepSeekAPI( api_key='API_KEY', api_url='API_URL', model='MODEL' ) @app.route('/') def index(): """主页""" return render_template('index.html') if __name__ == '__main__': # 创建模板目录 os.makedirs('templates', exist_ok=True) print("=" * 50) print("智能写作助手启动成功!") print("访问: http://localhost:5000") print("=" * 50) app.run(debug=True, host='0.0.0.0', port=5000) 

注意:

  • API_KEY替换成“二、环境准备中的2. 领取百万tokens代金券”中获取的API Key;
  • API_URL替换成“二、环境准备中的2. 领取百万tokens代金券”中获取的API地址;
  • MODEL替换成“二、环境准备中的2. 领取百万tokens代金券”中获取的model名称。

4. 测试体验智能写作助手

运行智能写作助手项目:

点击右上角运行按钮,运行main.py文件:

在浏览器中输入:http://127.0.0.1:5000,或者点击Open in Browser进入智能写作助手平台。

输入文章主题:人工智能未来发展趋势
选择:文章生成
文章风格:学术
文章长度:短篇(300字)

点击开始生成

智能写作助手成功帮助我们生成文章。

至此,基于华为开发者空间-云开发环境(容器)+MaaS大模型构建智能写作助手应用的案例已全部完成。

Read more

【愚公系列】《AI短视频创作一本通》011-AI 短视频分镜头设计(AI绘画工具的选择)

【愚公系列】《AI短视频创作一本通》011-AI 短视频分镜头设计(AI绘画工具的选择)

💎【行业认证·权威头衔】 ✔ 华为云天团核心成员:特约编辑/云享专家/开发者专家/产品云测专家 ✔ 开发者社区全满贯:ZEEKLOG博客&商业化双料专家/阿里云签约作者/腾讯云内容共创官/掘金&亚马逊&51CTO顶级博主 ✔ 技术生态共建先锋:横跨鸿蒙、云计算、AI等前沿领域的技术布道者 🏆【荣誉殿堂】 🎖 连续三年蝉联"华为云十佳博主"(2022-2024) 🎖 双冠加冕ZEEKLOG"年度博客之星TOP2"(2022&2023) 🎖 十余个技术社区年度杰出贡献奖得主 📚【知识宝库】 覆盖全栈技术矩阵: ◾ 编程语言:.NET/Java/Python/Go/Node… ◾ 移动生态:HarmonyOS/iOS/Android/小程序 ◾ 前沿领域:

Llama Factory数据预处理:高质量训练集构建实战方法

Llama Factory数据预处理:高质量训练集构建实战方法 如果你正在尝试用Llama Factory微调自己的大模型,可能会发现一个有趣的现象:同样的模型、同样的训练参数,不同人训练出来的效果天差地别。有人训练出的模型对答如流、专业精准,有人训练出的模型却答非所问、逻辑混乱。 这背后的关键差异,往往不是训练技巧有多高明,而是数据预处理的质量。 数据预处理就像做饭前的食材准备——再好的厨师,用烂食材也做不出美味佳肴。在Llama Factory这个“零代码”微调平台上,数据预处理更是决定了你最终模型效果的上限。 今天,我就带你深入Llama Factory的数据预处理环节,分享一套经过实战验证的高质量训练集构建方法。无论你是想训练客服助手、代码生成器,还是专业领域问答模型,这套方法都能帮你构建出真正有效的训练数据。 1. 为什么数据预处理如此重要? 在开始具体操作之前,我们先搞清楚一个核心问题:为什么在Llama Factory这样的可视化平台上,数据预处理依然如此关键? 1.1 数据质量决定模型上限 大模型微调的本质,是让模型“学习”你提供的数据中的模式和规律。

Counterfeit-V3.0 Stable Diffusion模型:解锁AI绘画创作新维度的完整指南

Counterfeit-V3.0 Stable Diffusion模型:解锁AI绘画创作新维度的完整指南 【免费下载链接】Counterfeit-V3.0 项目地址: https://ai.gitcode.com/hf_mirrors/ai-gitcode/Counterfeit-V3.0 🎨 你准备好迎接AI绘画的下一次进化了吗? 当传统Stable Diffusion模型让你在构图创意上处处受限,Counterfeit-V3.0的出现为数字创作者带来了革命性的解决方案。这款基于BLIP-2技术构建的先进模型,不仅大幅提升了自然语言理解能力,更通过创新的负嵌入融合技术,重新定义了AI绘画的创作边界。 读完本文,你将彻底掌握: * Counterfeit-V3.0的核心技术架构与独特优势 * 负嵌入技术的实战应用与参数调优 * 5大创作场景的完整prompt模板 * 规避模型弱点的专业技巧 * 性能优化的量化分析方法 🔬 技术架构深度解析 Counterfeit-V3.0的技术创新主要体现在三个关键领域: BLIP-2驱动的智能理解引擎 通过集成BL

MCP AI Copilot集成开发全攻略(90%工程师忽略的关键细节)

第一章:MCP AI Copilot集成开发的代码示例 在现代软件开发中,MCP(Model-Code-Pipeline)AI Copilot 工具通过智能建议和自动化生成显著提升了编码效率。开发者可通过标准 API 接口将其集成至现有 IDE 环境或 CI/CD 流程中,实现代码补全、错误检测与优化建议的实时响应。 环境准备与依赖引入 集成前需确保本地开发环境已安装对应 SDK 与认证凭证。以 Go 语言为例,使用以下命令引入 MCP 客户端库: import ( "github.com/mcp-ai/copilot/client" "github.com/mcp-ai/copilot/config" ) 配置 API 密钥与服务端点,确保网络可访问: // 初始化