基于华为开发者空间-云开发环境(容器)+MaaS大模型构建智能写作助手应用

基于华为开发者空间-云开发环境(容器)+MaaS大模型构建智能写作助手应用

最新案例动态,请查阅 《基于华为开发者空间-云开发环境(容器)+MaaS大模型构建智能写作助手应用》。小伙伴快来领取华为开发者空间进行实操吧!

一、概述

1. 案例介绍

华为开发者空间,是为全球开发者打造的专属开发者空间,致力于为每位开发者提供一台云主机、一套开发工具和云上存储空间,汇聚昇腾、鸿蒙、鲲鹏、GaussDB、欧拉等华为各项根技术的开发工具资源,并提供配套案例指导开发者从开发编码到应用调测,基于华为根技术生态高效便捷的知识学习、技术体验、应用创新。

面对海量用户并发开发、测试对资源弹性与隔离性的高标准要求,华为开发者空间开发平台 - 云开发环境(容器)深度融合了弹性云主机的高性能计算与容器技术的敏捷弹性,通过构建集高效计算、安全隔离、敏捷部署于一体的云原生基础设施,不仅保障了云开发环境的稳定可靠,更实现了资源的秒级伸缩与高效利用,为加速应用创新提供了坚实底座。

华为MaaS平台不仅提供高质量的DeepSeek-V3模型,更具备百万token的超长上下文处理能力,使得本应用能够支持复杂的多轮对话场景和长文档分析任务。前端采用Gradio框架构建响应式聊天界面,后端通过封装MaaS平台API,为用户提供流畅的智能对话体验。

本案例基于华为开发者空间-云开发环境(容器)+MaaS大模型,构建智能写作助手应用。

2. 适用对象

  • 企业
  • 个人开发者
  • 高校学生

3. 案例时间

本案例总时长预计60分钟。

4. 案例流程

说明:

  1. 用户进入开发者空间开发平台云开发环境,创建容器;
  2. 使用VS Code连接云开发环境;
  3. 编写Web端项目代码集成MaaS大模型;
  4. 使用浏览器测试并体验智能写作助手。

5. 资源总览

本案例预计花费0元。

资源名称规格单价(元)时长(分钟)
华为开发者空间开发平台 - 云开发环境(容器)鲲鹏通用计算增强型 kc1 | 2vCPUs | 4G | HCE免费60

二、环境准备

1. 领取注册开发者空间

开发者空间是开发者专属的云上成长空间,预置免费华为根技术工具和资源,为开发者提供从学习、开发到部署的全旅程支持。

点击免费领取,立即领取开发者空间。

注意:领取开发者空间,需要登录华为账号,如果没有,请注册华为账号并完成实名认证。

2. 领取百万tokens代金券

参考案例《Versatile Agent中自定义接入大模型配置华为云Maas指导》中的“一、 领取”章节内容,领取华为开发者空间百万token代金券福利,购买ModelArts Studio DeepSeek-V3 轻量体验包(¥3.50)。开通商用模型服务,最后获取模型名称API地址API Key的参数值。

注意:记录API KeyAPI地址以及model名称留作后面步骤使用。

三、配置云开发环境(容器)

1. VS Code远程连接云开发环境(容器)

参考案例《华为开发者空间 - 云开发环境(容器)IDE插件远程连接操作指导》中的“二、云开发环境IDE插件远程连接操作指导”的内容,完成“1. 安装插件” ~ “4. 连接”章节步骤。

完成连接之后的状态:

四、构建智能写作助手应用

1. 获取智能写作助手项目代码

点击版本控制图标,再点击Initialize Repository

clone代码,输入代码仓地址,Clone from URL:https://gitcode.com/u014005316/writing-assistant.git

选择代码仓目录:/root/,点击Add to Workspace加入当前工作空间。

2. 安装项目依赖

按下Ctrl+Shift+`,打开Terninal窗口,选择writing-assistant目录,安装requestsflask

pip install requests pip install flask 

安装Python插件:

3. 智能写作助手代码功能介绍

智能写作助手代码结构如下图所示:

writing-assistant # 项目名称 ├── templates │ └── index.html # 智能写作助手UI界面的html文件 ├── app.py # 智能写作助手执行入口文件 │ └── index() # 主页路由 │ └── generate_content() # 调用模型生成内容 └── deepseek_api.py # 模型调用 

app.py部分代码如下

# app.py from flask import Flask, request, jsonify, render_template from deepseek_api import DeepSeekAPI import os app = Flask(__name__) # 初始化DeepSeek API客户端 api_client = DeepSeekAPI( api_key='API_KEY', api_url='API_URL', model='MODEL' ) @app.route('/') def index(): """主页""" return render_template('index.html') if __name__ == '__main__': # 创建模板目录 os.makedirs('templates', exist_ok=True) print("=" * 50) print("智能写作助手启动成功!") print("访问: http://localhost:5000") print("=" * 50) app.run(debug=True, host='0.0.0.0', port=5000) 

注意:

  • API_KEY替换成“二、环境准备中的2. 领取百万tokens代金券”中获取的API Key;
  • API_URL替换成“二、环境准备中的2. 领取百万tokens代金券”中获取的API地址;
  • MODEL替换成“二、环境准备中的2. 领取百万tokens代金券”中获取的model名称。

4. 测试体验智能写作助手

运行智能写作助手项目:

点击右上角运行按钮,运行main.py文件:

在浏览器中输入:http://127.0.0.1:5000,或者点击Open in Browser进入智能写作助手平台。

输入文章主题:人工智能未来发展趋势
选择:文章生成
文章风格:学术
文章长度:短篇(300字)

点击开始生成

智能写作助手成功帮助我们生成文章。

至此,基于华为开发者空间-云开发环境(容器)+MaaS大模型构建智能写作助手应用的案例已全部完成。

Read more

AI绘画作品描述反推:GLM-4.6V-Flash-WEB还原提示词

AI绘画作品描述反推:GLM-4.6V-Flash-WEB还原提示词 在AI生成艺术蓬勃发展的今天,一张张令人惊叹的数字画作背后,往往隐藏着一段精心设计的文本提示词(Prompt)。然而,当我们在社交媒体或共享平台上看到一幅惊艳的作品时,却常常无法得知它是如何被“召唤”出来的——原作者未公开Prompt、平台不支持元数据嵌入、图像经过二次编辑……这些都让创作过程变得神秘而难以复现。 这种“看得见结果,看不见过程”的困境,正催生一个新兴的技术需求:从AI绘画成品中反向推理出其生成所依赖的原始提示词。这不仅关乎学习与模仿,更涉及内容溯源、版权审查与创意启发等多个层面。传统方法依赖人工经验猜测或简单图像标签识别,效果有限。而如今,随着多模态大模型的发展,我们终于拥有了真正可行的自动化解决方案。 其中,智谱AI推出的 GLM-4.6V-Flash-WEB 模型,凭借其轻量高效、语义理解强和开源可部署的优势,成为实现这一目标的理想选择。 多模态理解的新范式:不只是“看”,更要“懂” 要理解为什么GLM-4.6V-Flash-WEB能胜任提示词反推任务,首先要明白这项工作的本质并非简单

开源图像生成模型对比:Qwen-Image与Midjourney差异分析

开源图像生成模型对比:Qwen-Image与Midjourney差异分析 1. 为什么需要这场对比? 你是不是也遇到过这些情况: * 想用AI画图,但Midjourney要订阅、要排队、出图还得翻墙; * 试过本地部署Stable Diffusion,结果显存爆了、插件装不上、工作流调三天还不出图; * 听说阿里开源了Qwen-Image,号称“中文理解强、细节还原准”,但点开GitHub只看到一串命令,不知道从哪下手…… 别急——这篇文章不讲参数、不聊LoRA微调、不堆技术术语。我们就用最实在的方式:同一段提示词、同一台4090D机器、同一个出图目标,把Qwen-Image-2512-ComfyUI和Midjourney V6拉到一张桌上,面对面比一比:谁更懂中文?谁更会画细节?谁更适合你今天就打开电脑开始用? 全文所有测试均基于真实本地环境完成,所有图片描述、操作步骤、效果反馈,都来自亲手跑通的完整流程。你不需要是工程师,只要会打字、会看图、想高效出图,这篇就是为你写的。 2. Qwen-Image-2512-ComfyUI:开箱即用的国产新选择 2.1 它

Phi-3-mini-128k-instruct Chainlit插件开发:添加思维链可视化、Token用量统计面板

Phi-3-mini-128k-instruct Chainlit插件开发:添加思维链可视化、Token用量统计面板 你是不是也遇到过这种情况?用Chainlit调用大模型,模型回答得挺好,但你心里总有个问号:它到底是怎么“想”出这个答案的?每次对话消耗了多少计算资源?如果能让模型的“思考过程”和“资源消耗”变得一目了然,那该多好。 今天,我们就来解决这个问题。我将手把手教你为基于vLLM部署的Phi-3-mini-128k-instruct模型,开发两个实用的Chainlit插件:思维链可视化面板和Token用量统计面板。通过这两个插件,你不仅能“看见”模型的推理路径,还能精确掌握每次对话的成本,让AI对话从“黑盒”走向“透明”。 1. 项目准备与环境确认 在开始插件开发之前,我们先确保基础环境已经就绪。你已经按照官方说明,成功部署了Phi-3-mini-128k-instruct模型,并且能够通过Chainlit前端正常调用。 1.1 验证模型服务状态 打开终端,使用Webshell检查模型服务日志,确认部署成功。 cat /root/workspace/llm.l

亲测Meta-Llama-3-8B-Instruct:8K上下文对话效果超出预期

亲测Meta-Llama-3-8B-Instruct:8K上下文对话效果超出预期 1. 引言:为何选择 Meta-Llama-3-8B-Instruct? 在当前开源大模型快速迭代的背景下,如何在有限算力条件下实现高质量的对话与指令执行能力,成为个人开发者和中小团队关注的核心问题。Meta 于 2024 年 4 月发布的 Meta-Llama-3-8B-Instruct 模型,凭借其 80 亿参数、单卡可运行、支持 8K 上下文以及 Apache 2.0 友好商用协议等特性,迅速成为轻量级部署场景下的热门选择。 本文基于实际部署经验,使用 vLLM + Open WebUI 构建本地推理服务,完整测试了该模型在长文本理解、多轮对话连贯性、代码生成及英文任务处理等方面的表现。结果显示,其综合表现不仅显著优于 Llama 2 系列,甚至在部分任务上接近 GPT-3.5 的体验水平,尤其适合用于英文对话系统、轻量级代码助手或教育类 AI