不止脑洞!移动云AIGC大赛正式启幕

不止脑洞!移动云AIGC大赛正式启幕

未来,是什么样子的?

是穿梭云端的智慧城市

还是人与AI共舞的创意工坊?

是赛博街区的霓虹闪烁

还是治愈系森林里的数字精灵?

当生活插上科技的翅膀

从智慧城市的精细运转

到数字生活的便捷体验

每一份改变世界的想象力

都值得被AI托举

这一次,我们诚挚邀请你——
把你脑海中的“智能新空间”变成现实

用移动云做创作引擎

发挥最天马行空的创想

让想象力不再停留于脑海

让创意被看见、被喝彩、被珍藏

十大创作主题:为你的灵感指明方向

本次大赛围绕移动云赋能的重点行业,设置十大创作主题:

图片

请从以上主题中选择你感兴趣的方向进行创作

描绘你心中的智能新空间。


*超出以上主题范围的作品,将不纳入本次大赛评选。

三步快速参与

从灵感到作品,从作品到出圈

STP1:一键上云·灵感即现

选择你感兴趣的主题方向

进入移动云绘制心中的“智能新空间”

畅想千行百业的数智体验

STEP2:云端晒作,即刻破圈

作品出炉?即刻分享!任选一种方式让创意出圈

带话题#移动云智能新空间AIGC大赛#

发微博/抖音并@移动云

选择你喜欢的方式,让创意出圈

STP3:发送作品,立即比拼

即日起至2026年4月20日

将作品发送至官方邮箱

[email protected]

邮件主题:作品主题+作品名称+参赛者名称+联系方式+移动云官网个人账号名称

多维专业评选:公平见证创意价值

图片

大赛激励:让你的创意闪耀云端

本次大赛将最终遴选10份优秀作品,获奖者将获得:

1

云电脑一年使用权限——办公型(公众版)

前10名优秀作品获得者,可获得价值528元的办公型公众版云电脑一年。

2

移动云大会线下展出

优秀作品将登上2026年移动云大会现场大屏,在行业盛会上被万千观众瞩目。

3

移动云大会线下通行权限

前3名优秀作品获得者,可解锁主论坛 + 所有分论坛、展区通行资格,一站式体验前沿技术展示、行业案例分享。还可享受大会当日一日游食宿福利。

让你的创意,不止于想象

你的作品,值得被看见
你的脑洞,值得被喝彩
这一次,让移动云成为你的灵感搭档

「移」起探索智能新空间的无限可能  

✨重磅福利来袭

AIGC创作,担心算力不够用、太耗tokens?不用急,速速扫描下方二维码领取重磅福利,移动云云主机首月0元,还能免费试用2500万Tokens,让你的灵感无需为成本设限!

Read more

语音转写文本润色:Llama-Factory助力ASR结果后处理

Llama-Factory助力ASR文本后处理:让语音转写真正“可用” 在智能会议系统、庭审记录数字化、远程医疗问诊等场景中,自动语音识别(ASR)早已不再是“能不能听清”的问题,而是“转出来的文字能不能直接用”的挑战。即便现代ASR引擎的词错率已低于10%,其原始输出仍常表现为无标点、断句混乱、同音错别字频出的“口语流”,例如: “那个我们明天三点开会然后讨论项目进度请各部门负责人参加” 这样的文本显然无法直接归档或生成纪要。用户需要额外投入大量人力进行校对和润色——这不仅抵消了自动化带来的效率优势,还可能引入新的错误。 于是,一个关键环节浮出水面:ASR后处理。而近年来,大语言模型(LLM)正成为这一环节的核心驱动力。不过,通用大模型如通义千问、ChatGLM虽然语法能力强,却往往对领域术语不敏感,容易“过度发挥”。真正的解法,是基于真实转写数据微调一个专用的文本修正模型。 这时,Llama-Factory 出现了。它不是一个简单的训练脚本集合,而是一套完整的大模型定制流水线,把从数据准备到模型部署的复杂工程封装成可操作的工具链。更重要的是,它让没有深度学习背景的工程师也

超全实测!llama.cpp性能基准库:从参数调优到多场景测试全攻略

超全实测!llama.cpp性能基准库:从参数调优到多场景测试全攻略 【免费下载链接】llama.cppPort of Facebook's LLaMA model in C/C++ 项目地址: https://gitcode.com/GitHub_Trending/ll/llama.cpp 你是否还在为本地部署大语言模型(LLM)时的性能瓶颈发愁?同样的硬件配置,为何有人能跑100 tokens/秒,而你却卡在20 tokens/秒?本文将带你深度掌握llama.cpp官方性能测试工具——llama-bench,通过标准化测试流程和参数调优技巧,让你的模型性能提升300%! 读完本文你将获得: * 3分钟上手的性能测试命令模板 * 4组关键参数(线程数/GPU层/批处理大小)调优指南 * 5种输出格式(CSV/JSON/

VSCode中GitHub Copilot的大模型体系、订阅策略与 Agent 模式模型管理机制

一、引言 随着大语言模型(Large Language Models, LLMs)在软件工程领域的广泛应用,智能编程助手逐渐成为现代开发工具链的重要组成部分。其中,由 GitHub 推出的 GitHub Copilot 已成为最具影响力的 AI 编程辅助工具之一,并深度集成于 Visual Studio Code 等主流开发环境。 早期版本的 Copilot 主要依赖单一模型进行代码补全,而近年来其架构已经演进为 多模型(multi-model)驱动的智能编程平台。该平台不仅支持来自多个 AI 厂商的大模型,还通过 Agent 模式、模型路由与按需调用机制提升复杂软件开发任务的自动化程度。 本文将系统介绍以下四个方面: 1. VS Code 中 GitHub Copilot 的 大模型支持体系 2. Copilot 的 订阅策略与计费机制

GitHub Copilot 使用笔记

GitHub Copilot 是 VSCode 自带的 AI Agent 插件,需要登录 GitHub 账号使用,分为免费版和付费版。 关于个人额度,可以在 Github 的 Copilot 菜单里查看 支持模型 添加第三方模型 通过 Manage Models 选中对应厂商。 可以通过 OpenRouter 来导入免费的模型,需要先到 OpenRouter 注册 API Key,输入后即可使用,也可以使用兼容 OpenAI 接口的三方 API,比如 硅基流动 SiliconFlow 使用帮助信息 切换到 Ask 模式,输入 /help 即可获取帮助命令,可以查看当前有什么可用命令和使用方法。 翻译后的内容,方便查看,