AtomGit 首发!双模型 PK 赛:我用 GLM-5 和 Qwen3.5 一句话生成游戏,谁更强?

AtomGit 首发!双模型 PK 赛:我用 GLM-5 和 Qwen3.5 一句话生成游戏,谁更强?
在这里插入图片描述
活动入口AtomGit 首发模型体验活动
在这里插入图片描述

一、项目背景

春节期间,AtomGit AI 社区首发上线了多款开源大模型,包括 GLM-5、Qwen3.5、DeepSeek 等,覆盖文本生成、代码开发、多模态等多个领域。

作为一个喜欢折腾的开发者,我萌生了一个想法:能不能用 AI 双模型并行生成游戏,让用户对比投票选择最佳版本?

这个想法的核心价值:

  • 横向对比:两个模型同台竞技,优劣一目了然
  • 效率翻倍:一次请求,获得两个版本的代码
  • 用户参与:投票机制增加趣味性和互动性

二、用 GLM-5 生成项目原型

我直接在 AtomGit 平台上问 GLM-5,让它帮我搭个项目骨架:

我的提问

请生成一个完整的"一句话生成游戏对比工具"项目代码。 前端Vue3,后端Fastify。 用户输入游戏描述,后端同时调用GLM-5(zai-org/GLM-5)和Qwen3.5(vLLM_Ascend/Qwen3.5)生成HTML游戏, 并排展示在iframe中,左右分别显示两个模型的游戏,每个游戏下方有点赞按钮,底部显示历史记录。 API地址: https://api-ai.gitcode.com/v1 体验密钥从atomgit官方免费获取。 输出前后端完整代码。 
在这里插入图片描述

GLM-5 给了完整的前后端代码,我在这基础上改了改:

  • 加了缓存,不然每次都调 API 太慢了
  • 优化了下界面,改成左右双栏
  • 用 iframe 沙箱隔离,防止生成奇怪的代码
  • 加了错误处理,体验好一点

项目就这么跑起来了。

在这里插入图片描述

三、项目介绍

3.1 怎么玩

输入游戏描述

双模型并行生成

GLM-5 生成游戏A

Qwen3.5 生成游戏B

并排展示

用户投票选择

操作很简单:

  1. 输入你想玩的游戏(比如"打地鼠")
  2. 两个模型同时生成
  3. 左右对比看效果,觉得哪个好就投一票
在这里插入图片描述

3.2 技术架构

AI 模型

后端 (Fastify)

前端 (Vue3 + Vite)

输入组件

游戏预览

投票组件

API 路由

模型调用服务

缓存服务

GLM-5

Qwen3.5

技术栈

层级技术说明
前端Vue 3 + Vite响应式框架 + 构建工具
后端Fastify高性能 Node.js 框架
AIGLM-5 / Qwen3.5通过 GitCode API 调用
安全iframe sandbox沙箱隔离,防止恶意代码

3.3 项目结构

ai-game-generator/ ├── client/ # 前端 │ ├── src/ │ │ ├── App.vue # 主组件 │ │ └── main.js │ └── vite.config.js ├── server/ # 后端 │ ├── src/ │ │ ├── config.js # 模型配置 │ │ ├── index.js # 入口文件 │ │ ├── routes/ │ │ │ └── generate.js │ │ └── services/ │ │ ├── model.js # API 调用 │ │ └── cache.js # 缓存服务 │ └── package.json └── .env.example # 环境变量模板

四、核心实现

4.1 提示词

想让模型生成能直接跑的游戏,提示词挺关键的。我试了几版,最后定型是这样的:

constGAME_PROMPT_TEMPLATE=`你是一个HTML小游戏生成引擎。 严格要求: 1. 只输出完整HTML文档 2. 必须包含 <!DOCTYPE html> 3. 内嵌 CSS 4. 内嵌 JS 5. 不允许 Markdown 6. 不允许解释 7. 不允许外链资源 8. 代码必须可直接运行 9. 游戏必须有交互逻辑 用户需求: {userPrompt}`;

主要就几点:

  • 明确告诉它是"游戏生成引擎"
  • 禁止输出废话(Markdown、解释)
  • 要求单文件,复制就能跑

4.2 双模型并行调用

Qwen3.5GLM-5后端前端用户Qwen3.5GLM-5后端前端用户输入游戏描述POST /generate并行请求并行请求返回游戏A返回游戏B{ modelA, modelB }并排展示

// server/src/services/model.jsasyncfunctioncallGitCodeAPI(prompt, modelConfig){const response =awaitfetch(`${config.gitcode.baseUrl}/chat/completions`,{method:'POST',headers:{'Content-Type':'application/json','Authorization':`Bearer ${config.gitcode.apiKey}`},body:JSON.stringify({model: modelConfig.model,messages:[{role:'user',content: systemPrompt }],stream:false,max_tokens: modelConfig.maxTokens,temperature:0.6})});returnextractHtml(await response.json());}// 双模型并发exportasyncfunctioncallModels(prompt){const[resultA, resultB]=await Promise.all([callGLM(prompt),callQwen(prompt)]);return{modelA: resultA,modelB: resultB };}

4.3 缓存加速

// 内存缓存 + 文件缓存,24小时过期const memoryCache =newMap();constCACHE_TTL=24*60*60*1000;

缓存策略

命中

未命中

命中

未命中

收到请求

内存缓存?

直接返回

文件缓存?

加载到内存

调用API

保存缓存

缓存层响应时间持久性
内存<1ms进程重启丢失
文件~10ms24小时有效

4.4 安全沙箱

<iframe:srcdoc="modelA?.html"sandbox="allow-scripts allow-popups allow-forms"></iframe>

沙箱权限说明

权限说明
allow-scripts允许执行 JavaScript
allow-popups允许弹窗
allow-forms允许表单提交

即使生成恶意代码,也被限制在沙箱内,无法访问父页面或执行危险操作。

五、模型对比评测

公平性说明:两个模型统一使用 maxTokens: 4096 参数,确保公平对比。

5.1 综合评分

维度GLM-5Qwen3.5
代码结构⭐⭐⭐⭐⭐⭐⭐⭐⭐
创意程度⭐⭐⭐⭐⭐⭐⭐⭐⭐
完整性⭐⭐⭐⭐⭐⭐⭐⭐
简洁度⭐⭐⭐⭐⭐⭐⭐⭐⭐

5.2 实测对比

俄罗斯方块对比

在这里插入图片描述
维度GLM-5Qwen3.5
界面信息分数/等级/预览/控制提示基础布局
代码行数~400行~250行
可维护性高,结构清晰中,适合二次开发

打地鼠对比

在这里插入图片描述
维度GLM-5Qwen3.5
视觉主题统一,有氛围感简洁,偏功能导向
交互反馈地鼠形象ok,敲打地鼠联动动画流畅地鼠形象因为生成失败,动画效果不明显,游戏体验不好
游戏体验完整,可直接使用需补齐素材/动画

5.3 选择建议

完整度/可维护性

创意点子/快速原型

你的需求

追求什么?

GLM-5

Qwen3.5

✅ 适合生产项目

✅ 适合探索验证

5.4 遇到的问题

问题原因解决方案
代码截断token 限制提示词精简 + 引导生成精简代码
输出污染模型输出 Markdown后处理正则清洗标记
响应时间长API 调用耗时缓存机制 + 加载动画

六、项目亮点

亮点说明
🎮 双模型并行一个请求,两个结果,对比直观
⚡ 即时可玩生成 HTML 直接运行,无需编译
🗳️ 投票互动增加趣味性和用户参与感
🔒 安全沙箱iframe 隔离,保障安全
💾 智能缓存节省成本,毫秒级响应

七、部署指南

# 1. 克隆项目git clone https://atomgit.com/u013737132/ai-game-generator cd ai-game-generator # 2. 配置环境变量cp .env.example .env # 编辑 .env,填入 GitCode API Key# 3. 安装依赖并启动npminstallnpm run dev 

环境变量配置

# GitCode API 配置GITCODE_API_KEY=your_api_key_here GITCODE_BASE_URL=https://api-ai.gitcode.com/v1 # 服务端口PORT=3000

访问 http://localhost:5173 即可体验!

八、结语

这次使用 AtomGit 首发模型的体验非常棒!GLM-5 和 Qwen3.5 都展现出了强大的代码生成能力。

模型适合场景推荐指数
GLM-5追求完整性和规范性,适合稳定项目⭐⭐⭐⭐⭐
Qwen3.5追求创意和灵活性,适合快速原型⭐⭐⭐⭐

如果你也对 AI 编程感兴趣,强烈推荐来 AtomGit 体验这些首发模型!


项目地址https://atomgit.com/u013737132/ai-game-generator

活动入口AtomGit 首发模型体验活动

Read more

OpenAI 开源模型 gpt-oss 本地部署详细教程

OpenAI 开源模型 gpt-oss 本地部署详细教程

OpenAI 最近发布了其首个开源的开放权重模型gpt-oss,这在AI圈引起了巨大的轰动。对于广大开发者和AI爱好者来说,这意味着我们终于可以在自己的机器上,完全本地化地运行和探索这款强大的模型了。 本教程将一步一步指导你如何在Windows和Linux系统上,借助极其便捷的本地大模型运行框架Ollama,轻松部署和使用 gpt-oss 模型。 一、准备工作:系统配置与性能预期 在开始之前,了解运行环境非常重要。本次部署将在我的个人电脑上进行,下面是推荐配置: * CPU: 现代多核 CPU,如 Intel Core i7 或 AMD Ryzen 7 系列 * 内存 (RAM): 32 GB 或更多 * 显卡 (GPU): 强烈推荐 NVIDIA GeForce RTX 4090 (24 GB 显存)。这是确保大型模型流畅运行与高效微调的理想选择。 * 操作系统: Linux 或 Windows

By Ne0inhk
最新版 Kimi K2.5 进阶实战全攻略:从开源部署到 Agent 集群搭建(视频理解 + 多模态开发 + 高并发调优)

最新版 Kimi K2.5 进阶实战全攻略:从开源部署到 Agent 集群搭建(视频理解 + 多模态开发 + 高并发调优)

1 技术背景与核心架构原理 1.1 技术定位与版本说明 Kimi K2.5 是月之暗面于2026年初发布的开源多模态大语言模型,聚焦长上下文理解、原生多模态交互、Agent 原生支持三大核心能力,针对工业级落地场景完成了全链路优化。本次实战覆盖的开源版本包括: * kimi-k2.5-chat-70b:基础对话版,支持2000K token 上下文窗口,原生适配工具调用 * kimi-k2.5-multimodal-70b:多模态完整版,新增图像、长视频时序理解能力,支持最长10小时连续视频输入 * kimi-k2.5-agent-70b:Agent 优化版,强化多轮工具链执行、分布式状态同步能力,适配集群化部署 * 量化衍生版本:AWQ 4bit/8bit、FP8 量化版,适配低显存硬件环境,精度损失控制在1%以内 1.2 核心架构与技术亮点 1.2.1

By Ne0inhk

在github codespaces部署开源个人智能体OpenClaw(Clawdbot/Moltbot)使用教程

openClaw官方仓库:https://github.com/openclaw/openclaw OpenClaw 是什么? OpenClaw(原名 Clawdbot,后更名为 Moltbot,现正式命名为 OpenClaw)是一个运行在你本地环境的高权限 AI 智能体。它的核心特性包括: * 本地部署:运行在你的服务器或电脑上,数据完全自主可控 * 多平台支持:支持飞书、WhatsApp、Telegram、Discord、Slack 等主流聊天工具 * 浏览器控制:可以浏览网页、填写表单、提取数据 * 系统访问:读写文件、执行 Shell 命令、运行脚本 * 持久化记忆:记住你的偏好和上下文,成为真正属于你的 AI * 插件扩展:支持社区技能插件,甚至可以自己编写插件 无论是邮件管理、日程安排、数据查询还是代码编写,OpenClaw

By Ne0inhk
【Git】GitHub 连接失败解决方案:Failed to connect to github.com port 443 after 21090 ms: Couldn’t connect to se

【Git】GitHub 连接失败解决方案:Failed to connect to github.com port 443 after 21090 ms: Couldn’t connect to se

文章目录 * 一、使用 VPN 环境下的解决方案 * 1. 检查当前代理设置 * 2. 配置 Git 使用代理 * 3. 验证代理设置是否生效 * 4. 刷新 DNS 缓存 * 5. 重新尝试 Git 操作 * 二、未使用 VPN 环境下的解决方案 * 1. 取消 Git 配置的代理 * 2. 验证代理设置已成功移除 * 3. 重试 Git 操作 * 三、总结 * 使用 VPN 的解决方案: * 未使用 VPN 的解决方案: 在使用 Git 进行代码管理时,可能会遇到“Failed to connect

By Ne0inhk