人工智能在代码编写领域的应用展现了最直接的生产力提升。然而,诸如 ChatGPT 和 Cloud 等工具不仅收费,还存在访问限制。为此,我们评测了五款国内热门的免费 AI 代码助手。这些工具不仅对个人用户免费开放,且在国内可无障碍使用。
通过一系列从简单到复杂的游戏编程任务,我们将评估这些 AI 编程工具在实际开发场景中提升编程效率的表现。本次评测的五款 AI 代码助手如下:
- 抖音的豆包 MarsCode
- 百度文心的快码
- 阿里云的通义灵码
- 腾讯云的 AI 代码助手
- FittenCode
前四款均为顶级大厂产品,第五款是通过搜索发现的独立工具。所有评测的 AI 助手均可在 VSCode 中免费使用。

我们的目标是找出能够帮助普通用户解决日常编程问题的 AI 助手。为此,我们设计了五个由简至繁的游戏编程任务:智能井字棋、猜数字、2048、贪吃蛇以及俄罗斯方块。每个任务都将使用相同的详细提示词,所有 AI 助手将尝试完成全部任务,我们将根据其表现进行评分。评分标准涵盖五个方面,总分 100 分:
- 功能完整性(30 分):程序是否实现了所有要求的功能。
- 用户友好度(25 分):程序的交互设计是否直观易用。
- 创新性(20 分):是否在基本要求基础上增加了创新功能或设计。
- 代码质量(15 分):代码的可读性与结构合理性。
- 生成速度(10 分):AI 助手生成完整解决方案的响应速度。
接下来,我们将评估各 AI 助手的实际表现。
豆包 MarsCode
首先测试的是豆包 MarsCode。在入门任务智能井字棋中,它获得了 42.5 分。主要问题在于游戏无法正常运行,导致玩家只能进行自我对战。

到了猜数字游戏,豆包的表现显著提升,总分达到 71.5 分。值得注意的是,它在该任务中展现了创新性,增加了难度选择功能。
然而,随着任务复杂度增加,豆包的表现开始下滑。在 2048 游戏任务中,总分降至 27 分,主要问题是游戏无法正常显示和操作。贪食蛇游戏表现略有下降,总分 25 分,角色会迅速移出屏幕。最后的俄罗斯方块任务暴露了豆包在复杂任务上的不足,总分仅为 8 分。
总体而言,豆包 MarsCode 在简单任务中表现尚可,但随着任务复杂度提升,其性能显著下降。在代码生成速度方面表现稳定,但在功能实现和用户体验上仍有较大提升空间。
百度文心快码
接下来评估百度文心快码的表现。若时间有限,可直接跳过此环节,因为百度不仅在代码质量与可用性方面表现欠佳,还是唯一未提供历史记录功能的 AI 编程工具。
百度的首项测试任务仍为智能井字棋。文心快码最终得分为 36 分,主要问题是 AI 会连续执行两步操作,破坏了游戏的公平性。在猜数字游戏中,其表现有所下滑,总分为 26.5 分。由于代码结构不够清晰,影响了整体实现效果。
2048 和贪吃蛇游戏的表现令人失望。两款游戏均仅获得 10 分,且仅在生成速度上得分,其他项目均为 0 分。文心快码无法生成完整可运行的代码,这表明其在处理中等难度任务时存在明显不足。
最后,在俄罗斯方块任务中,文心快码的表现仍未改善,总分为 9 分。仅在生成速度上获得了 9 分,但令人意外的是,它并未生成任何代码,而是提供了一份需求分析,完全偏离了任务要求。
总体而言,百度文心快码在本次测试中表现欠佳。该工具在代码生成速度方面表现优异,但在功能实现、用户体验及代码质量等核心维度均存在明显缺陷。尤其当面对中等及以上难度的编程任务时,该系统基本无法提供有效的解决方案。
阿里云通义灵码
接下来是阿里云通义灵码的表现。在智能井字棋任务中,通义灵码获得了 53 分。主要问题是页面设计过于简单,未添加分割线,影响了视觉效果。
在猜数字游戏中表现类似,总分为 52.5 分。需注意的是,虽然基本功能已实现,但数字猜对时缺乏明确提示,且难度切换功能无效。


