刚刚,阿里悄悄发布了他们全新 AI IDE,名字叫Qoder(谐音Coder)

大家好,我是泽安!见字如面~

AI 编程赛道又起浪。

腾讯有CodeBuddy,字节有Trae,百度推出了文心快码,阿里这边也一直有Lingma IDE坐镇,而现在,又一条新动态浮出水面:阿里刚刚悄悄的推出了Qoder。从公开页面来看,它支持 Windows 和 macOS,目前正处于“免费公开预览”阶段。

Qoder 发布即免费,没有恶意营销,甚至很多人都不知道,这点比那些各种要邀请码的强多了!

它支持中文,支持Google邮箱和GitHub登录,支持MCP和记忆

几点介绍:

Qoder 是什么?【官方解释】

Qoder (/ˈkoʊdər/) 是一个专为实际软件开发而设计的代理编码平台。它将增强型上下文工程与智能代理无缝集成,以全面理解您的代码库并系统地处理软件开发任务。

它超越了简单的代码完成 - Qoder 通过自动化复杂的工作流程、维护项目上下文和实现无缝的 AI 辅助开发,帮助您更深入地思考、更智能地编码和更好地构建。

第一:让不可见变可见,关于知识与执行的透明度

在正常的软件开发中,写新需求早都不是AI编程应该关注的点了,目前最棘手的部分往往屎山代码,技术偶尔度,这些看不见的东西,才是真正拖慢进度的“黑洞”。

Qoder 的第一个目标,就是把这些隐藏的问题可视化。它不止会写代码,还要帮人看清项目——架构、设计、债务、决策脉络。

而当 AI 开始工作时,它还会实时展示清晰的任务待办列表和执行流程。也就是说,AI 正在做什么、它的计划是什么、当前进展到哪一步,全部一目了然。

我们称之为「知识与执行的双重透明」,如下:

知识可见:不仅会写代码,更要让你看清项目的全局——包括架构、债务、关键决策脉络;

执行可见:To-Do 清单明确任务拆解与优先级,Action Flow 实时跟踪过程、记录关键操作。

这一切只为一个目的:让开发者始终心里有数,而不是在黑箱中盲目托管。

第二:有两个档位选择,智能提问模式和智能体模式。

  • 提问:一种简单的问答模式,用于回答编程问题。它会根据上下文给出解决方案和建议,但不会修改代码。
  • Agent模型:一种自主的编码任务执行模式,具备自主决策、环境感知和工具利用能力。它根据开发者的编码需求,利用项目搜索、计划制定、文件编辑、终端操作等工具,端到端地完成编码任务。它还支持开发者可配置的MCP工具,确保编码工作流与个人开发流程紧密结合。

Image

第三:Qoder帮你选模型

打开 Qoder,第一反应是:诶?怎么不能自己选模型?这还有点不习惯……但你好歹告诉我,里面到底内置了哪些模型吧?

Image

Image

其实现在大模型太多了,经常让人纠结:我这个任务,到底该选哪个模型效果才最好?

但说实话——这本就不该是用户该操心的事。

Qoder 会自动根据你任务的复杂度和上下文,把请求路由到最合适的模型上。你只需要关心“要做什么”,而不是“谁来做”。

这个体验,也是真的省心。

实测案例:

输入提示词:请使用前端技能帮我写一个输入域名地址可以转化为二维码的界面,要求界面整体大气,整洁

Image

全程没有任何干预,直接开发完成

Image

这个功能不是很复杂,是一次成功的!大型复杂项目泽安还没来得及测试!

总之是好的,大厂持续发力!

AI 编程未来可期!

安装地址:https://qoder.com/

官方文档:https://docs.qoder.com/

Read more

llama.cpp Vulkan后端在AMD显卡上的完整部署指南:从问题诊断到性能优化

llama.cpp Vulkan后端在AMD显卡上的完整部署指南:从问题诊断到性能优化 【免费下载链接】llama.cppPort of Facebook's LLaMA model in C/C++ 项目地址: https://gitcode.com/GitHub_Trending/ll/llama.cpp 想要在AMD显卡上流畅运行llama.cpp却频频遭遇Vulkan初始化失败?本指南将带你系统解决兼容性问题,实现高效的大语言模型本地化部署。llama.cpp作为C/C++实现的高性能大语言模型推理框架,通过Vulkan后端可以显著提升GPU加速效果,但在AMD平台上的特殊配置需求往往让新手望而却步。 问题快速诊断方法 常见故障症状识别 当你遇到以下任一情况时,很可能遇到了AMD显卡与Vulkan后端的兼容性问题: * 启动崩溃:程序启动时立即崩溃,日志显示"vkCreateInstance failed" * 加载卡顿:模型加载进度卡在"Initializing

llama.cpp加载多模态gguf模型

llama.cpp预编译包还不支持cuda12.6 llama.cpp的编译,也有各种坑 llama.cpp.python的也需要编译 llama.cpp命令行加载多模态模型 llama-mtmd-cli -m Qwen2.5-VL-3B-Instruct-q8_0.gguf --mmproj Qwen2.5-VL-3B-Instruct-mmproj-f16.gguf -p "Describe this image." --image ./car-1.jpg **模型主gguf文件要和mmporj文件从一个库里下载,否则会有兼容问题,建议从ggml的官方库里下载 Multimodal GGUFs官方库 llama.cpp.python加载多模态模型 看官方文档 要使用LlamaChatHandler类,官方已经写好了不少多模态模型的加载类,比如qwen2.5vl的写法: from llama_cpp import Llama

OpenClaw之Memory配置成本地模式,Ubuntu+CUDA+cuDNN+llama.cpp

文章目录 * 背景:Memory不生效的问题 * OpenClaw的Memory配置 * Ubuntu24.04安装CUDA和cuDNN * 编译llama.cpp * 验证方案1: * 验证方案2:下载并运行Llama-2 7B模型 * 安装node-llama-cpp * 验证Memory * sqlite-vec unavailable * 踩过的坑 * 安装node-llama-cpp的一些提示 * 安装node-llama-cpp的前置条件 * Using `node-llama-cpp` With Vulkan 承接上文:Windows11基于WSL2首次运行Openclaw,并对接飞书应用,我已经在电脑上安装了OpenClaw,接下来解决Memory问题。走了很多弯路,下面主要讲我总结的正确的安装过程。 总结来说:针对Memory不生效的问题,又不想用OpenAI或Gemini,或者只想单纯的节省token,可以按照如下的方式,设置为local模式: * 修改openclaw.json配置 * 安装CUDA和cu

AI绘画模型格式转换完全指南:从问题诊断到场景化解决方案

AI绘画模型格式转换完全指南:从问题诊断到场景化解决方案 【免费下载链接】awesome-ai-paintingAI绘画资料合集(包含国内外可使用平台、使用教程、参数教程、部署教程、业界新闻等等) stable diffusion tutorial、disco diffusion tutorial、 AI Platform 项目地址: https://gitcode.com/GitHub_Trending/aw/awesome-ai-painting 在AI绘画工作流中,模型格式转换是连接不同工具链的关键环节。当你遇到"无法加载模型文件"的错误提示,或是发现存储空间被低效格式占用时,掌握模型格式转换技术就成为解决问题的核心能力。本文将通过诊断指南的形式,帮助你系统理解模型格式的选择策略、实施转换流程、验证转换效果,并探索在不同场景下的应用方案,让你的AI绘画工作流更加高效与稳定。 问题诊断:你的模型格式是否需要优化? 格式兼容性故障排查 当你的AI绘画工具弹出"无法加载CKPT文件"的错误时,首先需要判断这是否是格式兼容性问题。常见的症状包括: