Continue插件实现本地部署一个“cursor”或“github copilot”

Continue插件实现本地部署一个“cursor”或“github copilot”

本地部署 AI 代码助手,制作一个 Cursor/GitHub Copilot 的替代版本

一 需求分析

  • 本地部署的定义与优势(数据隐私、离线使用、定制化)。
  • Cursor 与 GitHub Copilot 的功能(代码补全、对话交互、模型差异)。
  • 本地部署的AI 代码助手适用场景:企业内网开发、敏感数据环境。

二 环境准备与工具选择

  • 硬件要求:GPU 要对应上你所部署的模型大小
  • 模型选择:qwen2.5-14b-instruct (这里选择千问的大模型)

三 部署开源模型

这里不详细介绍具体的大模型部署的具体过程,部署完成之后,你应该得到对应的模型的以下信息

model: "qwen2.5-14b-instruct" apiBase: "http://你的ip地址(自己的本机就写localhost):对应的端口号 例如8000/v1"

四 集成到开发环境

Cursor 开源替代方案:配置 VS Code 插件(Continue)连接本地模型

4.1 Continue 插件简介

Continue 是 VS Code 的一款 AI 编程辅助插件,专注于通过自然语言交互提升开发效率。它基于大语言模型(如 GPT-4、Claude 等),支持代码生成、解释、调试和重构等功能,同时注重隐私保护,允许本地运行或连接私有模型。

  • 代码自动补全与生成:根据注释或上下文实时生成代码片段,支持多种编程语言,减少重复性编码工作。
  • 对话式编程:通过聊天界面与 AI 交互,例如询问“如何优化这段代码?”或“解释这个函数的作用”,插件会提供即时反馈。
  • 代码重构与调试:识别代码中的潜在问题,提供优化建议,或直接生成修复方案。例如自动重构冗余逻辑或修复语法错误。
  • 多模型支持:允许用户配置不同的 AI 模型后端(如 OpenAI、Anthropic 或本地部署的模型),适应不同需求。

4.2 隐私与安全

  • 本地运行选项:支持离线模型(如 CodeLlama),避免敏感代码上传云端。
  • 自定义服务器:企业用户可连接内部部署的模型服务器,确保数据可控。

4.3 安装与配置

①安装插件

在 VS Code 扩展市场搜索“Continue”并安装。

由于我已经安装过了,所以显示的是Disable。

②配置本地模型

Continue安装完成后,VS Code 的边栏上会多一个图标。

选择Ollama 然后点击Connect就可以了,会自动弹出config.yaml,然后将其内容补充完整。

1 基本信息

name: Local Config version: 1.0.0 schema: v1
  • name: 配置名称,标识为 "Local Assistant"(本地助手)。
  • version: 配置文件版本(1.0.0)。
  • schema: 使用的配置架构版本(v1)。

2 模型配置

 models: - name: qwen2.5-14b-instruct provider: "openai" model: "qwen2.5-14b-instruct" apiBase: "http://ip:port/v1" apiKey: "" completion_options: temperature: 0.5 top_p: 0.9 roles: - chat - autocomplete - edit - apply
  • 模型定义:使用 Qwen2.5-Coder-7B-Instruct(一个针对代码任务的7B参数模型)。
    • provider: 设置为 "openai",表示兼容OpenAI API格式(这里根据你的实际情况修改)。
    • apiBase: 模型API的终端地址(http://ip:port/v1),指向一个本地或远程服务。
    • apiKey: 你的模型API密钥。
  • 生成参数:
    • temperature: 0.5(平衡生成结果的创造性和确定性)。
    • top_p: 0.9(核采样,限制生成时仅考虑概率最高的90% token)。
  • 支持的功能 (roles):
    • chat: 对话交互。
    • autocomplete: 代码自动补全。
    • edit: 代码编辑。
    • apply: 可能指应用代码更改。

3 上下文集成

 context: - provider: code - provider: docs - provider: diff - provider: terminal - provider: problems - provider: folder - provider: codebase

配置工具可访问的上下文来源(增强模型对当前任务的理解):

  • code: 当前编辑的代码文件。
  • docs: 项目文档或注释。
  • diff: 代码变更差异(如Git diff)。
  • terminal: 终端输出或命令历史。
  • problems: 错误或警告(如IDE提示)。
  • folder: 当前目录文件结构。
  • codebase: 整个代码库的元信息(如符号定义)。

总得来说,此配置文件定义了一个本地代码助手,通过HTTP API连接到一个 Qwen2.5-Coder 模型,支持代码补全、编辑、聊天等功能,并集成了开发环境的多维度上下文(代码、终端、文档等)。

Ctrl + S 保存后就会显示对应的模型,到这里本地部署的模型链接VS code 就完成了。

五 测试

Read more

2025年10月14日-别再为 Claude 付费!Codex + 免费模型 + cc-switch,多场景 AI 编程全搞定

2025年10月14日-别再为 Claude 付费!Codex + 免费模型 + cc-switch,多场景 AI 编程全搞定

1.前言 Codex 是由 OpenAI 开发的强大 AI 代码生成模型,基于 GPT 架构微调而成,能够根据自然语言描述自动生成高质量代码。它支持数十种编程语言,尤其在 Python 和 JavaScript 上表现突出。 之前一直使用claude code(简称CC) 实现代码编程,每天稍微用一下大几十美刀就没了。 这几天开始用codex ,使用公益网站提供的gpt 5模型用起来也太省了。今天一个下午用下来总共消耗了0.02美金,这也太爽了。给大家看一下消耗截图。 而且代码能力也不输claude code 对应的claude4.5模型,我们看一下他们价格对比。 初步算了一下价格claude4.5模型是gpt5模型的1333倍,对比claude3.5模型也只是它的千分之3的费用,基本可以算是白菜价了。今天就带大家一起玩转着codex来实现vibe coding编程。 2.codex安装及使用 node.js下载和安装 使用codex我们需要先安装node.js这个和之前使用claude code一样 node.

微信遥控电脑,AI管红包:QClaw六大创意应用场景全解析

微信遥控电脑,AI管红包:QClaw六大创意应用场景全解析

引言:当AI遇上红包,一场人情世故的数字化革命 2026年3月,腾讯电脑管家团队正式推出QClaw——一款基于OpenClaw开源框架打造的本地AI智能体助手。这款产品最颠覆性的设计在于:扫码绑定微信后,用户只需在微信聊天框发一条自然语言指令,就能远程操控电脑自动完成任务。QClaw默认内置Kimi-2.5模型,开箱即用,无需配置API Key,同时接入ClawHub技能生态,提供超过5000个可调用技能。 需要明确的是,QClaw不支持直接发红包。但这恰恰为创意应用打开了另一扇门:通过OCR技术识别和分析红包截图,将红包从“社交负担”转变为“数字资产”。 在中国社交生态中,红包承载着节日祝福、人情往来、商务礼仪等多重功能。然而,管理混乱成为普遍痛点:春节、婚礼等场景下,大量红包截图散落各处;收了红包忘了回,回礼金额难以把握;人脉关系靠感觉,缺乏数据支撑。QClaw的本地化、自动化能力,为这些痛点提供了全新的解决方案。 技术基石:解密QClaw红包识别的双引擎 支撑QClaw红包管理应用的核心是两项技术:OCR光学字符识别与微信远程操控。 OCR技术经历了从传统算法到基于

AI 应用层革命(一)——软件的终结与智能体的崛起

AI 应用层革命(一)——软件的终结与智能体的崛起

一、序章:当“软件”开始失效 过去半个世纪里,“软件”一直是人类塑造世界的逻辑核心。 从操作系统到应用程序,从 C 到 Python,从命令行到图形界面,我们不断将现实抽象成代码,并通过逻辑规则去控制机器。然而,2025 年的此刻,软件开始显露疲态。 想象一个开发者打开 VSCode,面对的是数十万行代码、层层嵌套的依赖、随版本崩溃的包管理系统。写一段业务逻辑,可能要理解五个框架、三个库、两个版本的差异。 软件越来越重,而智能却没有变得更聪明。 与此同时,AI 的力量在悄然重塑一切。 ChatGPT、Claude、Gemini、GPT-4、Grok、Mistral…… 这些名字已不仅仅代表模型,而是代表一种新型的“操作层”:人类开始通过自然语言与智能体对话,完成过去需要大量编码、配置、调试的任务。 于是,一个根本性的问题浮现: 当

B站:从二次元到AI创新孵化器的华丽转身 | Google Cloud峰会见闻

B站:从二次元到AI创新孵化器的华丽转身 | Google Cloud峰会见闻

🚀 B站:从二次元到AI创新孵化器的华丽转身 | Google Cloud峰会见闻 * 🎉 峰会偶遇:科技圈与B站的奇妙交集 * 🔄 B站进化:从内容平台到创新生态 * 传统认知 vs 现实转变 * 真实案例:@AI进化论-花生与@产品黄叔 * 💡 参与感经济:B站作为创新试验场的独特价值 * 1. 透明开发过程 * 2. 实时用户反馈 * 3. 低成本品牌建设 * 🌟 为什么选择B站?AI开发者的战略价值 * 1. 精准的用户群体 * 2. 友好的创作环境 * 3. 完整的生态链 * 4. 强大的社区粘性 * 🚀 行动指南:如何在B站启动你的AI项目 * 第一步:定位与规划 * 第二步:内容创作 * 第三步:社区互动 * 第四步:商业转化 * 🔮 未来展望:B站科技生态的无限可能 * 💬 结语:加入B站,开启你的AI创新之旅 当技术社区与内容创作碰撞,会擦出怎样的火花?上周Google