Continue插件实现本地部署一个“cursor”或“github copilot”

Continue插件实现本地部署一个“cursor”或“github copilot”

本地部署 AI 代码助手,制作一个 Cursor/GitHub Copilot 的替代版本

一 需求分析

  • 本地部署的定义与优势(数据隐私、离线使用、定制化)。
  • Cursor 与 GitHub Copilot 的功能(代码补全、对话交互、模型差异)。
  • 本地部署的AI 代码助手适用场景:企业内网开发、敏感数据环境。

二 环境准备与工具选择

  • 硬件要求:GPU 要对应上你所部署的模型大小
  • 模型选择:qwen2.5-14b-instruct (这里选择千问的大模型)

三 部署开源模型

这里不详细介绍具体的大模型部署的具体过程,部署完成之后,你应该得到对应的模型的以下信息

model: "qwen2.5-14b-instruct" apiBase: "http://你的ip地址(自己的本机就写localhost):对应的端口号 例如8000/v1"

四 集成到开发环境

Cursor 开源替代方案:配置 VS Code 插件(Continue)连接本地模型

4.1 Continue 插件简介

Continue 是 VS Code 的一款 AI 编程辅助插件,专注于通过自然语言交互提升开发效率。它基于大语言模型(如 GPT-4、Claude 等),支持代码生成、解释、调试和重构等功能,同时注重隐私保护,允许本地运行或连接私有模型。

  • 代码自动补全与生成:根据注释或上下文实时生成代码片段,支持多种编程语言,减少重复性编码工作。
  • 对话式编程:通过聊天界面与 AI 交互,例如询问“如何优化这段代码?”或“解释这个函数的作用”,插件会提供即时反馈。
  • 代码重构与调试:识别代码中的潜在问题,提供优化建议,或直接生成修复方案。例如自动重构冗余逻辑或修复语法错误。
  • 多模型支持:允许用户配置不同的 AI 模型后端(如 OpenAI、Anthropic 或本地部署的模型),适应不同需求。

4.2 隐私与安全

  • 本地运行选项:支持离线模型(如 CodeLlama),避免敏感代码上传云端。
  • 自定义服务器:企业用户可连接内部部署的模型服务器,确保数据可控。

4.3 安装与配置

①安装插件

在 VS Code 扩展市场搜索“Continue”并安装。

由于我已经安装过了,所以显示的是Disable。

②配置本地模型

Continue安装完成后,VS Code 的边栏上会多一个图标。

选择Ollama 然后点击Connect就可以了,会自动弹出config.yaml,然后将其内容补充完整。

1 基本信息

name: Local Config version: 1.0.0 schema: v1
  • name: 配置名称,标识为 "Local Assistant"(本地助手)。
  • version: 配置文件版本(1.0.0)。
  • schema: 使用的配置架构版本(v1)。

2 模型配置

 models: - name: qwen2.5-14b-instruct provider: "openai" model: "qwen2.5-14b-instruct" apiBase: "http://ip:port/v1" apiKey: "" completion_options: temperature: 0.5 top_p: 0.9 roles: - chat - autocomplete - edit - apply
  • 模型定义:使用 Qwen2.5-Coder-7B-Instruct(一个针对代码任务的7B参数模型)。
    • provider: 设置为 "openai",表示兼容OpenAI API格式(这里根据你的实际情况修改)。
    • apiBase: 模型API的终端地址(http://ip:port/v1),指向一个本地或远程服务。
    • apiKey: 你的模型API密钥。
  • 生成参数:
    • temperature: 0.5(平衡生成结果的创造性和确定性)。
    • top_p: 0.9(核采样,限制生成时仅考虑概率最高的90% token)。
  • 支持的功能 (roles):
    • chat: 对话交互。
    • autocomplete: 代码自动补全。
    • edit: 代码编辑。
    • apply: 可能指应用代码更改。

3 上下文集成

 context: - provider: code - provider: docs - provider: diff - provider: terminal - provider: problems - provider: folder - provider: codebase

配置工具可访问的上下文来源(增强模型对当前任务的理解):

  • code: 当前编辑的代码文件。
  • docs: 项目文档或注释。
  • diff: 代码变更差异(如Git diff)。
  • terminal: 终端输出或命令历史。
  • problems: 错误或警告(如IDE提示)。
  • folder: 当前目录文件结构。
  • codebase: 整个代码库的元信息(如符号定义)。

总得来说,此配置文件定义了一个本地代码助手,通过HTTP API连接到一个 Qwen2.5-Coder 模型,支持代码补全、编辑、聊天等功能,并集成了开发环境的多维度上下文(代码、终端、文档等)。

Ctrl + S 保存后就会显示对应的模型,到这里本地部署的模型链接VS code 就完成了。

五 测试

Read more

【记录】Copilot|Github Copilot重新学生认证通过方法(2025年7月,包括2FA和认证材料、Why are you not on campus)

【记录】Copilot|Github Copilot重新学生认证通过方法(2025年7月,包括2FA和认证材料、Why are you not on campus)

文章目录 * 前言 * 步骤 * 最重要的一步 前言 事实上,Github Copilot马上就要开源了,我原本的认证过期了。但是在我体验了众多的代码补全工具实在是太难用了之后,我觉得一天也等不了了,就去再一次认证了学生认证。 这次严格了很多,要求巨无敌多,这里写一下新认证要干的事情。 一口气认证了八次的含金量谁懂,把要踩的坑全踩完了。。 步骤 (如果你是第一次认证还要额外添加一下自己的学校邮箱,这里我就略过不提了) 在所有的步骤之前,最好确保你的本人就在学校或者在学校附近。当你出现了报错You appear not to be near any campus location for the school you have selected.时,会非常难通过。 而其他的报错可以按我下文这种方式通过。 (对于部分学校,比如华科大)双重认证Two-factor authentication要打开:跳转这个网站https://github.com/settings/security,然后点下一步开启认证,

OpenCode 踩坑记:GitHub Copilot 按次计费?我的账单为何暴涨 3 倍!

OpenCode 踩坑记:GitHub Copilot 按次计费?我的账单为何暴涨 3 倍!

从发现问题到深度分析,一篇文章搞懂 OpenCode + GitHub Copilot 的正确打开方式 🌟 前言:一个意外的"惊喜" 进入2026年,朋友圈和技术群里都在讨论一个新的AI开发工具 —— OpenCode,号称是 AI 编程助手的"终极形态",支持 GitHub Copilot、Claude、GPT-4 等多种模型,还能自动执行多步任务。 作为一个爱折腾的程序员,我立马下载试用。我有 GitHub Copilot 企业订阅,而且OpenCode还支持,用起来应该不花钱吧? 结果一周后,我收到了公司 IT 部门的"温馨提醒" 📧: “您的 Copilot 使用量是团队平均水平的 3 倍,请注意合理使用…” 什么情况??我明明只是让

llama-cpp-python完整安装指南:5步解决90%新手问题 [特殊字符]

llama-cpp-python完整安装指南:5步解决90%新手问题 🎯 【免费下载链接】llama-cpp-pythonPython bindings for llama.cpp 项目地址: https://gitcode.com/gh_mirrors/ll/llama-cpp-python llama-cpp-python是专为llama.cpp库设计的Python绑定项目,为开发者提供了在Python环境中高效运行本地大语言模型的完美解决方案。通过该项目,您可以轻松实现文本生成、对话交互、多模态推理等AI功能,无需依赖云端API即可享受强大的本地AI推理能力。 🔧 一键编译配置技巧 环境配置是新手最容易遇到问题的环节。llama-cpp-python支持多种硬件加速后端,正确配置编译环境至关重要。 步骤1:基础环境检查 确保系统已安装Python 3.8+和C编译器: * Linux/Mac: gcc或clang * Windows: Visual Studio或MinGW * MacOS: Xcode命令行工具 步骤2:核心安装命令 pip in

实战Pi0机器人控制中心:轻松实现机器人智能操控

实战Pi0机器人控制中心:轻松实现机器人智能操控 1. 项目概述:重新定义机器人控制体验 Pi0机器人控制中心是一个基于先进视觉-语言-动作模型的智能操控平台,它彻底改变了传统机器人控制的复杂方式。这个项目将多视角视觉感知、自然语言理解和精准动作控制完美融合,让机器人操控变得像与人对话一样简单直观。 想象一下,你只需要对机器人说"捡起那个红色方块",它就能准确理解并执行相应动作。这就是Pi0控制中心带来的革命性体验——无需编写复杂的控制代码,无需记忆繁琐的操作指令,用最自然的方式与机器人进行交互。 这个控制中心采用全屏Web界面设计,界面简洁现代,操作流程直观。无论你是机器人技术爱好者、研究人员,还是教育工作者,都能快速上手使用,专注于机器人应用开发而不是底层技术实现。 2. 核心功能详解:智能操控的四大支柱 2.1 多视角视觉感知系统 Pi0控制中心支持同时输入三个不同角度的环境图像:主视角、侧视角和俯视角。这种多视角设计模拟了人类观察环境的自然方式,为机器人提供了全面的环境感知能力。 * 主视角摄像头:提供机器人正前方的视野,用于识别主要操作对象 * 侧视角