【VSCODE 插件 调试】 Visual Studio Code + Continue + Ollama实现本地版 Cursor / Copilot

【VSCODE 插件 调试】 Visual Studio Code + Continue + Ollama实现本地版 Cursor / Copilot

Visual Studio Code + Continue

  • 组合Visual Studio Code + Continue + Ollama 基本就是 本地版 Cursor / Copilot。,可以做到:
    • AI 自动写代码
    • 自动改代码
    • 解释代码
    • 自动生成文件
    • agent 自动执行命令

安装 Ollama

在这里插入图片描述
1. 安装 Ollama # macOS: brew install ollama # Linux: curl -fsSL https://ollama.com/install.sh | sh # windows: irm https://ollama.com/install.ps1 | iex 或者直接去官网下载安装 https://ollama.com/download/windows # 2. 拉取模型 ollama pull llama3.3 ollama pull qwen2.5:32b # 3. 启动 Ollama 服务 ollama serve # windows方法 ollama run llama2 ollama run gemma:2b 
  • 在 Ollama 里安装可用的模型,Ollama 官方提供多个参数规模:
模型大小下载体积
0.5B超轻量~398MB
1.5B轻量~1GB
3B中等~2GB
7B推荐~4.7GB
14B~9GB
32B最强~20GB
C:\Users\audit>ollama run qwen2.5-coder:3b pulling manifest pulling 4a188102020e: 100% ▕██████████████████████████████████████████████████████████▏ 1.9 GB pulling 66b9ea09bd5b: 100% ▕██████████████████████████████████████████████████████████▏ 68 B pulling 1e65450c3067: 100% ▕██████████████████████████████████████████████████████████▏ 1.6 KB pulling 45fc3ea7579a: 100% ▕██████████████████████████████████████████████████████████▏ 7.4 KB pulling bb967eff3bda: 100% ▕██████████████████████████████████████████████████████████▏ 487 B verifying sha256 digest writing manifest success >>> 介绍一下 我是一个大型语言模型,由阿里云开发和提供。我的名字是Qwen。我是阿里云自主研发的超大规模语言模型,基于大规模预训练数据 和先进的算法,能够理解和生成自然语言文本。我可以回答问题、创作文章、撰写代码、提供编程帮助等。我的目标是提供高效、准 确和流畅的语言交流服务。 >>> Send a message (/? for help) 

安装Continue

在这里插入图片描述
在这里插入图片描述


在这里插入图片描述
  • 开启索引:
在这里插入图片描述
  • 创建文件:
在这里插入图片描述


在这里插入图片描述

其他操作

还可安装运行在命令行的版本:

在这里插入图片描述
>npm i -g @continuedev/cli && cn "Explore this repo and provide a concise summary of it's contents" changed 93 packages in 30s 12 packages are looking for funding run `npm fund` for details How do you want to get started? 1. ⏩ Log in with Continue 2. 🔑 Enter your Anthropic API key Enter choice (1): 
在这里插入图片描述

简单方式CalliopeAI

  • 发现一个更简单的应用,直接安装即可,可以少去上边的配置:
在这里插入图片描述


在这里插入图片描述


在这里插入图片描述

不知道是否我的配置原因,这个并不好用:

在这里插入图片描述

试用CODEX

在这里插入图片描述


在这里插入图片描述
  • 登录之后可修改C:\Users***.codex\config.toml:
model = "gpt-5.3-codex" model_reasoning_effort = "medium" [windows] sandbox = "elevated" 
  • https://docs.onlinetool.cc/codex/docs/config.html
model = "qwen2.5:3b" model_provider = "ollama" model_reasoning_effort = "medium" [windows] sandbox = "elevated" [model_providers.ollama] name = "Ollama" base_url = "http://localhost:11434" 
在这里插入图片描述

CODEX也有命令行版本

>ollama launch codex --model qwen3 #https://ollama.com/library/qwen3 pulling manifest pulling a3de86cd1c13: 100% ▕██████████████████████████████████████████████████████████▏ 5.2 GB pulling ae370d884f10: 100% ▕██████████████████████████████████████████████████████████▏ 1.7 KB pulling d18a5cc71b84: 100% ▕██████████████████████████████████████████████████████████▏ 11 KB pulling cff3f395ef37: 100% ▕██████████████████████████████████████████████████████████▏ 120 B pulling 05a61d37b084: 100% ▕██████████████████████████████████████████████████████████▏ 487 B verifying sha256 digest writing manifest success Launching Codex with qwen3... Error: codex is not installed, install with: npm install -g @openai/codex > 

CG

Read more

GitHub Copilot 教程

文章来源:https://vscode.it-docs.cn/docs/copilot/overview.html GitHub Copilot 为 Visual Studio Code 增加了多代理开发功能。规划好你的方法,然后让AI代理在项目中实现并验证代码变更。并行运行多个代理会话:本地、后台或云端。从一个中心视角管理所有角色。内联建议、内联聊天和智能行为会帮助你完成整个编码流程。 代理与代理会话 代理端到端地处理完整的编码任务。给代理一个高级任务,它会将工作拆分成步骤,编辑文件,运行终端命令,调用工具,并在遇到错误或测试失败时自我纠正。每个任务都运行在一个代理会话中,这是一个持续存在的对话,你可以跟踪、暂停、继续或交接给另一个代理。 重要 你们组织可能在VS Code中禁用了代理。请联系你的管理员以启用此功能。 从中央视图管理会话 并行运行多个代理会话,每个会话专注于不同的任务。聊天面板中的会话视图为你提供了一个统一的地方来监控所有活跃会话,无论是本地运行、后台还是云端运行。查看每次会话的状态,切换,查看文件变更,

3DMAX VR渲染器局部渲染设置教程

3DMAX VR渲染器局部渲染设置教程

VR 渲染器局部渲染设置 VR 渲染器的局部渲染功能灵活适配多种场景(尤其全景图),操作步骤如下: 1. 调出渲染设置面板:在 3DMAX 软件中,直接按下快捷键「F10」,快速打开渲染设置窗口(也可通过顶部菜单栏「渲染」→「渲染设置」手动调出)。 2. 确认渲染器类型:在渲染设置面板中,切换到「指定渲染器」选项卡,确保当前选定的渲染器为「V-Ray 渲染器」(若未选中,点击下拉菜单切换即可)。 1. 打开 VR 帧缓冲器:切换到「V-Ray」选项卡,找到「帧缓冲器」设置项,勾选「启用内置帧缓冲器」(部分版本默认开启),点击右侧「显示 VFB」按钮,调出 VR 帧缓冲窗口。 1.

AI绘画师转型指南:用LLaMA Factory定制你的提示词生成器

AI绘画师转型指南:用LLaMA Factory定制你的提示词生成器 作为一名Stable Diffusion资深用户,你是否经常遇到这样的困扰:精心设计的画面构思,却因为提示词(Prompt)质量不佳而无法准确呈现?语言模型生成的描述总是不够精准或缺乏创意。本文将介绍如何通过LLaMA Factory框架快速微调大语言模型,打造专属于你的提示词生成器。这类任务通常需要GPU环境,目前ZEEKLOG算力平台提供了包含该镜像的预置环境,可快速部署验证。 为什么需要定制提示词生成器 Stable Diffusion等AI绘画工具对提示词极为敏感,好的提示词需要: * 准确描述画面元素(主体、风格、构图等) * 合理使用权重符号和分隔符 * 包含艺术风格术语和专业技术词汇 * 保持语义连贯性 通用语言模型生成的提示词往往过于笼统或不符合绘画领域的特殊表达习惯。通过微调,我们可以让模型: 1. 学习优质提示词的语法结构 2. 掌握绘画领域的专业术语 3. 适应你的个人创作风格 LLaMA Factory快速入门 LLaMA Factory是一个开源的低代码大模

【AFDM与信号处理:论文阅读】仿射频分复用:扩展OFDM以实现场景灵活性和弹性

【AFDM与信号处理:论文阅读】仿射频分复用:扩展OFDM以实现场景灵活性和弹性

2025.12.17 虽说还没做过AFDM,但是作为最近比较流行的多载波方案之一,还是有必要去简单学习一下的。因此建立此帖,从小白的视角学习下关于AFDM的相关内容。 【AFDM与信号处理:论文阅读】Affine Frequency Division Multiplexing: Extending OFDM for Scenario-Flexibility and Resilience * 一、前言 * 1.1 写在前面 * 1.2 中心思想 * 二、摘要 * 三、引言 * 四、双重扩散信道中的挑战 * 五、AFDM的基本原理 * 六、潜在应用场景 一、前言 1.1 写在前面 论文题目:Affine Frequency Division Multiplexing: Extending OFDM