【VSCODE 插件 调试】 Visual Studio Code + Continue + Ollama实现本地版 Cursor / Copilot

【VSCODE 插件 调试】 Visual Studio Code + Continue + Ollama实现本地版 Cursor / Copilot

Visual Studio Code + Continue

  • 组合Visual Studio Code + Continue + Ollama 基本就是 本地版 Cursor / Copilot。,可以做到:
    • AI 自动写代码
    • 自动改代码
    • 解释代码
    • 自动生成文件
    • agent 自动执行命令

安装 Ollama

在这里插入图片描述
1. 安装 Ollama # macOS: brew install ollama # Linux: curl -fsSL https://ollama.com/install.sh | sh # windows: irm https://ollama.com/install.ps1 | iex 或者直接去官网下载安装 https://ollama.com/download/windows # 2. 拉取模型 ollama pull llama3.3 ollama pull qwen2.5:32b # 3. 启动 Ollama 服务 ollama serve # windows方法 ollama run llama2 ollama run gemma:2b 
  • 在 Ollama 里安装可用的模型,Ollama 官方提供多个参数规模:
模型大小下载体积
0.5B超轻量~398MB
1.5B轻量~1GB
3B中等~2GB
7B推荐~4.7GB
14B~9GB
32B最强~20GB
C:\Users\audit>ollama run qwen2.5-coder:3b pulling manifest pulling 4a188102020e: 100% ▕██████████████████████████████████████████████████████████▏ 1.9 GB pulling 66b9ea09bd5b: 100% ▕██████████████████████████████████████████████████████████▏ 68 B pulling 1e65450c3067: 100% ▕██████████████████████████████████████████████████████████▏ 1.6 KB pulling 45fc3ea7579a: 100% ▕██████████████████████████████████████████████████████████▏ 7.4 KB pulling bb967eff3bda: 100% ▕██████████████████████████████████████████████████████████▏ 487 B verifying sha256 digest writing manifest success >>> 介绍一下 我是一个大型语言模型,由阿里云开发和提供。我的名字是Qwen。我是阿里云自主研发的超大规模语言模型,基于大规模预训练数据 和先进的算法,能够理解和生成自然语言文本。我可以回答问题、创作文章、撰写代码、提供编程帮助等。我的目标是提供高效、准 确和流畅的语言交流服务。 >>> Send a message (/? for help) 

安装Continue

在这里插入图片描述
在这里插入图片描述


在这里插入图片描述
  • 开启索引:
在这里插入图片描述
  • 创建文件:
在这里插入图片描述


在这里插入图片描述

其他操作

还可安装运行在命令行的版本:

在这里插入图片描述
>npm i -g @continuedev/cli && cn "Explore this repo and provide a concise summary of it's contents" changed 93 packages in 30s 12 packages are looking for funding run `npm fund` for details How do you want to get started? 1. ⏩ Log in with Continue 2. 🔑 Enter your Anthropic API key Enter choice (1): 
在这里插入图片描述

简单方式CalliopeAI

  • 发现一个更简单的应用,直接安装即可,可以少去上边的配置:
在这里插入图片描述


在这里插入图片描述


在这里插入图片描述

不知道是否我的配置原因,这个并不好用:

在这里插入图片描述

试用CODEX

在这里插入图片描述


在这里插入图片描述
  • 登录之后可修改C:\Users***.codex\config.toml:
model = "gpt-5.3-codex" model_reasoning_effort = "medium" [windows] sandbox = "elevated" 
  • https://docs.onlinetool.cc/codex/docs/config.html
model = "qwen2.5:3b" model_provider = "ollama" model_reasoning_effort = "medium" [windows] sandbox = "elevated" [model_providers.ollama] name = "Ollama" base_url = "http://localhost:11434" 
在这里插入图片描述

CODEX也有命令行版本

>ollama launch codex --model qwen3 #https://ollama.com/library/qwen3 pulling manifest pulling a3de86cd1c13: 100% ▕██████████████████████████████████████████████████████████▏ 5.2 GB pulling ae370d884f10: 100% ▕██████████████████████████████████████████████████████████▏ 1.7 KB pulling d18a5cc71b84: 100% ▕██████████████████████████████████████████████████████████▏ 11 KB pulling cff3f395ef37: 100% ▕██████████████████████████████████████████████████████████▏ 120 B pulling 05a61d37b084: 100% ▕██████████████████████████████████████████████████████████▏ 487 B verifying sha256 digest writing manifest success Launching Codex with qwen3... Error: codex is not installed, install with: npm install -g @openai/codex > 

CG

Read more

Visual Studio 使用 GitHub Copilot 与 IntelliCode 辅助编码 【AI辅助开发系列】

Visual Studio 使用 GitHub Copilot 与 IntelliCode 辅助编码 【AI辅助开发系列】

🎀🎀🎀【AI辅助编程系列】🎀🎀🎀 1. Visual Studio 使用 GitHub Copilot 与 IntelliCode 辅助编码 2. Visual Studio 安装和管理 GitHub Copilot 3. Visual Studio 使用 GitHub Copilot 扩展 4. Visual Studio 使用 GitHub Copilot 聊天 5. Visual Studio 使用 GitHub Copilot 协助调试 6. Visual Studio 使用 IntelliCode AI 辅助代码开发 7. Visual Studio 玩转 IntelliCode AI辅助开发

win10升级后总会弹出365 Copilot窗口如何禁用和关闭

win10升级后总会弹出365 Copilot窗口如何禁用和关闭

win10升级后总会弹出365 Copilot窗口如何禁用和关闭 在Windows 10中,可以通过以下几种方法禁用或关闭Microsoft 365 Copilot: 方法一:任务栏上直接禁用 1. 右键点击任务栏。 2. 在弹出的菜单中,找到并取消勾选“显示 Copilot(预览版)按钮”选项。 这种方法只是让Copilot不再显示在任务栏上,但并未彻底禁用该功能。用户仍然可以通过“Windows 键 + C”键盘快捷键来打开和关闭Copilot界面。 方法二:利用组策略彻底禁用 1. 打开开始菜单,搜索“组策略”并打开组策略编辑器。 2. 按照“用户配置 > 管理模板 > Windows 组件 > Windows Copilot”的路径依次展开。 3. 双击“关闭 Windows Copilot”

Cursor、Windsurf、Kiro、Zed、VS Code(含 Copilot) 等 AI 编程工具的 定价对比

以 USD/月为单位,2025 最新市场信息:(Windsurf) 1) Cursor(基于 VS Code 的 AI IDE) 计划价格主要特征免费 Hobby$0基础 completions / 请求额度有限,试用高级功能两周 (Bito)Pro$20/月无限 completions、约 500 高速 AI 请求 (Windsurf)Teams$40/用户/月团队协作、管理功能 (Windsurf)Ultra$200/月大量 AI 请求额度 (Bito)Enterprise自定义企业级安全与支持 (Bito) 特点:AI 多行补全、上下文理解强、Pro

Llama-3.2-3B开源部署:ollama部署本地大模型+Grafana实时指标看板

Llama-3.2-3B开源部署:ollama部署本地大模型+Grafana实时指标看板 1. 为什么选Llama-3.2-3B?轻量、多语言、开箱即用的对话专家 你有没有试过在自己电脑上跑一个真正能聊、能写、还能理解多语言的大模型?不是云服务,不是API调用,就是本地运行——不联网、不依赖服务器、响应快、隐私强。Llama-3.2-3B正是这样一款“刚刚好”的模型:它不像70B模型那样吃光显存,也不像百M级小模型那样答非所问。3B参数规模让它能在普通笔记本(甚至MacBook M1/M2)上流畅运行,同时保持对中、英、法、西、德、日等十余种语言的理解与生成能力。 它不是实验室里的玩具。Meta官方明确将Llama 3.2系列定位为“面向真实对话场景优化的指令微调模型”,特别强化了代理式任务(比如帮你查资料再总结)、长文本摘要、多轮上下文理解这些日常高频需求。我们在实测中发现,它对中文技术文档的摘要准确率明显高于同级别开源模型,对带专业术语的提问(如“