【VSCODE 插件 调试】 Visual Studio Code + Continue + Ollama实现本地版 Cursor / Copilot

【VSCODE 插件 调试】 Visual Studio Code + Continue + Ollama实现本地版 Cursor / Copilot

Visual Studio Code + Continue

  • 组合Visual Studio Code + Continue + Ollama 基本就是 本地版 Cursor / Copilot。,可以做到:
    • AI 自动写代码
    • 自动改代码
    • 解释代码
    • 自动生成文件
    • agent 自动执行命令

安装 Ollama

在这里插入图片描述
1. 安装 Ollama # macOS: brew install ollama # Linux: curl -fsSL https://ollama.com/install.sh | sh # windows: irm https://ollama.com/install.ps1 | iex 或者直接去官网下载安装 https://ollama.com/download/windows # 2. 拉取模型 ollama pull llama3.3 ollama pull qwen2.5:32b # 3. 启动 Ollama 服务 ollama serve # windows方法 ollama run llama2 ollama run gemma:2b 
  • 在 Ollama 里安装可用的模型,Ollama 官方提供多个参数规模:
模型大小下载体积
0.5B超轻量~398MB
1.5B轻量~1GB
3B中等~2GB
7B推荐~4.7GB
14B~9GB
32B最强~20GB
C:\Users\audit>ollama run qwen2.5-coder:3b pulling manifest pulling 4a188102020e: 100% ▕██████████████████████████████████████████████████████████▏ 1.9 GB pulling 66b9ea09bd5b: 100% ▕██████████████████████████████████████████████████████████▏ 68 B pulling 1e65450c3067: 100% ▕██████████████████████████████████████████████████████████▏ 1.6 KB pulling 45fc3ea7579a: 100% ▕██████████████████████████████████████████████████████████▏ 7.4 KB pulling bb967eff3bda: 100% ▕██████████████████████████████████████████████████████████▏ 487 B verifying sha256 digest writing manifest success >>> 介绍一下 我是一个大型语言模型,由阿里云开发和提供。我的名字是Qwen。我是阿里云自主研发的超大规模语言模型,基于大规模预训练数据 和先进的算法,能够理解和生成自然语言文本。我可以回答问题、创作文章、撰写代码、提供编程帮助等。我的目标是提供高效、准 确和流畅的语言交流服务。 >>> Send a message (/? for help) 

安装Continue

在这里插入图片描述
在这里插入图片描述


在这里插入图片描述
  • 开启索引:
在这里插入图片描述
  • 创建文件:
在这里插入图片描述


在这里插入图片描述

其他操作

还可安装运行在命令行的版本:

在这里插入图片描述
>npm i -g @continuedev/cli && cn "Explore this repo and provide a concise summary of it's contents" changed 93 packages in 30s 12 packages are looking for funding run `npm fund` for details How do you want to get started? 1. ⏩ Log in with Continue 2. 🔑 Enter your Anthropic API key Enter choice (1): 
在这里插入图片描述

简单方式CalliopeAI

  • 发现一个更简单的应用,直接安装即可,可以少去上边的配置:
在这里插入图片描述


在这里插入图片描述


在这里插入图片描述

不知道是否我的配置原因,这个并不好用:

在这里插入图片描述

试用CODEX

在这里插入图片描述


在这里插入图片描述
  • 登录之后可修改C:\Users***.codex\config.toml:
model = "gpt-5.3-codex" model_reasoning_effort = "medium" [windows] sandbox = "elevated" 
  • https://docs.onlinetool.cc/codex/docs/config.html
model = "qwen2.5:3b" model_provider = "ollama" model_reasoning_effort = "medium" [windows] sandbox = "elevated" [model_providers.ollama] name = "Ollama" base_url = "http://localhost:11434" 
在这里插入图片描述

CODEX也有命令行版本

>ollama launch codex --model qwen3 #https://ollama.com/library/qwen3 pulling manifest pulling a3de86cd1c13: 100% ▕██████████████████████████████████████████████████████████▏ 5.2 GB pulling ae370d884f10: 100% ▕██████████████████████████████████████████████████████████▏ 1.7 KB pulling d18a5cc71b84: 100% ▕██████████████████████████████████████████████████████████▏ 11 KB pulling cff3f395ef37: 100% ▕██████████████████████████████████████████████████████████▏ 120 B pulling 05a61d37b084: 100% ▕██████████████████████████████████████████████████████████▏ 487 B verifying sha256 digest writing manifest success Launching Codex with qwen3... Error: codex is not installed, install with: npm install -g @openai/codex > 

CG

Read more

Z-Image-Turbo镜像推荐:Gradio WebUI免配置快速上手教程

Z-Image-Turbo镜像推荐:Gradio WebUI免配置快速上手教程 你是不是也遇到过这些情况:想试试最新的AI绘画模型,结果卡在环境搭建上——下载权重动辄几十GB、配置CUDA版本让人头大、改配置文件改到怀疑人生?或者好不容易跑起来了,WebUI界面又丑又难用,中文提示词还乱码?别折腾了。今天要介绍的这个镜像,真的做到了“点开即用”。 Z-Image-Turbo不是又一个参数堆砌的玩具模型,而是阿里通义实验室实打实打磨出来的高效文生图方案。它不靠堆显存换效果,而是用蒸馏技术把大模型的精华“浓缩”出来——8步出图、照片级质感、中英文文字渲染稳得一批,16GB显存的消费级显卡就能扛住。更重要的是,它被完整集成进了一个开箱即用的ZEEKLOG镜像里,连Gradio界面都给你调好了配色和字体,连“怎么输入中文”这种细节都考虑到了。 这篇文章不讲原理推导,不列参数表格,也不让你手动clone仓库、pip install一堆包。我们就用最直白的方式,带你从零开始,在5分钟内看到第一张由Z-Image-Turbo生成的高清图像。你不需要懂Diffusers,不需要会调acceler

【高级前端架构进阶】Nginx与Web 安全加固

【高级前端架构进阶】Nginx与Web 安全加固

🥅Nginx与Web 安全加固 🚪 引言 大家好!我是老曹,今天我们来聊聊Nginx的安全加固。在互联网这个"弱水三千"的世界里,我们的服务器就像一个"裸奔"的勇士,随时面临着各种安全威胁。🔥 Nginx 作为前端守护神,必须穿上"防弹衣"才能抵御恶意攻击。今天就让我们一起给Nginx来个"全副武装"! 🎯 学习目标 1. 🛡️ 掌握Nginx安全加固的基本概念和重要性 2. 🔍 理解server_tokens、ModSecurity插件、CSP设置的核心原理 3. 💻 学会配置各种安全策略来保护Web应用 4. 🚨 了解常见安全漏洞及防护措施 5. 📊 掌握安全配置的最佳实践 📋 核心知识点详解 ✅1. server_tokens 配置原理 🛡️ server_tokens 是Nginx的第一个安全防线,

WebToEpub完全指南:3步将网页小说变成精美EPUB电子书

WebToEpub完全指南:3步将网页小说变成精美EPUB电子书 【免费下载链接】WebToEpubA simple Chrome (and Firefox) Extension that converts Web Novels (and other web pages) into an EPUB. 项目地址: https://gitcode.com/gh_mirrors/we/WebToEpub 还在为网络小说无法离线阅读而烦恼吗?WebToEpub正是您需要的解决方案!这款免费浏览器扩展能够将任何网页内容快速转换为标准EPUB格式电子书,让您随时随地享受阅读乐趣。无论是连载小说、技术文档还是个人博客,WebToEpub都能轻松处理,真正实现"网页即电子书"的便捷体验。 🎯 为什么选择WebToEpub? 完全免费的本地处理 WebToEpub最大的优势在于完全免费且处理过程在本地进行。您的所有数据都不会上传到服务器,确保隐私安全。同时支持Chrome和Firefox两大主流浏览器,满足不同用户的使用习惯。 广泛的网站兼容性 内置数百个网站的专用解析器,涵盖主流轻小

前端微前端:别让你的应用变成巨石应用

前端微前端:别让你的应用变成巨石应用 毒舌时刻 这应用做得跟巨石似的,想改个功能都得动全身。 各位前端同行,咱们今天聊聊前端微前端。别告诉我你还在维护一个巨大的单体应用,那感觉就像在没有分区的大房子里生活——能住,但乱得要命。 为什么你需要微前端 最近看到一个项目,代码量超过 100 万行,构建时间超过 10 分钟,团队协作困难。我就想问:你是在做应用还是在做代码仓库? 反面教材 // 反面教材:单体应用 // App.jsx import React from 'react'; import Header from './components/Header'; import Sidebar from './components/Sidebar'; import Dashboard from