【VSCODE 插件 调试】 Visual Studio Code + Continue + Ollama实现本地版 Cursor / Copilot

【VSCODE 插件 调试】 Visual Studio Code + Continue + Ollama实现本地版 Cursor / Copilot

Visual Studio Code + Continue

  • 组合Visual Studio Code + Continue + Ollama 基本就是 本地版 Cursor / Copilot。,可以做到:
    • AI 自动写代码
    • 自动改代码
    • 解释代码
    • 自动生成文件
    • agent 自动执行命令

安装 Ollama

在这里插入图片描述
1. 安装 Ollama # macOS: brew install ollama # Linux: curl -fsSL https://ollama.com/install.sh | sh # windows: irm https://ollama.com/install.ps1 | iex 或者直接去官网下载安装 https://ollama.com/download/windows # 2. 拉取模型 ollama pull llama3.3 ollama pull qwen2.5:32b # 3. 启动 Ollama 服务 ollama serve # windows方法 ollama run llama2 ollama run gemma:2b 
  • 在 Ollama 里安装可用的模型,Ollama 官方提供多个参数规模:
模型大小下载体积
0.5B超轻量~398MB
1.5B轻量~1GB
3B中等~2GB
7B推荐~4.7GB
14B~9GB
32B最强~20GB
C:\Users\audit>ollama run qwen2.5-coder:3b pulling manifest pulling 4a188102020e: 100% ▕██████████████████████████████████████████████████████████▏ 1.9 GB pulling 66b9ea09bd5b: 100% ▕██████████████████████████████████████████████████████████▏ 68 B pulling 1e65450c3067: 100% ▕██████████████████████████████████████████████████████████▏ 1.6 KB pulling 45fc3ea7579a: 100% ▕██████████████████████████████████████████████████████████▏ 7.4 KB pulling bb967eff3bda: 100% ▕██████████████████████████████████████████████████████████▏ 487 B verifying sha256 digest writing manifest success >>> 介绍一下 我是一个大型语言模型,由阿里云开发和提供。我的名字是Qwen。我是阿里云自主研发的超大规模语言模型,基于大规模预训练数据 和先进的算法,能够理解和生成自然语言文本。我可以回答问题、创作文章、撰写代码、提供编程帮助等。我的目标是提供高效、准 确和流畅的语言交流服务。 >>> Send a message (/? for help) 

安装Continue

在这里插入图片描述
在这里插入图片描述


在这里插入图片描述
  • 开启索引:
在这里插入图片描述
  • 创建文件:
在这里插入图片描述


在这里插入图片描述

其他操作

还可安装运行在命令行的版本:

在这里插入图片描述
>npm i -g @continuedev/cli && cn "Explore this repo and provide a concise summary of it's contents" changed 93 packages in 30s 12 packages are looking for funding run `npm fund` for details How do you want to get started? 1. ⏩ Log in with Continue 2. 🔑 Enter your Anthropic API key Enter choice (1): 
在这里插入图片描述

简单方式CalliopeAI

  • 发现一个更简单的应用,直接安装即可,可以少去上边的配置:
在这里插入图片描述


在这里插入图片描述


在这里插入图片描述

不知道是否我的配置原因,这个并不好用:

在这里插入图片描述

试用CODEX

在这里插入图片描述


在这里插入图片描述
  • 登录之后可修改C:\Users***.codex\config.toml:
model = "gpt-5.3-codex" model_reasoning_effort = "medium" [windows] sandbox = "elevated" 
  • https://docs.onlinetool.cc/codex/docs/config.html
model = "qwen2.5:3b" model_provider = "ollama" model_reasoning_effort = "medium" [windows] sandbox = "elevated" [model_providers.ollama] name = "Ollama" base_url = "http://localhost:11434" 
在这里插入图片描述

CODEX也有命令行版本

>ollama launch codex --model qwen3 #https://ollama.com/library/qwen3 pulling manifest pulling a3de86cd1c13: 100% ▕██████████████████████████████████████████████████████████▏ 5.2 GB pulling ae370d884f10: 100% ▕██████████████████████████████████████████████████████████▏ 1.7 KB pulling d18a5cc71b84: 100% ▕██████████████████████████████████████████████████████████▏ 11 KB pulling cff3f395ef37: 100% ▕██████████████████████████████████████████████████████████▏ 120 B pulling 05a61d37b084: 100% ▕██████████████████████████████████████████████████████████▏ 487 B verifying sha256 digest writing manifest success Launching Codex with qwen3... Error: codex is not installed, install with: npm install -g @openai/codex > 

CG

Read more

[AI] openwebui内网部署网页加载缓慢?一个设置绕过openai连接问题!

[AI] openwebui内网部署网页加载缓慢?一个设置绕过openai连接问题!

在部署和使用开源 Web UI 项目如 openwebui 时,很多人会选择将其安装在内网环境中,既可以保证数据安全,又能避免公网依赖。然而,一些用户在完成部署后会遇到一个令人费解的问题:网页打开速度奇慢,动不动就卡住十几秒才能打开。 如果你在后台日志中看到大量连接 openai 的超时信息,那恭喜你,踩中了一个“默认配置陷阱”。 本文将以“最简单有效”的方式解决这个问题——无需改代码、不用会 Python、零配置文件操作,只需一个图形化操作设置,即可永久解决页面打开慢的问题。 1. 问题现象:网页慢如蜗牛,控制台超时警告 你或许已经完成了以下操作: * 在内网服务器部署了 openwebui; * 成功启动服务并通过浏览器访问 Web UI 页面; * 却发现页面加载非常缓慢。 当你查看后台服务日志时,常常能看到如下信息: [ERROR] Request to https://api.openai.com/... timeout.

cann-recipes-train 仓库深度解读:昇腾平台下 DeepSeek-R1 与 Qwen2.5 强化学习训练优化实践

cann-recipes-train 仓库深度解读:昇腾平台下 DeepSeek-R1 与 Qwen2.5 强化学习训练优化实践

cann-recipes-train 仓库深度解读:昇腾平台下 DeepSeek-R1 与 Qwen2.5 强化学习训练优化实践 前言 自 DeepSeek-R1 发布以来,大模型的强化学习(RL)训练掀起了新一轮的技术热潮。各大厂商与开源社区纷纷投入实践,持续探索更高效的 RL 训练体系。本文将基于 cann-recipes-train 仓库,解读两个实践样例:DeepSeek-R1 的 RL 训练优化实践样例、基于 verl 框架的 Qwen2.5 强化学习实践样例 cann-recipes-train 仓库全景解析:昇腾训练优化的"实战底座" 大模型训练拼效率的阶段,CANN 直接帮我们搞定了底层异构硬件适配、资源调度这些麻烦事,不用再从零研究 GPU 和 NPU 怎么协同,现有模型代码也不用大改就能对接,训

服务端之NestJS接口响应message编写规范详解、写给前后端都舒服的接口、API提示信息标准化

服务端之NestJS接口响应message编写规范详解、写给前后端都舒服的接口、API提示信息标准化

MENU * 前言 * 定义 * 提示信息设计原则 * 提示信息风格分类 * 提示信息模板化设计 * 国际化与多语言支持 * 最佳实践 * 参考示例(NestJS响应) * 总结 * 统一风格示例清单推荐 * API响应message清单(可直接使用) 前言 在现代后端开发中,接口响应不仅仅是数据的传递,还承担着向前端或用户传递操作状态和结果的功能。一个规范、统一的message字段设计,可以显著提升系统的可维护性、前端开发效率和用户体验。 定义 响应结构示例(NestJS风格) 各字段作用 提示信息设计原则 简洁明了 1、不宜过长,一般3~12个汉字。 2、避免含糊不清的词,如“完成了”、“OK”等。 统一风格 1、同一项目接口建议使用统一动词+状态组合,例如:获取数据成功、数据加载完成。 上下文清晰 1、提示信息应体现操作对象或类型,如“用户列表获取成功”

ssm366基于Web的在线投稿系统的设计与实现+vue(文档+源码)_kaic

ssm366基于Web的在线投稿系统的设计与实现+vue(文档+源码)_kaic

摘  要 现代经济快节奏发展以及不断完善升级的信息化技术,让传统数据信息的管理升级为软件存储,归纳,集中处理数据信息的管理方式。本在线投稿系统就是在这样的大环境下诞生,其可以帮助管理者在短时间内处理完毕庞大的数据信息,使用这种软件工具可以帮助管理人员提高事务处理效率,达到事半功倍的效果。此在线投稿系统利用当下成熟完善的SSM框架,使用跨平台的可开发大型商业网站的Java语言,以及最受欢迎的RDBMS应用软件之一的Mysql数据库进行程序开发.在线投稿系统的开发根据操作人员需要设计的界面简洁美观,在功能模块布局上跟同类型网站保持一致,程序在实现基本要求功能时,也为数据信息面临的安全问题提供了一些实用的解决方案。可以说该程序在帮助管理者高效率地处理工作事务的同时,也实现了数据信息的整体化,规范化与自动化。 关键词:在线投稿系统;SSM框架;Mysql;自动化 Abstract The fast-paced development of the modern economy and the continuous improvement and upgrading of in