VS-CODE 里的github copilot 不支持自己配置模型api

1. 关于配置自定义 Claude API 的支持情况

  • 结论:不支持。
  • 机制说明
    • VS Code 官方 GitHub Copilot 扩展(包括 Agent 功能)强制通过 GitHub 的代理服务器进行鉴权和路由。
    • 模型切换:GitHub Copilot 允许在订阅权限范围内切换底层模型(例如从 GPT-4o 切换至 Claude 3.5 Sonnet),但这使用的是 GitHub 的企业/个人订阅配额。
    • API Key 限制:无法在官方扩展设置中输入个人的 sk-ant-... (Anthropic API Key) 或自定义 Endpoint。
  • 替代方案(非官方扩展)
    • 若必须使用个人 Claude API Key,需使用 ContinueRoo Code (Clin) 等开源 VS Code 扩展,这些扩展支持 "Bring Your Own Key" (BYOK) 模式。

2. 让 Copilot 浏览 URL 或执行搜索的操作步骤

GitHub Copilot 本身不具备全功能的无头浏览器(Headless Browser),其“浏览”和“搜索”功能依赖于 Bing 搜索集成和上下文引用。

操作 A:执行网络搜索(基于 Bing)

此功能通常由意图识别自动触发,或通过特定命令调用。

  1. 前置检查
    • 打开 VS Code 设置 (Ctrl + ,)。
    • 搜索 github.copilot.chat.search.enabled(或类似 Search 关键词),确保该选项已勾选。
  2. 执行步骤
    • 打开 Chat 面板 (Ctrl + Alt + I / Cmd + Alt + I)。
    • 输入包含时效性信息的查询,例如:“React 19 的最新 breaking changes 是什么?”
    • 观察行为:Copilot 会在回复前显示 “Thinking...” 或 “Searching Bing...”,并列出引用的网页来源。
    • 显式触发(部分版本支持):在输入框尝试输入 @web(如果已安装相关 Agent)后接查询内容。
操作 B:浏览特定 URL 内容

Copilot 无法像人类一样渲染和交互网页,它仅能抓取页面文本。

  1. 直接引用法
    • 在 Chat 输入框中直接粘贴完整 URL。
    • 追加指令:“请阅读此链接内容并总结...” 或 “基于此链接的代码段解释...”。
    • 限制:此方法仅对静态 HTML 页面有效。对于需要登录、复杂的 SPA(单页应用)或有反爬虫机制的网站(如某些文档站、Twitter),Copilot 会提示无法访问。
  2. 使用上下文附件(Context Menu)
    • 若 VS Code 版本支持“Attach Context”(回形针图标):
    • 点击输入框旁的“附件”图标。
    • 选择 Paste URLDocumentation(如果已配置特定文档源)。
操作 C:使用 @github 搜索仓库资源

针对 GitHub 托管的代码或 Issue,不走通用网页浏览,而是走 GitHub API。

  1. 步骤
    • 在 Chat 中输入 @github
    • 接指令:@github search issues regarding "memory leak"
    • 或:@github explain this repository's url routing logic

Read more

[源力觉醒 创作者计划]_文心一言 4.5开源深度解析:性能狂飙 + 中文专精

[源力觉醒 创作者计划]_文心一言 4.5开源深度解析:性能狂飙 + 中文专精

文章目录 * [源力觉醒 创作者计划]_文心一言 4.5开源深度解析:性能狂飙 + 中文专精 * 一. 部署实战:单卡环境的极速落地 * 1.1 🖥️ 环境配置の手把手教程 📝 * 部署准备:硬件与镜像 * 依赖安装:一行代码搞定 * 1.2 🚀 模型启动の参数与验证 ✅. * 二. 多场景能力验证:从工业到学术 * 2.1 🏥 医疗影像诊断:从模糊影像到病灶定位 * 2.2 🚦 交通流优化:动态拥堵预测与策略设计 * 2.3 🔍 考古文本破译:甲骨文符号的跨学科解读 * 三. 性能优化与问题解决 * 3.1 🚀 性能优化策略:让模型跑得更快 * 3.2 🛠️ 常见错误解决方案 * 四. 与同类模型对比 * 🍬 核心优势对比🍭 * 🍬 对比结论🍭 * 五、

By Ne0inhk

Copilot使用体验

本篇是去年使用Copilot的记录,不代表目前水平,仅做个人记录同步,谨慎参考。 GitHub Copilot的订阅计划 https://docs.github.com/en/copilot/about-github-copilot/subscription-plans-for-github-copilot 个人版提供30天的免费试用。个人版每月10 美元或每年 100 美元。 Copilot操作文档 https://docs.github.com/en/copilot/quickstart 目前支持JetBrains IDEs,Vim/Neovim,Visual Studio,Visual Studio Code,Xcode。安装插件,登录Github账号就可以使用了,需要开代理。 基本操作 * 获取代码建议,输入代码时会自动触发,使用“Tab”键采纳。 * 切换建议,macOS使用“Option+]”或“

By Ne0inhk

Midjourney作品集自动生成说明文档:Anything-LLM联动方案

Midjourney作品集自动生成:Anything-LLM联动实践 在AI创作工具日益普及的今天,设计师们正面临一个看似矛盾的现象:生产力空前提升,但知识管理却愈发混乱。每天生成上百张图像、尝试无数种提示词组合后,真正能被复用的设计经验反而像沙子一样从指缝中溜走。你是否也有过这样的经历——明明记得上周做过一张“赛博朋克海滩”的图,现在客户提出类似需求时,翻遍Discord聊天记录却怎么也找不到? 这正是我们构建这套自动化系统的出发点。与其把AI当作一次性的画笔,不如让它成为团队的“长期记忆体”。而关键,就在于如何将那些散落在各处的图像和提示词,转化为可检索、可对话的知识资产。 想象一下这个场景:你在Anything-LLM的聊天框里输入:“找一张去年夏天做的、带霓虹灯的城市夜景图,风格接近赛博朋克。” 几秒钟后,系统不仅返回了三张匹配度最高的作品预览,还附上了原始prompt、参数设置以及生成时间。更进一步,它甚至建议:“您在7月12日还尝试过一种高chaos值的变体,视觉冲击更强,需要查看吗?” 这不是未来设想,而是通过Midjourney + Anything-LLM联动

By Ne0inhk
AI的提示词专栏:LLaMA-2 与 Mixtral 的提示词调优技巧

AI的提示词专栏:LLaMA-2 与 Mixtral 的提示词调优技巧

AI的提示词专栏:LLaMA-2 与 Mixtral 的提示词调优技巧 本文围绕 LLaMA-2 与 Mixtral 两大模型的提示词调优展开,先分析二者核心特性,再针对性给出适配原则与实战技巧。LLaMA-2 因参数规模差异大、通用领域训练数据为主、指令敏感度低,需按参数分层设计提示词、补充领域知识、强化指令约束,还提供了结构化指令、Few-Shot 示例等 5 个实战技巧;Mixtral 凭借混合专家架构、长上下文窗口、强多语言能力,需引导激活对应专家模块、合理处理长文本、规范多语言输出,配套专家引导指令等 4 个技巧。文章还对比二者调优重点与适用场景,指出常见误区并给出避坑方案,最后总结核心思路并提供后续实践建议,助力开发者优化提示词、发挥模型性能。 人工智能专栏介绍     人工智能学习合集专栏是 AI 学习者的实用工具。它像一个全面的 AI 知识库,把提示词设计、AI 创作、智能绘图等多个细分领域的知识整合起来。

By Ne0inhk