如何在VS Code中安装GitHub Copilot进行AI编程

如何在VS Code中安装GitHub Copilot进行AI编程

本文教您轻松在VS Code中玩转GitHub Copilot:从安装认证到实战网页开发,5分钟解锁AI编程神器,还能自由切换模型、实时调试代码!

在Visual Studio Code中搭建GitHub Copilot编程环境需要经过几个关键步骤,以下是详细指南:

环境准备阶段

  1. 安装最新版VS Code(当前版本≥1.85)官网下载地址:https://code.visualstudio.com/

2. 拥有有效的GitHub账户(建议启用双重验证)

注册地址:https://github.com/

3. 稳定的网络连接(Copilot需实时云端交互)

安装流程

1、安装VS Code后,选择”Use All features with Copilot for free”。如果已经安装VS Code,可以打开VS Code扩展市场(Ctrl+Shift+X) 搜索"GitHub Copilot" 后, 点击安装按钮(约15MB大小) ,安装完成后右下角会出现Copilot图标。

2、账户认证环节 点击活动栏Copilot图标,选择"Sign in to GitHub",授权后返回VS Code完成关联。下次打开VS Code后会自动登录。

出现CHAT对话框表示登录成功,可以进行编程对话。

3、编程交互

在CHAT右下角的“Add Context”中,可以输入提示词,跟Copilot进行交互。这里还可以在下面选择大模型,Copilot可以支持GPT-5mini、GPT-4.1、GPT-4o等多种模型,使用起来如果效果不好,可以更换试试。

编写网页测试

在“Add Context”中输入“请转换成中文”,回车后,可以看到Copilot已经切换到中文模式。再输入提示词“写一个祝福中国2026年春节档静态网页,使用JavaScript制作一个简单动画,不断在显示新年快乐,万事如意”,回车后,AI开始运行

运行过程中,每生成一个文件,都要选择一下下面蓝色字体的“Allow”,继续进行下一个文件生成。

文件全部生成后,在左边会打开并显示部分生成的文件,下面会提示如何运行生成的文件。

这里使用python,如果没有需要先安装一下python,直接按提示运行python -m http.server 8000

在浏览器中输入localhost:8000

同时,在cmd中,也会同时显示服务器端读取文件的过程

现在还在该对话中,对生成的文件进行修改,在“Add Context”中,输入“将背景颜色变成蓝色”,回车后Copilot进行工作,运行完成后,刷新网页,背景变成蓝色。

Read more

展望 AIGC 前景:通义万相 2.1 与蓝耘智算平台共筑 AI 生产力高地

展望 AIGC 前景:通义万相 2.1 与蓝耘智算平台共筑 AI 生产力高地

引言 在 AI 视频生成领域不断创新突破的当下,通义万相 2.1这款开源的视频生成 AI 模型一经发布便引发了广泛关注。其表现十分亮眼,发布当日便强势登顶VBench排行榜,将Sora、Runway等行业内的知名强大对手甩在身后,彰显出不容小觑的强劲实力与巨大潜力。 通义万相 2.1模型具备诸多令人赞叹的特性。它所生成的视频分辨率达到了1080P,并且在视频时长方面没有任何限制。更为厉害的是,它能够精准地模拟自然动作,甚至还可以对物理规律进行高度还原,这些卓越的能力无疑为 AIGC 领域带来了前所未有的变革,堪称具有里程碑意义的重大突破。 借助蓝耘智算平台,用户可以便捷地对通义万相 2.1 模型进行部署,进而打造出属于自己的个性化 AI 视频生成工具。今天,我会带领大家深入了解通义万相 2.1的各项强大功能,同时也会详细分享怎样通过蓝耘智算平台快速上手,开启 AI 视频生成的奇妙之旅。 蓝耘智算平台:开启高性能计算新时代 1. 平台概览 蓝耘智算平台作为专为满足高性能计算需求精心打造的云计算平台,以强大计算力和灵活服务能力脱颖而出。其依托先进的基础设施,配备大规模GPU算力

JetBrains 内的 GitHub Copilot Agent Mode + MCP:从配置到实战

JetBrains 内的 GitHub Copilot Agent Mode + MCP:从配置到实战

1. 背景说明:Agent Mode 与 MCP 的意义 Agent Mode 是 GitHub Copilot 的新形态,它能理解自然语言指令,自动拆分任务,遍历项目文件,执行命令并修改代码,像一个“自主项目助手”一样工作。 Model Context Protocol (MCP) 是一套用于 Copilot 调用外部工具的协议标准,让 Agent Mode 能访问终端、读写文件、检查代码等能力。 JetBrains 自 2025 年 5 月起已提供 Agent Mode + MCP 公测支持。最新版的插件已经是正式的非Preview版本。 2. JetBrains 中如何启用 Agent Mode (1)

亲测Meta-Llama-3-8B-Instruct:8K上下文对话体验分享

亲测Meta-Llama-3-8B-Instruct:8K上下文对话体验分享 你有没有试过和一个模型聊着聊着,它突然忘了前面说了什么?或者刚聊到关键处,它就卡在“上一句我提到了什么”上?这次我用一张RTX 3060显卡,完整跑通了Meta-Llama-3-8B-Instruct——不是跑个demo,是真正在open-webui里连续对话40轮、处理2700+ token的长文档摘要、边写Python边解释逻辑、还顺手把一段中文技术文档翻译成地道英文。它没断片,没乱序,也没把“用户说的第三点”记成“第二点”。 这不是参数堆出来的幻觉,而是80亿参数在vLLM加速下给出的稳定输出。更关键的是:它真的能在单卡消费级显卡上跑起来,不靠云服务,不靠API调用,所有推理都在本地完成。 下面这篇分享,没有PPT式的技术罗列,只有我真实用下来的观察、踩过的坑、验证过的边界,以及那些“原来还能这样用”的小发现。 1. 为什么选它?一张3060就能跑的“轻量全能选手” 很多人看到“Llama 3”第一反应是:又一个大模型?但Llama-3-8B-Instruct的定位很特别——它不是冲着GPT

office里面你所在的区域不支持Copilot的解决方法

最近了一年office 365羊毛,想试用copilot的时候遇到这个问题: 梯子开了美国全局tun也没用,之后怀疑是缓存问题,因为一开始没开梯子导致加载了中国区的js文件,所以没法用 用微软官方网站上的方法试了下清缓存: 删除以下文件夹的内容 %LOCALAPPDATA%\Microsoft\Office\16.0\Wef\ 之后保持美国全局tun重启word即可: 如果还是不行,可以尝试office 365的网页版,也能用Copilot 参考:https://ZEEKLOG.fjh1997.top/posts/40329.html