QtCreator配置AI辅助编程插件github copilot保姆级教程

QtCreator配置AI辅助编程插件github copilot保姆级教程

文章目录

概要

在这里插入图片描述
Free版‌免费使用,每月限额 2000 次代码补全 + 50 次聊天交互‌集成于 VS Code,支持跨文件编辑、终端协助及自定义指令‌ ‌

Pro版‌‌个人用户‌:10 美元/月 或 100 美元/年‌ ‌特殊群体‌:学生/教师/热门开源维护者可免费使用 Pro 版‌


Business版‌19 美元/月/用户,按月计费‌面向组织或企业中的团队订阅‌ ‌

Enterprise版‌39 美元/月/用户,按月计费‌企业可按需为不同组织分配 Business 或 Enterprise 订阅‌

官方地址
GitHub Copilot主页
GitHub Copilot官方文档
环境要求
系统:Window11(我是Window11装的,其他系统不清楚)
Qt Creator:使用11+以上的版本,我使用的是Qt Creator 15.0.1
Qt和QtCreator是两个东西,Qt是库,QtCreator是编辑器,可以分开安装,我就是装的qt5.14.0配的4.11.0的Creator,然后重新单独安装了Qt Creator 15.0.1

在这里插入图片描述
资源地址
Qt Creator 15.0.1安装包
网盘地址
因为ZEEKLOG不设置积分,就得要求下载吗,更麻烦,所以设置了2积分,如果没积分,评论留言,我给单独发过去

配置流程

  • 安装Qt Creator 15.0.1
  • 下载安装node.js
  • 下载copilot.vim
  • 重启之后,打开【编辑】-【Preferences】,选择【Copilot】,在右侧勾选Enable Copilot、Auto request(勾选之后在编写代码的时候就可以自动进行提示了),然后分别配置Node.js和copilot.vim的language-server.js的路径;

打开Qt Creator,选择【帮助】【关于插件】,找见copilot,然后勾选上插件,点击确定,重启Qt Creator;

在这里插入图片描述
![(https://i-blog.ZEEKLOGimg.cn/direct/b5596e835aa146b18bbf1c309ff50581.png)

进入授权界面后点击【Authorize Github Copilot plugin】按键授权Qtcreator插件即可;

在这里插入图片描述

登录会让输入验证码,返回Qt Creator,找到下图所示的验证码输入即可;

在这里插入图片描述

配置完路径后【Sign in】就会按键就会亮起,我的已经登录完成了,登录完成就会显示登录的用户名,下边是没登录的样子,上边是完成之后的样子;

在这里插入图片描述
在这里插入图片描述

点击Free下边的Get started即可解决,此时返回qt应该就可以使用了。

在这里插入图片描述

返回qt可能会弹如下窗口,这个是需要我们去领取一下这个插件权限,跳转网页到GitHub Copilot主页
-

在这里插入图片描述

Read more

【Copilot配置】—— Copilot 设置全解析 + 最佳实践|解锁 AI 辅助开发效率天花板

【Copilot配置】—— Copilot 设置全解析 + 最佳实践|解锁 AI 辅助开发效率天花板

Copilot 设置全解析 + 最佳实践|解锁 AI 辅助开发效率天花板 使用 GitHub Copilot 有一段时间的开发者,大概率会有一个共同感受:默认设置能满足基础需求,但想要让它真正贴合自己的开发习惯、兼顾效率与安全,就必须深入挖掘其设置面板的细节。很多人忽略了 Copilot 丰富的可配置项,导致未能充分发挥它的辅助价值,甚至遇到安全隐患或体验卡顿等问题。 今天这篇博客,将完全贴合实际开发场景,先系统梳理 Copilot 核心设置模块的功能说明,再给出经过实测的最佳实践,无论是新手还是资深开发者,都能跟着配置出最适合自己的 Copilot 环境(本文基于 Copilot 最新版本,包含实验性功能的合理使用建议)。 一、先理清:Copilot 设置面板的核心模块划分 Copilot 的设置面板看似繁杂,但本质可分为 5 大核心模块,所有配置都围绕“效率、安全、个性化”三个核心目标展开,先记住这个划分,后续配置时不会混乱:

By Ne0inhk
共绩算力 RTX 5090 极速部署 Stable Diffusion WebUI:新手也能秒开 AI 绘图工作站

共绩算力 RTX 5090 极速部署 Stable Diffusion WebUI:新手也能秒开 AI 绘图工作站

还在为本地硬件不足跑不动 AI 绘图模型发愁?想快速拥有高性价比的 Stable Diffusion 绘图环境?今天给大家带来共绩算力 RTX 5090 部署 Stable Diffusion WebUI(增强版)的详细教程,全程零兼容冲突,从云主机配置到生成第一张 AI 画作仅需 30 分钟,步骤清晰可复现,无论是设计爱好者还是 AI 新手都能轻松上手! 目录 一、为什么选择共绩算力部署 Stable Diffusion? 二、环境准备:精准配置云主机 2.1 创建云主机实例 1.2 登录云主机终端 二、完整部署流程 2.1 环境清理与依赖安装 2.2 下载与配置Stable Diffusion WebUI

By Ne0inhk

llama.cpp量化模型部署实战:从模型转换到API服务

1. 为什么你需要关注llama.cpp:让大模型在普通电脑上跑起来 如果你对AI大模型感兴趣,肯定听说过动辄需要几十GB显存的“庞然大物”。想在自己的电脑上跑一个7B参数的模型,以前可能得配一张昂贵的专业显卡。但现在,情况不一样了。我今天要跟你聊的 llama.cpp,就是那个能让大模型“瘦身”并飞入寻常百姓家的神奇工具。 简单来说,llama.cpp是一个用C/C++编写的开源项目,它的核心目标只有一个:用最高效的方式,在消费级硬件(比如你的笔记本电脑CPU)上运行大型语言模型。它不像PyTorch那样是个庞大的深度学习框架,它更像一个“推理引擎”,专注于把训练好的模型,以最小的资源消耗跑起来。 我刚开始接触大模型部署时,也被各种复杂的依赖和巨大的资源需求劝退过。直到用了llama.cpp,我才发现,原来在我的MacBook Pro上,也能流畅地和Llama 2这样的模型对话。这背后的功臣,主要就是两点:纯C/C++实现带来的极致性能,以及模型量化技术带来的体积与速度革命。量化这个词听起来有点技术,你可以把它想象成给模型“压缩图片”

By Ne0inhk
昇腾NPU运行Llama模型全攻略:环境搭建、性能测试、问题解决一网打尽

昇腾NPU运行Llama模型全攻略:环境搭建、性能测试、问题解决一网打尽

背景 最近几年,AI 大模型火得一塌糊涂,特别是像 Llama 这样的开源模型,几乎成了每个技术团队都在讨论的热点。不过,这些"巨无霸"模型虽然能力超强,但对硬件的要求也高得吓人。这时候,华为的昇腾 NPU 就派上用场了。 说实话,昇腾 NPU 在 AI 计算这块确实有两把刷子。它专门为神经网络计算设计,不仅算力强劲,功耗控制得也不错,最关键的是灵活性很好,可以根据不同场景进行裁剪。所以,用它来跑大模型推理,理论上应该是个不错的选择。 为什么偏偏选了 Llama 来测试? 说到 Llama,这玩意儿现在可是开源界的"网红"。Meta 把它完全开源出来,社区生态搞得风生水起,各种优化和适配层出不穷。 其实选择 Llama 做测试,主要有这么几个考虑:

By Ne0inhk