QtCreator配置AI辅助编程插件github copilot保姆级教程

QtCreator配置AI辅助编程插件github copilot保姆级教程

文章目录

概要

在这里插入图片描述
Free版‌免费使用,每月限额 2000 次代码补全 + 50 次聊天交互‌集成于 VS Code,支持跨文件编辑、终端协助及自定义指令‌ ‌

Pro版‌‌个人用户‌:10 美元/月 或 100 美元/年‌ ‌特殊群体‌:学生/教师/热门开源维护者可免费使用 Pro 版‌


Business版‌19 美元/月/用户,按月计费‌面向组织或企业中的团队订阅‌ ‌

Enterprise版‌39 美元/月/用户,按月计费‌企业可按需为不同组织分配 Business 或 Enterprise 订阅‌

官方地址
GitHub Copilot主页
GitHub Copilot官方文档
环境要求
系统:Window11(我是Window11装的,其他系统不清楚)
Qt Creator:使用11+以上的版本,我使用的是Qt Creator 15.0.1
Qt和QtCreator是两个东西,Qt是库,QtCreator是编辑器,可以分开安装,我就是装的qt5.14.0配的4.11.0的Creator,然后重新单独安装了Qt Creator 15.0.1

在这里插入图片描述
资源地址
Qt Creator 15.0.1安装包
网盘地址
因为ZEEKLOG不设置积分,就得要求下载吗,更麻烦,所以设置了2积分,如果没积分,评论留言,我给单独发过去

配置流程

  • 安装Qt Creator 15.0.1
  • 下载安装node.js
  • 下载copilot.vim
  • 重启之后,打开【编辑】-【Preferences】,选择【Copilot】,在右侧勾选Enable Copilot、Auto request(勾选之后在编写代码的时候就可以自动进行提示了),然后分别配置Node.js和copilot.vim的language-server.js的路径;

打开Qt Creator,选择【帮助】【关于插件】,找见copilot,然后勾选上插件,点击确定,重启Qt Creator;

在这里插入图片描述
![(https://i-blog.ZEEKLOGimg.cn/direct/b5596e835aa146b18bbf1c309ff50581.png)

进入授权界面后点击【Authorize Github Copilot plugin】按键授权Qtcreator插件即可;

在这里插入图片描述

登录会让输入验证码,返回Qt Creator,找到下图所示的验证码输入即可;

在这里插入图片描述

配置完路径后【Sign in】就会按键就会亮起,我的已经登录完成了,登录完成就会显示登录的用户名,下边是没登录的样子,上边是完成之后的样子;

在这里插入图片描述
在这里插入图片描述

点击Free下边的Get started即可解决,此时返回qt应该就可以使用了。

在这里插入图片描述

返回qt可能会弹如下窗口,这个是需要我们去领取一下这个插件权限,跳转网页到GitHub Copilot主页
-

在这里插入图片描述

Read more

小白也能玩转AI写作:Qwen3-4B-Instruct保姆级教程

小白也能玩转AI写作:Qwen3-4B-Instruct保姆级教程 1. 项目背景与核心价值 在人工智能快速发展的今天,大语言模型已经从科研实验室走向大众应用。对于非技术背景的用户而言,如何低门槛地使用高性能AI模型进行内容创作成为了一个关键问题。本文将围绕 Qwen3-4B-Instruct 模型展开,详细介绍其能力特点、部署方式和实际应用场景。 该模型是阿里云通义千问系列中的一款高性能指令微调版本,参数量达40亿(4B),相较于小型模型(如0.5B)在逻辑推理、长文本生成和代码理解方面有显著提升。更重要的是,它支持在纯CPU环境下运行,极大降低了使用门槛,使得普通笔记本电脑也能成为“AI写作工作站”。 1.1 为什么选择 Qwen3-4B-Instruct? 以下是这款模型特别适合初学者和内容创作者的核心优势: * 高智商表现:具备较强的上下文理解和多轮对话能力,能完成小说撰写、公文写作、邮件润色等复杂任务。 * 无需GPU:通过 low_cpu_mem_usage 技术优化,可在内存充足的CPU设备上稳定加载,避免昂贵硬件投入。 * 集成WebUI:提供图形化

Pixel Fashion Atelier部署教程:Stable Diffusion像素时装一键锻造实战

Pixel Fashion Atelier部署教程:Stable Diffusion像素时装一键锻造实战 1. 项目介绍 Pixel Fashion Atelier是一款基于Stable Diffusion与Anything-v5模型的像素风格时装生成工具。它将AI图像生成与复古日系RPG界面设计完美结合,为用户带来独特的创作体验。 核心特点: * 专为像素艺术优化的生成模型 * 直观的RPG风格操作界面 * 预设皮革时装风格LoRA模型 * 一键式生成流程 2. 环境准备 2.1 硬件要求 * 显卡:NVIDIA GPU,显存≥8GB(推荐RTX 3060及以上) * 内存:16GB及以上 * 存储空间:至少20GB可用空间 2.2 软件依赖 * 操作系统:Windows 10/11或Linux(Ubuntu 20.04+) * Python:3.8-3.10版本 * CUDA:11.

LLaMA-Factory合并LoRA适配器完整指南

LLaMA-Factory 合并 LoRA 适配器完整指南 在大模型落地的实战中,一个常见的痛点是:明明只微调了少量参数,部署时却还得背负整个基础模型 + LoRA 插件的双重重担。启动慢、依赖多、运维复杂——这些问题让原本轻量高效的 PEFT 方法显得有些“名不副实”。 而真正的生产级解决方案,应该是把训练成果固化下来:将 LoRA 的增量更新永久融合进原始模型,生成一个独立、自包含、开箱即用的新模型。这不仅是工程上的简化,更是从实验走向服务的关键一步。 LLaMA-Factory 提供了一条极为简洁的路径来实现这一目标——通过一条 export 命令和一个 YAML 配置文件,就能完成跨架构、跨模态、安全可靠的 LoRA 合并。本文将带你深入这个过程的每一个细节,避开常见陷阱,并分享一些提升效率的实用技巧。 核心命令:一键导出合并模型 整个流程的核心就是这条命令: llamafactory-cli export examples/merge_lora/

从Alpaca到ShareGPT:Llama Factory数据格式全解析

从Alpaca到ShareGPT:Llama Factory数据格式全解析 作为一名数据工程师,在准备大模型微调数据时,你是否经常纠结于选择哪种数据格式?Alpaca、ShareGPT、Vicuna...各种格式的文档分散在不同地方,手动转换又容易出错。本文将带你全面解析Llama Factory支持的数据格式,帮助你快速测试不同格式的效果。 这类任务通常需要GPU环境支持,目前ZEEKLOG算力平台提供了包含Llama Factory镜像的预置环境,可快速部署验证。下面我们就从实际应用场景出发,详细介绍如何高效使用这些数据格式。 Llama Factory数据格式概述 Llama Factory作为大模型微调的热门框架,支持多种主流数据格式,主要分为两大类: * 指令监督微调格式:以Alpaca为代表,适合单轮问答任务 * 多轮对话格式:以ShareGPT为代表,适合聊天场景 每种格式都有特定的字段要求,理解这些差异是成功微调的第一步。 Alpaca格式详解 Alpaca格式是单轮指令微调的标准格式,包含三个核心字段: { "instruction": "解释