QtCreator配置AI辅助编程插件github copilot保姆级教程

QtCreator配置AI辅助编程插件github copilot保姆级教程

文章目录

概要

在这里插入图片描述
Free版‌免费使用,每月限额 2000 次代码补全 + 50 次聊天交互‌集成于 VS Code,支持跨文件编辑、终端协助及自定义指令‌ ‌

Pro版‌‌个人用户‌:10 美元/月 或 100 美元/年‌ ‌特殊群体‌:学生/教师/热门开源维护者可免费使用 Pro 版‌


Business版‌19 美元/月/用户,按月计费‌面向组织或企业中的团队订阅‌ ‌

Enterprise版‌39 美元/月/用户,按月计费‌企业可按需为不同组织分配 Business 或 Enterprise 订阅‌

官方地址
GitHub Copilot主页
GitHub Copilot官方文档
环境要求
系统:Window11(我是Window11装的,其他系统不清楚)
Qt Creator:使用11+以上的版本,我使用的是Qt Creator 15.0.1
Qt和QtCreator是两个东西,Qt是库,QtCreator是编辑器,可以分开安装,我就是装的qt5.14.0配的4.11.0的Creator,然后重新单独安装了Qt Creator 15.0.1

在这里插入图片描述
资源地址
Qt Creator 15.0.1安装包
网盘地址
因为ZEEKLOG不设置积分,就得要求下载吗,更麻烦,所以设置了2积分,如果没积分,评论留言,我给单独发过去

配置流程

  • 安装Qt Creator 15.0.1
  • 下载安装node.js
  • 下载copilot.vim
  • 重启之后,打开【编辑】-【Preferences】,选择【Copilot】,在右侧勾选Enable Copilot、Auto request(勾选之后在编写代码的时候就可以自动进行提示了),然后分别配置Node.js和copilot.vim的language-server.js的路径;

打开Qt Creator,选择【帮助】【关于插件】,找见copilot,然后勾选上插件,点击确定,重启Qt Creator;

在这里插入图片描述
![(https://i-blog.ZEEKLOGimg.cn/direct/b5596e835aa146b18bbf1c309ff50581.png)

进入授权界面后点击【Authorize Github Copilot plugin】按键授权Qtcreator插件即可;

在这里插入图片描述

登录会让输入验证码,返回Qt Creator,找到下图所示的验证码输入即可;

在这里插入图片描述

配置完路径后【Sign in】就会按键就会亮起,我的已经登录完成了,登录完成就会显示登录的用户名,下边是没登录的样子,上边是完成之后的样子;

在这里插入图片描述
在这里插入图片描述

点击Free下边的Get started即可解决,此时返回qt应该就可以使用了。

在这里插入图片描述

返回qt可能会弹如下窗口,这个是需要我们去领取一下这个插件权限,跳转网页到GitHub Copilot主页
-

在这里插入图片描述

Read more

人工智能:多模态大模型原理与跨模态应用实战

人工智能:多模态大模型原理与跨模态应用实战

人工智能:多模态大模型原理与跨模态应用实战 1.1 本章学习目标与重点 💡 学习目标:掌握多模态大模型的核心原理、跨模态特征融合方法,以及基于多模态模型的图文生成与理解任务实战流程。 💡 学习重点:理解多模态模型的架构设计,学会使用 Hugging Face 生态工具调用 CLIP 与 BLIP-2 模型,完成图文检索与图像描述生成任务。 1.2 多模态大模型的核心概念与发展背景 1.2.1 什么是多模态大模型 💡 多模态大模型是指能够同时处理文本、图像、音频、视频等多种不同类型数据的人工智能模型。它打破了传统单模态模型的信息壁垒,实现了跨模态的理解与生成。 多模态大模型的核心能力体现在两个方面: * 跨模态理解:实现不同模态数据之间的关联分析,例如根据文本描述查找对应图像、根据图像内容生成文字摘要。 * 跨模态生成:以一种模态数据为输入,生成另一种模态的数据,例如文本生成图像、图像生成文本、语音生成视频等。 与单模态大模型相比,多模态大模型更贴近人类的认知方式。人类在认识世界的过程中,本身就是通过视觉、听觉、语言等多种感官渠道接收和处理信息的。

OpenClaw + MCP:让 AI 助手连接任意工具的终极方案

MCP(Model Context Protocol)是 2026 年最火的 AI 协议,而 OpenClaw 作为开源 AI 助手框架,已经率先支持 MCP 集成。本文将带你深入了解如何用 OpenClaw + MCP 打造一个能连接任意工具的超级 AI 助手。 什么是 MCP? MCP(Model Context Protocol)是一个开源协议标准,用于连接 AI 应用和外部系统。 简单理解:MCP 就像是 AI 的 USB-C 接口。就像 USB-C 让你的电脑能连接显示器、硬盘、手机等各种设备一样,MCP 让你的 AI 助手能连接数据库、文件系统、

Stable-Diffusion-v1-5-archive企业AI治理:生成内容安全过滤+敏感词拦截中间件

Stable Diffusion v1.5 Archive企业AI治理:生成内容安全过滤与敏感词拦截中间件实践 1. 引言:当创意生成遇上企业合规 想象一下,你是一家电商公司的设计主管,团队正在使用AI图像生成工具批量制作商品海报。突然,客服收到投诉:一张新上架的儿童玩具海报,背景里隐约出现了不适宜的元素。你紧急排查,发现是设计师在输入提示词时,无意中包含了某个具有歧义的词汇,导致AI生成了意料之外的内容。 这不是科幻场景,而是许多企业引入AI创作工具后真实面临的挑战。Stable Diffusion v1.5 Archive作为经典的文生图模型,以其出色的通用图像生成能力和丰富的风格化表现,在企业创意生产中扮演着重要角色。但它的“自由创作”特性,也带来了内容安全的风险。 本文将带你深入探讨,如何为Stable Diffusion v1.5 Archive构建一套企业级的AI治理方案——通过生成内容安全过滤与敏感词拦截中间件,在释放创意生产力的同时,牢牢守住合规底线。无论你是技术负责人、安全工程师还是业务管理者,都能从中找到可落地的解决方案。 2. 为什么企业需要AI生成

Whisper语音识别教程:如何实现实时麦克风录音转文字

Whisper语音识别教程:如何实现实时麦克风录音转文字 1. 引言 随着人工智能技术的不断演进,语音识别已成为人机交互的重要入口。OpenAI发布的Whisper模型凭借其强大的多语言支持和高精度转录能力,在语音处理领域迅速成为主流选择。本文将围绕基于 Whisper Large v3 模型构建的实时语音识别Web服务——“Whisper语音识别-多语言-large-v3语音识别模型 二次开发构建by113小贝”,详细介绍如何从零搭建一个支持99种语言自动检测与转录的实时麦克风录音转文字系统。 该系统不仅支持上传音频文件进行离线转录,更关键的是实现了浏览器端麦克风实时录音+GPU加速推理的完整链路,适用于会议记录、跨语言交流、内容创作等多种场景。通过本教程,你将掌握环境配置、代码实现、性能优化及常见问题排查等核心技能,快速部署属于自己的高性能语音识别服务。 2. 技术架构与核心组件 2.1 整体架构设计 本系统采用轻量级Web服务架构,前端由Gradio提供用户界面,后端集成PyTorch加载Whisper模型并执行GPU推理,FFmpeg负责音频预处理,整体流程如下