QtCreator接入外部AI大模型

文章目录

一、概要

本篇文章主要通过让QtCreator接入外部AI插件,实现在QtCretor里调用AI模型完成代码自动补全(Code Completion)和聊天助手(Chat Assistant)的目的。下面是需要操作的工具列表。
Qt版本:Qt5.14.2(自带QtCreator4.11.1,但是这里不用它)
QtCreator版本:QtCreator17.0.0(独立安装程序)
AI插件:QodeAssist项目文章用到的插件release版本

二、安装Qt5.14.2,配置高版本QtCreator

访问: Qt5.14.2使用高版本QtCreator

三、下载AI插件

访问:QodeAssist Releases可以直接下载最新版本的插件,记的选择和自己安装的QtCreator一致的版本,这里选择QodeAssist-v0.6.0-QtC17.0.0-Windows-x64.7z

在这里插入图片描述


下载解压后,里面会有按照QtCreator插件路径创建的lib文件夹,把它放到安装QtCreator17时所选择的文件夹下,一般是C:\Qt\qtcreator-17.0.0

四、配置插件

4.1、AI大模型设置

前面几步操作完成后,打开QtCreator17.0.0=>编辑=>Preferences,找到QodeAssist,如下图配置。配置后在Provider Settings一栏中填上对应模型的API Key即可,非常简单。大家可以根据自己的需求和模型自定义。

在这里插入图片描述

4.2、自动补全配置

打开Code Completion选项,如下图:

在这里插入图片描述


在这里插入图片描述

QodeAssist的自动补全配置分为以下几个主要类别(按界面布局排布),附上个人建议供参考:

自动补全基础设置
  • Enable Auto Complete (autoCompletion): 启用或禁用自动补全功能的主开关
  • Enable Multiline Completion (multiLineCompletion): 允许生成跨多行的代码补全建议【建议】
  • Enable stream option (stream): 启用流式响应,让补全结果逐步显示【建议】
  • Enable smart process text from instruct model (smartProcessInstuctText): 智能处理指令模型的文本输出,如果不设置返回结果大概率会以注释开头。【建议】
  • AI suggestion triggers after typing (autoCompletionCharThreshold): 设置触发AI建议所需的字符数量(0-10个字符)
  • character(s) within(ms) (autoCompletionTypingInterval): 设置字符阈值必须在多长时间窗口内满足(500-5000毫秒)
  • with delay(ms) (startSuggestionTimer): 设置建议显示的延迟时间(10-10000毫秒)
  • Show progress indicator during code completion: 在代码补全过程中显示进度指示器
  • Include context from open files: 在补全时包含打开文件的上下文【不建议】
模型参数设置

基础参数:

  • Temperature: 控制生成文本的随机性(0.0-2.0,默认0.2)
  • Max Tokens: 设置生成的最大token数量(-1到900000,默认100)

高级参数:

  • Top P: 核采样参数,控制候选词汇的累积概率(0.0-1.0)
  • Top K: 限制候选词汇数量(1-1000)
  • Presence Penalty: 存在惩罚,减少重复内容(-2.0到2.0)
  • Frequency Penalty: 频率惩罚,进一步控制重复(-2.0到2.0)
上下文设置
  • Read Full File: 读取完整文件内容作为上下文【不建议】
  • Read Strings Before Cursor: 设置光标前读取的行数(0-10000行,默认50行)
  • Read Strings After Cursor: 设置光标后读取的行数(0-10000行,默认30行)
提示词设置

这项设置取决你使用的模型是否为FIM模型。

  • Use System Prompt: 启用系统提示词
  • System Prompt: 为FIM模型配置的系统提示词
  • Use special system prompt and user message for non FIM models: 为非FIM模型使用特殊的提示词模板
  • Max Changes Cache Size: 项目变更缓存的最大大小(2-1000,默认10)【不建议】
  • Additional Programming Languages: 添加自定义编程语言支持
Quick Refactor Settings(快速重构设置)

Quick Refactor Settings是专门为快速重构功能配置的设置组,包含以下选项:

  • Include context from open files in quick refactor (useOpenFilesInQuickRefactor): 在快速重构时包含打开文件的上下文信息
  • Quick Refactor System Prompt (quickRefactorSystemPrompt): 专门为快速重构功能配置的系统提示词,默认内容为专业的C++、Qt和QML代码补全助手提示
Ollama Settings(Ollama设置)

Ollama Settings是专门为Ollama提供商配置的设置组,包含以下选项:

  • Livetime (ollamaLivetime): 控制Ollama在完成请求后保持活跃的时间(以分钟为单位),设置为-1可禁用此功能,默认值为"5m"
  • Context Window (contextWindow): 设置Ollama的上下文窗口大小,范围为-1到10000,默认值为2048

4.3、聊天助手配置

打开Chat Assistant设置页面,如下图:

在这里插入图片描述

QodeAssist的聊天助手配置分为以下几个主要类别(按界面布局排布):

Chat Settings(聊天设置)
  • Chat history token limit (chatTokensThreshold): 聊天历史记录的token限制,当超过此限制时会移除最旧的消息,范围1-99999999,默认值20000
  • Sync open files with assistant by default (linkOpenFiles): 默认情况下与助手同步所有打开的文件,默认值false【不建议】
  • Enable stream option (stream): 启用流式响应选项,让回复逐步显示,默认值true
  • Enable autosave when message received (autosave): 收到消息时启用自动保存功能,默认值true
General Parameters(基础参数)
  • Temperature: 控制生成文本的随机性和创造性,范围0.0-2.0,默认值0.5
  • Max Tokens: 设置生成响应的最大token数量,范围-1到10000,默认值2000
Advanced Parameters(高级参数)
  • Top P: 核采样参数,控制候选词汇的累积概率,范围0.0-1.0,默认值0.9,需要先启用才能使用
  • Top K: 限制候选词汇数量,范围1-1000,默认值50,需要先启用才能使用
  • Presence Penalty: 存在惩罚参数,减少重复内容的生成,范围-2.0到2.0,默认值0.0
  • Frequency Penalty: 频率惩罚参数,进一步控制重复内容,范围-2.0到2.0,默认值0.0

Context Settings(上下文设置)

  • Use System Prompt: 启用系统提示词功能,默认值true
  • System Prompt: 配置聊天助手的系统提示词,默认为专业的C++、Qt和QML开发AI助手提示

Ollama Settings(Ollama设置)

  • Livetime: 控制Ollama在完成请求后保持活跃的时间(分钟),设置为-1可禁用,默认值"5m"
  • Context Window: 设置Ollama的上下文窗口大小,范围-1到10000,默认值2048
Chat Settings(聊天设置)
  • Text Font: 设置聊天界面文本的字体家族,从系统可用字体中选择,默认为系统字体
  • Text Font Size: 设置文本字体大小,默认为系统字体大小
  • Code Font: 设置代码块的字体家族,默认为等宽字体
  • Code Font Size: 设置代码字体大小,默认为系统字体大小
  • Text Format: 设置文本格式显示方式,可选择Markdown、HTML或纯文本,默认为Markdown

结尾

根据上述提示设置后即可使用,如果有开启日志选项,可以在QtCreator底部概要信息内查看;如果想使用自动补全,又没有开启自动补全设置,可以通过快捷键Ctrl Alt Q或者右键菜单开启;如果想使用聊天助手,在底部QodeAssist Chat查看,如下图。

在这里插入图片描述


结束。

Read more

2026年高校AIGC检测新规解读:AI率多少算合格?

2026年高校AIGC检测新规解读:AI率多少算合格?

2026年高校AIGC检测新规解读:AI率多少算合格? 从2024年知网正式上线AIGC检测功能开始,短短两年时间,"AI率"已经从一个新鲜名词变成了每个毕业生必须面对的硬性指标。2026年,各高校的AIGC检测政策进一步收紧和细化,要求也越来越明确。 那么,2026年AI率到底多少才算合格?不同学校的标准差别大吗?不合格会面临什么后果?本文将对这些问题进行深入解读。 一、AIGC检测已成为毕业论文审查的标配 回顾AIGC检测在高校中的普及历程,可以用"指数级扩散"来形容: * 2024年:知网上线AIGC检测功能,少数985/211院校开始试点,大部分学校处于观望状态 * 2025年:超过60%的本科院校和80%的研究生培养单位将AIGC检测纳入论文审查流程 * 2026年:AIGC检测基本实现全覆盖,包括专科院校在内的绝大部分高等教育机构都已建立相关制度 这一进程的背后,是教育部在2025年初发布的《关于加强高等学校学位论文学术诚信管理的指导意见》,其中明确提到"鼓励各高校引入人工智能生成内容检测机制,将AIGC检测作为论文质量保障的重要环节"。 虽然教育部没

【PX4+QGroundControl+MAVROS+Gazebo】PX4控制在Gazebo中控制自己的无人机

目录 前言 一、PX4、MAVROS、QGroundControl之间的关系 1.1 Gazebo与PX4通信 1.2 PX4与QGroundControl通信 1.3 总结 二、实现过程【以阿木实验室P230为例】 2.1 仿真环境 2.2 模型建立 2.3 建立gazebo和MAVROS之间的连接 2.4 建立MAVROS和PX4之间的连接 2.5 验证实验结果 三、一个失败的地方 总结 前言 笔者在准备用阿木实验室-P230无人机仿真的时候,发现官方给的该无人机仿真的代码依赖于该公司的Prometheus、Prometheus-PX4以及QGroundControl软件。但是笔者日后想把自己的项目上传到Github上,如果把整个阿木实验室的PX4上传上去显得不现实,且也占很大存储。因此,笔者会从小白的角度【因为笔者也是Green Bird】,介绍将自己的无人机连接PX4的办法。以下内容仅供参考,若有误,

宇树VR遥操与IL——从遥操程序xr_teleoperate到unitree_IL_lerobot:如何基于G1进行manipulation开发

宇树VR遥操与IL——从遥操程序xr_teleoperate到unitree_IL_lerobot:如何基于G1进行manipulation开发

前言 如之前的文章所述,我司「七月在线」正在并行开发多个订单,目前正在全力做好每一个订单,因为保密协议的原因,暂时没法拿出太多细节出来分享 但可以持续解读我们所创新改造或二次开发的对象,即解读paper和开源库「当然 有些paper/库还没开始用,但也可以提前解读,作为关注了解」 而对于我司人形开发的订单,截止到25年4月,背后的机器人多半基于这几家:宇树、智元、傅利叶、乐聚「之所以用的这几家,一半因为我和这些公司熟,一半因为客户已有其中某一家或某几家的本体 需在其基础上做定制开发,如其它厂商看到 有兴趣合作,欢迎私我,比如星动纪元、星海图、众擎等等」 * 通过此文《Fourier-Lerobot——把斯坦福人形动作策略iDP3封装进了Lerobot(含我司七月的idp3落地实践)》可知,傅利叶 把idp3 装进了lerobot * 类似的,宇树 通过此开源库「unitree_IL_lerobot」,也把lerobot 集成了下 该库包含了π0策略 且无论咱们是用傅利叶集成的lerobot—

论文阅读 | MiniCPM-o | RLAIF-V开源AI反馈助力模型可信度超越GPT-4V

论文阅读 | MiniCPM-o | RLAIF-V开源AI反馈助力模型可信度超越GPT-4V

论文地址:https://arxiv.org/pdf/2405.17220 发布时间:2024年5月27日 =》2025 年 10 月 29 日 v3版本 论文主要由豆包AI翻译 论文总结 核心目标 解决现有多模态大语言模型的幻觉问题,突破传统RLHF依赖人工标注、现有RLAIF依赖专有模型的局限,通过全开源范式构建高质量反馈,实现模型可信度与人类偏好的对齐。 核心创新 1. 去混淆响应生成:相同条件下多轮采样解码,消除文本风格干扰,凸显可信度真实差异; 2. 分而治之反馈标注:将响应拆解为原子声明,转换为极性问题评估,降低开源模型标注难度; 3. 迭代反馈学习:动态更新反馈分布,解决DPO训练中的分布偏移问题; 4. 推理自反馈机制:利用DPO对齐模型的奖励分数,结合长度归一化策略,优化推理阶段性能。 关键结果 1. 幻觉抑制显著:RLAIF-V 7B将物体幻觉率降低80.7%