QtCreator接入外部AI大模型

文章目录

一、概要

本篇文章主要通过让QtCreator接入外部AI插件,实现在QtCretor里调用AI模型完成代码自动补全(Code Completion)和聊天助手(Chat Assistant)的目的。下面是需要操作的工具列表。
Qt版本:Qt5.14.2(自带QtCreator4.11.1,但是这里不用它)
QtCreator版本:QtCreator17.0.0(独立安装程序)
AI插件:QodeAssist项目文章用到的插件release版本

二、安装Qt5.14.2,配置高版本QtCreator

访问: Qt5.14.2使用高版本QtCreator

三、下载AI插件

访问:QodeAssist Releases可以直接下载最新版本的插件,记的选择和自己安装的QtCreator一致的版本,这里选择QodeAssist-v0.6.0-QtC17.0.0-Windows-x64.7z

在这里插入图片描述


下载解压后,里面会有按照QtCreator插件路径创建的lib文件夹,把它放到安装QtCreator17时所选择的文件夹下,一般是C:\Qt\qtcreator-17.0.0

四、配置插件

4.1、AI大模型设置

前面几步操作完成后,打开QtCreator17.0.0=>编辑=>Preferences,找到QodeAssist,如下图配置。配置后在Provider Settings一栏中填上对应模型的API Key即可,非常简单。大家可以根据自己的需求和模型自定义。

在这里插入图片描述

4.2、自动补全配置

打开Code Completion选项,如下图:

在这里插入图片描述


在这里插入图片描述

QodeAssist的自动补全配置分为以下几个主要类别(按界面布局排布),附上个人建议供参考:

自动补全基础设置
  • Enable Auto Complete (autoCompletion): 启用或禁用自动补全功能的主开关
  • Enable Multiline Completion (multiLineCompletion): 允许生成跨多行的代码补全建议【建议】
  • Enable stream option (stream): 启用流式响应,让补全结果逐步显示【建议】
  • Enable smart process text from instruct model (smartProcessInstuctText): 智能处理指令模型的文本输出,如果不设置返回结果大概率会以注释开头。【建议】
  • AI suggestion triggers after typing (autoCompletionCharThreshold): 设置触发AI建议所需的字符数量(0-10个字符)
  • character(s) within(ms) (autoCompletionTypingInterval): 设置字符阈值必须在多长时间窗口内满足(500-5000毫秒)
  • with delay(ms) (startSuggestionTimer): 设置建议显示的延迟时间(10-10000毫秒)
  • Show progress indicator during code completion: 在代码补全过程中显示进度指示器
  • Include context from open files: 在补全时包含打开文件的上下文【不建议】
模型参数设置

基础参数:

  • Temperature: 控制生成文本的随机性(0.0-2.0,默认0.2)
  • Max Tokens: 设置生成的最大token数量(-1到900000,默认100)

高级参数:

  • Top P: 核采样参数,控制候选词汇的累积概率(0.0-1.0)
  • Top K: 限制候选词汇数量(1-1000)
  • Presence Penalty: 存在惩罚,减少重复内容(-2.0到2.0)
  • Frequency Penalty: 频率惩罚,进一步控制重复(-2.0到2.0)
上下文设置
  • Read Full File: 读取完整文件内容作为上下文【不建议】
  • Read Strings Before Cursor: 设置光标前读取的行数(0-10000行,默认50行)
  • Read Strings After Cursor: 设置光标后读取的行数(0-10000行,默认30行)
提示词设置

这项设置取决你使用的模型是否为FIM模型。

  • Use System Prompt: 启用系统提示词
  • System Prompt: 为FIM模型配置的系统提示词
  • Use special system prompt and user message for non FIM models: 为非FIM模型使用特殊的提示词模板
  • Max Changes Cache Size: 项目变更缓存的最大大小(2-1000,默认10)【不建议】
  • Additional Programming Languages: 添加自定义编程语言支持
Quick Refactor Settings(快速重构设置)

Quick Refactor Settings是专门为快速重构功能配置的设置组,包含以下选项:

  • Include context from open files in quick refactor (useOpenFilesInQuickRefactor): 在快速重构时包含打开文件的上下文信息
  • Quick Refactor System Prompt (quickRefactorSystemPrompt): 专门为快速重构功能配置的系统提示词,默认内容为专业的C++、Qt和QML代码补全助手提示
Ollama Settings(Ollama设置)

Ollama Settings是专门为Ollama提供商配置的设置组,包含以下选项:

  • Livetime (ollamaLivetime): 控制Ollama在完成请求后保持活跃的时间(以分钟为单位),设置为-1可禁用此功能,默认值为"5m"
  • Context Window (contextWindow): 设置Ollama的上下文窗口大小,范围为-1到10000,默认值为2048

4.3、聊天助手配置

打开Chat Assistant设置页面,如下图:

在这里插入图片描述

QodeAssist的聊天助手配置分为以下几个主要类别(按界面布局排布):

Chat Settings(聊天设置)
  • Chat history token limit (chatTokensThreshold): 聊天历史记录的token限制,当超过此限制时会移除最旧的消息,范围1-99999999,默认值20000
  • Sync open files with assistant by default (linkOpenFiles): 默认情况下与助手同步所有打开的文件,默认值false【不建议】
  • Enable stream option (stream): 启用流式响应选项,让回复逐步显示,默认值true
  • Enable autosave when message received (autosave): 收到消息时启用自动保存功能,默认值true
General Parameters(基础参数)
  • Temperature: 控制生成文本的随机性和创造性,范围0.0-2.0,默认值0.5
  • Max Tokens: 设置生成响应的最大token数量,范围-1到10000,默认值2000
Advanced Parameters(高级参数)
  • Top P: 核采样参数,控制候选词汇的累积概率,范围0.0-1.0,默认值0.9,需要先启用才能使用
  • Top K: 限制候选词汇数量,范围1-1000,默认值50,需要先启用才能使用
  • Presence Penalty: 存在惩罚参数,减少重复内容的生成,范围-2.0到2.0,默认值0.0
  • Frequency Penalty: 频率惩罚参数,进一步控制重复内容,范围-2.0到2.0,默认值0.0

Context Settings(上下文设置)

  • Use System Prompt: 启用系统提示词功能,默认值true
  • System Prompt: 配置聊天助手的系统提示词,默认为专业的C++、Qt和QML开发AI助手提示

Ollama Settings(Ollama设置)

  • Livetime: 控制Ollama在完成请求后保持活跃的时间(分钟),设置为-1可禁用,默认值"5m"
  • Context Window: 设置Ollama的上下文窗口大小,范围-1到10000,默认值2048
Chat Settings(聊天设置)
  • Text Font: 设置聊天界面文本的字体家族,从系统可用字体中选择,默认为系统字体
  • Text Font Size: 设置文本字体大小,默认为系统字体大小
  • Code Font: 设置代码块的字体家族,默认为等宽字体
  • Code Font Size: 设置代码字体大小,默认为系统字体大小
  • Text Format: 设置文本格式显示方式,可选择Markdown、HTML或纯文本,默认为Markdown

结尾

根据上述提示设置后即可使用,如果有开启日志选项,可以在QtCreator底部概要信息内查看;如果想使用自动补全,又没有开启自动补全设置,可以通过快捷键Ctrl Alt Q或者右键菜单开启;如果想使用聊天助手,在底部QodeAssist Chat查看,如下图。

在这里插入图片描述


结束。

Read more

2026年最新AI大模型学习路线(超详细,小白/程序员必收藏)从入门到精通!

2026年最新AI大模型学习路线(超详细,小白/程序员必收藏)从入门到精通!

当下AI大模型在人工智能领域的热度持续攀升,已然成为技术圈的核心风口,不仅吸引了大量行业从业者深耕,更有无数编程小白、转行人士想要入门掘金。但很多人面对繁杂的技术资料无从下手,不知道该从哪里开始、按什么顺序学习,踩了不少弯路。 今天就给大家整理了一份2026年最新、最系统的AI大模型学习路线,从0基础入门到精通实战,配套全套学习资源,不管你是纯小白还是有一定基础的程序员,跟着学就能少走弯路、快速上手,建议收藏备用,避免后续找不到! 1、大模型学习路线 2、从0到进阶大模型学习视频教程 从入门到进阶这里都有,跟着老师学习事半功倍。 3、 入门必看大模型学习书籍&文档.pdf(书面上的技术书籍确实太多了,这些是我精选出来的,还有很多不在图里) 4、 AI大模型最新行业报告 2026最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。 5、面试试题/经验 【大厂 AI 岗位面经分享(107 道)】 【AI

By Ne0inhk
医疗编程AI技能树与培训技能树报告(国内外一流大学医疗AI相关专业分析2025版,上)

医疗编程AI技能树与培训技能树报告(国内外一流大学医疗AI相关专业分析2025版,上)

引言:医疗AI编程的时代背景与技能体系框架 全球医疗AI市场正以爆发式速度增长,预计2025年市场规模将达到1100亿美元,年复合增长率(CAGR)高达38%[1]。这一增长背后是AI技术在临床场景的深度渗透:AI辅助肺结节检测敏感度已突破95%,某知名医院利用大型语言模型(LLM)开发的智能诊断系统将误诊率降低15%,瑞金医院通过AI技术使病理诊断效率提升百倍[2][3][4]。当手术机

By Ne0inhk
【保姆级教程】小白也能搞定!手把手教你部署AI小说生成器

【保姆级教程】小白也能搞定!手把手教你部署AI小说生成器

目录 一、 磨刀不误砍柴工:环境准备 二、 第一次安装:给代码安个家 第一步:把项目“搬”回家 第二步:造一个专属“房间” 第三步:安装依赖 第四步:点火启动 三、 关机重启后:如何再次开启? 四、 关键一步:配置“大脑”(API接口) 五、开始你的创作 六、写在最后:为什么推荐用蓝耘做“大脑”? 在这个AI辅助创作爆发的时代,拥有一款属于自己的本地AI写作工具,无疑是许多文字工作者的梦想。最近拿到一份AI小说生成器的部署文档,虽然功能强大,但对于非技术出身的朋友来说,那些代码和命令行多少有些“劝退”。 别担心,今天我们就把这份“天书”翻译成“人话”,手把手带你从零开始,搭建属于你的AI创作助手。无论你是第一次安装,还是关机后不知道怎么重启,这篇教程都能帮你搞定。

By Ne0inhk
【AI辅助编程】【Claude Code】----秒杀 Cursor!Claude Code 保姆级教程,从安装到实战全过程,一篇文章给你透

【AI辅助编程】【Claude Code】----秒杀 Cursor!Claude Code 保姆级教程,从安装到实战全过程,一篇文章给你透

文章目录 * 前言 * 一、基础概念解析, * 1.1、什么是Claude Code? * 1.2、Claude Code能干嘛? * 二、安装 Claude Code * 2.1、(方式一)基于node.js环境 * 2.2、(方式二)不依赖node.js环境,原生版(推荐) * 三、配置 * 3.1配置大模型端点和密钥 * 1.注册账号 (通过上面提供的连接注册) * 2.获取API Key * 3.配置cluade code 环境变量 * 4.测试配置: * 5.切换模型(非必要,可跳过) * 6.查看token用量

By Ne0inhk