DBeaver社区版AI助手(AI Assistant)设置

最近更新DBeaver社区版的时候,发现引入了AI助手,感觉非常棒,体验了一把,将过程分享给大家。

确保你使用的是最新版本的DBeaver社区版本(本文版本25.2.0),否者可能并不支持。

AI助手配置

详细配置常考官方文档:https://dbeaver.com/docs/dbeaver/AI-Assistance-settings/

DBeaver AI助手支持以下模型提供者(providers):

  • OpenAI
  • GitHub Copilot
  • Azure OpenAI
  • Gemini
  • Ollama

DBeaver AI助手通过调用API来调用模型能力的,只要是OpenAI 兼容的API格式都可以集成到AI助手中。
以llama.cpp + gemma-3 (在WSL2运行)为例,llama-server提供OpenAI 风格的API,先执行它:

[root@DELL-P7750 models]# llama-server --model ./gemma-3-4B-it-Q8_0.gguf --host 0.0.0.0 --port 11434 --ctx-size 32768 --n-gpu-layers 99 ggml_cuda_init: GGML_CUDA_FORCE_MMQ: no ggml_cuda_init: GGML_CUDA_FORCE_CUBLAS: no ggml_cuda_init: found 1 CUDA devices: Device 0: Quadro RTX 4000, compute capability 7.5, VMM: yes build: 0 (unknown) with cc (GCC) 11.5.0 20240719 (Red Hat 11.5.0-5.0.1) for x86_64-redhat-linux system info: n_threads = 6, n_threads_batch = 6, total_threads = 12 system_info: n_threads = 6 (n_threads_batch = 6) / 12 | CUDA : ARCHS = 750 | USE_GRAPHS = 1 | PEER_MAX_BATCH_SIZE = 128 | CPU : SSE3 = 1 | SSSE3 = 1 | AVX = 1 | AVX2 = 1 | F16C = 1 | FMA = 1 | BMI2 = 1 | LLAMAFILE = 1 | OPENMP = 1 | AARCH64_REPACK = 1 | ...... main: server is listening on http://0.0.0.0:11434 - starting the main loop srv update_slots: all slots are idle 

通过浏览器访问(http://127.0.0.1:11434/models)确认API工作正常,并记录模型名称。

在这里插入图片描述


然后打开DBeaver社区版本,在主菜单: “Windows” --> "Preferences"中进行配置。

在这里插入图片描述


其中:

  • "API token"是必须填写的,如果你没设置密码,任填。
  • "Model"填入你的模型名称。
  • “API base URL"填入你的openAI API的地址,llama-server需要加后缀”/api"。
  • 到此,AI助手已经配置完成。

AI助手使用

以MySQL数据库为例,有一个案例表employees:

root@localhost [hr]> desc employees; Field |Type |Null|Key|Default|Extra| --------------+------------+----+---+-------+-----+ EMPLOYEE_ID |decimal(6,0)|NO |PRI| | | FIRST_NAME |varchar(20) |YES | | | | LAST_NAME |varchar(25) |NO |MUL| | | EMAIL |varchar(25) |NO | | | | PHONE_NUMBER |varchar(20) |YES | | | | HIRE_DATE |datetime |NO | | | | JOB_ID |varchar(10) |NO |MUL| | | SALARY |decimal(8,2)|YES | | | | COMMISSION_PCT|decimal(2,2)|YES | | | | MANAGER_ID |decimal(6,0)|YES |MUL| | | DEPARTMENT_ID |decimal(4,0)|YES |MUL| | | 

@ai命令

在SQL编辑窗口,通过@ai命令生成查询语句。

在这里插入图片描述


可以在Output页中查看AI生成的语句。

在这里插入图片描述

使用AI Chat

点击AI图标打开AI助手对话框。

在这里插入图片描述


在对话框中描述你的需求

在这里插入图片描述


点击"Translate",将自动生成SQL语句。

在这里插入图片描述


是不是很酷,更多炫酷功能等待你发掘。

Read more

LLaMA Factory微调全攻略(四):从LOSS曲线观测到模型部署的完整指南

LLaMA Factory微调全攻略(四):从LOSS曲线观测到模型部署的完整指南

本文详解大模型微调过程中LOSS曲线的观测方法,介绍微调后模型的合并、导出与部署流程。通过SwanLab监控训练过程,并使用Ollama和VLLM两种方式实现本地部署,最后对比模型微调前后的效果,验证微调成效。从训练监控到模型部署,为大模型应用提供完整解决方案。 前排提示,文末有大模型AGI-ZEEKLOG独家资料包哦! 微调过程观察 微调过程中,我们可以通过右下角的 LOSS 曲线来简单观测整个微调过程。 LOSS(损失值) 在模型微调中,LOSS(损失函数)是一个可微的数学函数,它量化了模型预测结果与真实目标值之间的误差(输出为一个标量数值)。微调的核心目标就是通过优化算法(如梯度下降)持续最小化这个 LOSS 值:计算 LOSS 对模型参数的梯度,并据此调整参数,使预测误差不断减小。LOSS 值的高低直接反映了模型预测的准确性,其持续下降是学习过程有效的关键指标。 * LOSS 是什么? * 简单说,LOSS 就是模型在微调过程中犯错误的“程度”的评分,它是一个数字。 * 怎么算出来的? * 模型对一条数据做预测(比如判断图片是猫还是狗)。然后,我们把模型的

AIGC(生成式AI)试用 45 -- DocsGPT 与 Python开发 1

一切从python调用本地DocsGPT完成python开发开始。 遗留问题:如何验证AI开发提交的结果? * 提问 1: 使用python+Tkinter进行GUI程序编码 1. 界面分为左右两部分     - 左侧为python代码编辑区:       左上部为代码多行输入框,嵌入python idle,浅灰色底色;       左下部为 Run 按钮     - 右侧为GPT调用区:       右上部为tab,名称 Question,嵌入多行文本,输入提问问题;       中部为Show Answer按钮,海蓝色;       下部为2个tab:tab1,名称 Answer,嵌入多行文本,显示GPT处理结果;                                tab2,名称History,显示提问历史,answer + question,数据来自名为pyai的sqlite的数据库  2. 优化界面  3. 优化代码 * DeepSeek 回复 1: - 1 次调用界面

LLaMA-Factory实战指南:从零构建医疗大模型的三大关键阶段

1. 医疗大模型训练的三阶段全景图 如果你正在医疗领域探索AI应用,一定会遇到这样的困境:通用大模型在专业场景下表现不佳,回答缺乏深度,甚至可能给出错误建议。这正是我们需要构建垂直领域大模型的原因。LLaMA-Factory作为当前最受欢迎的开源微调框架,能帮你高效完成从预训练到最终部署的全流程。 医疗大模型的训练就像培养一位医学专家,需要经历三个关键成长阶段: * 预训练阶段:相当于医学生的本科教育,通过海量医学文献学习基础知识和语言模式。这个阶段投入最大,通常需要数千GPU小时。 * 监督微调阶段:类似临床实习,用标注好的医患对话数据教会模型如何专业应答。这是性价比最高的优化环节。 * 偏好纠正阶段:好比专家带教,通过强化学习让模型输出更符合医生期待。这个阶段能显著提升回答的专业性和安全性。 我在三甲医院AI辅助诊断项目中实测发现,经过完整三阶段训练的7B参数模型,在医疗问答准确率上比通用模型提升47%,特别在药品禁忌和罕见病诊断方面表现突出。 2. 环境搭建与数据准备实战 2.1 硬件选择与配置技巧 医疗文本通常需要处理长上下文,显存需求比通用场景更高。根据

AMD显卡AI绘画终极指南:解锁ComfyUI-Zluda隐藏性能

AMD显卡AI绘画终极指南:解锁ComfyUI-Zluda隐藏性能 【免费下载链接】ComfyUI-ZludaThe most powerful and modular stable diffusion GUI, api and backend with a graph/nodes interface. Now ZLUDA enhanced for better AMD GPU performance. 项目地址: https://gitcode.com/gh_mirrors/co/ComfyUI-Zluda AMD显卡用户现在可以通过革命性的ComfyUI-Zluda项目,彻底释放显卡的AI绘画潜力。这项技术让RX系列显卡在Stable Diffusion等AI绘画应用中表现卓越,性能提升显著。 技术痛点深度解析 AMD显卡在AI计算领域长期面临兼容性挑战,传统方案往往无法充分发挥硬件性能。Zluda技术的核心突破在于将CUDA调用实时转换为ROCm HIP指令,让AMD显卡能够无缝运行基于CUDA的AI应用。 核心瓶颈分析: * CUDA生态壁垒:90%的AI应用基