基于大型语言模型的学术知识图谱问答
在学术领域,知识图谱问答(KGQA)一直是个难点。由于学术数据集的稀缺性,通用 KGQA 方案往往难以直接迁移。这篇论文介绍了一种利用大型语言模型(LLM)以少量训练样本完成文献自然语言问答的新方法。
核心思路:检索增强生成
现有的学术 KGQA 模型通常分为检索 - 推理框架和语义分析框架两类。本文提出的方案结合了两者优势,核心流程如下:
- 问题匹配:使用基于 BERT 的句子编码器,识别与当前测试问题最相似的前 n 个训练问题。
- 示例构建:检索这些相似问题对应的 SPARQL 查询,将其作为 Few-shot 示例。
- 提示工程:将示例对与测试问题组合成 Prompt,输入 LLM。
- 查询生成与执行:LLM 根据上下文生成目标 SPARQL 查询,并在 ORKG 终端上运行获取答案。
这种设计让模型通过'看例子'来学习如何构造查询,而不是依赖大量的监督微调。
性能表现与挑战
在 Scholarly-QALD-23 的挑战基准 SciQA 上,该系统取得了 99.0% 的 F1 分数,表现相当亮眼。不过,实际应用中仍存在一些值得注意的问题:
- 样本数量并非越多越好:引入过多的相似问题 -SPARQL 对反而可能降低相关性,导致 LLM 产生幻觉或错误的查询。
- 错误类型:主要集中为语法错误、关键词匹配偏差以及对问题意图理解不足。部分空答案集的结果实际上是由语法错误导致的无效查询。
- 对比优势:相比其他参与挑战的模型,该方法在少样本场景下依然能保持极高的准确率,接近 1.0 的性能指标。
总的来说,这是一次将 LLM 的泛化能力成功应用于垂直领域知识图谱查询的有效尝试。对于需要处理稀疏数据的研究场景,这种基于 Prompt 的生成式方法提供了新的解决路径。


