GraphRAG Linux 部署指南:集成 Ollama 本地大模型
本文记录在 Linux 环境下安装 GraphRAG 并接入 Ollama 本地模型的实战过程。环境基于 openEuler 22.03 LTS-SP3,Python 版本控制在 3.10 - 3.12 之间。
1. 环境搭建
1.1 创建虚拟环境
官方建议创建项目空间并配置 Python 虚拟环境。我习惯使用 Anaconda 管理依赖,本次选用 AutoGenStudio 环境。
# 创建虚拟环境
conda create -n AutoGenStudio python=3.10
# 激活环境
conda activate AutoGenStudio
1.2 安装与初始化
直接通过 pip 安装即可,注意观察依赖包版本。
python -m pip install graphrag
graphrag init
执行 init 后会在当前目录生成 .env、settings.yaml 以及 input 文件夹。这里有个细节要注意:官网文档关于这些文件的说明可能滞后,实际生成的配置文件结构需以运行结果为准。
1.3 准备数据
下载样本文件放入 input 目录。为了测试中文效果,我上传了《塔木德》文本,但发现初始化图谱速度过慢。最终为了快速验证,仅保留了一句包含实体关系的测试文本:
张三是小学语文老师,他的哥哥张三丰是中学数学老师,他们都在郑州。
1.4 配置本地模型
修改 settings.yaml 是关键步骤。由于服务器没有 GPU,必须选择轻量级模型。Ollama 服务默认运行在 localhost:11434。
models:
default_chat_model:
type: chat
model_provider: ollama
auth_type: api_key
api_key: dummy_key
model: qwen2.5:0.5b
api_base: http://localhost:11434
model_supports_json: true
concurrent_requests: 1
async_mode: threaded
retry_strategy: exponential_backoff
max_retries:
[]

