【AI大模型】开源知识库 RAGFlow 从部署到实战操作详解

【AI大模型】开源知识库 RAGFlow 从部署到实战操作详解

目录

一、前言

二、RAGflow 介绍

2.1 RAGflow 是什么

2.2 RAGflow 核心特点与优势

2.2.1 RAGflow 核心特点

2.2.2 RAGflow 优势

2.3 RAGflow 应用场景

2.4 RAGflow 与其他同类产品对比

2.4.1 MaxKB

2.4.2 Dify

2.4.3 FastGPT

2.4.4 RagFlow

2.4.5 Anything-LLM

三、RAGflow 搭建与使用

3.1 环境准备

3.1.1 服务器配置

3.1.2 docker环境

3.1.3 修改max_map_count

3.2 基于docker部署RAGFlow操作过程

3.2.1 获取RAGFlow安装包

3.2.2 修改配置文件

3.2.3 启动服务

3.2.4 web页面访问

3.3 RAGFlow基本使用

3.3.1 添加Embedding模型

3.3.2 创建Dataset

3.3.3 验证并使用

四、写在文末


一、前言

在AI大模型发展热火朝天的2025年,各个厂商的大模型都在飞速的抢占市场。在企业使用大模型进行实际业务落地过程中,尽管大模型带来了很多业务场景价值的延伸,以及日常工作提效,但是在私有化大模型落地过程中,大模型使用中仍然存在一些问题,比如联网检索时回答的问题发散,不够精准,大模型幻觉问题,给出的检索结果与企业自身实际期望的结果存在差距等,这些问题都可以通过专业的RAG知识库来辅助解决,本文将介绍一款开源RAG的RAGflow使用。

二、RAGflow 介绍

2.1 RAGflow 是什么

RAGFlow是一个基于深度文档理解的开源RAG(检索增强生成)引擎。简单来说,它能够"读懂"你的各种文档,并基于这些文档内容进行智能问答,就像拥有了一个对你所有资料都了如指掌的智能助手。官方地址:

Read more

OpenClaw架构工作原理详解: AI智能体的操作系统

OpenClaw架构工作原理详解: AI智能体的操作系统

OpenClaw Architecture, Explained 摘要 OpenClaw如何从周末项目成长为GitHub历史上增长最快的开源项目之一,8周内突破18万星标,重新定义个人AI助手基础设施。 正文 从周末脚本到现象级开源项目 2026年1月初,一小群开发者聚集在Michael Galpert组织的首届Claude Code Show & Tell活动上。我们只有二十人,对智能体开发充满好奇,渴望分享使用最新AI编码工具的经验。 短短几周后的2月5日,Michael Galpert和Dave Morin组织了该系列的第三场活动,现已更名为ClawCon——首届OpenClaw旧金山展示会。超过700人到场参加。现场气氛热烈,Ashton Kutcher等投资人花了近一个小时听人们展示项目。OpenClaw的创始人Peter Steinberger成为当晚真正的明星,所有人都围着他提问、祝贺并合影。 这一切是如何发生的?仅仅八周时间,OpenClaw从一个周末WhatsApp中继脚本发展成为GitHub历史上增长最快的开源项目之一,到2月初已突破18万星标。这

【AI Coding笔试】2026最新 Claude/OpenCode + OpenClaw 源码讲解二十万字教程

【AI Coding笔试】2026最新 Claude/OpenCode + OpenClaw 源码讲解二十万字教程

😊你好,我是小航,一个正在变秃、变强的文艺倾年。 🔔本文讲解【2026持续更新】Claude/OpenCode + OpenClaw 源码讲解万字教程,期待与你一同探索、学习、进步,一起卷起来叭! 目录 * 一、Claude Code * 初始化 * 安装 * CC Switch * VScode配置 * 工作流程 * 配置 * 命令行命令 * 前缀匹配器 * MCP * Subagent * Plugin * Skill * Agent Team * Claude Agent SDK * 进阶使用 * 高质量提问 * MCP / SKILL / Plugin 汇总 * 状态栏美化 * 浏览器自动化 * 头脑风暴 * 软件工程智能体 * 前端美化 * 自动化运行 * 宠物 * 二、

LTX-2.3:开源AI视频生成的新标杆,一个模型同时生成视频和音频

LTX-2.3:开源AI视频生成的新标杆,一个模型同时生成视频和音频

当 AI 视频生成不再是闭源巨头的专利 在 AI 视频生成领域,我们见证了太多令人惊艳的 demo,但它们大多藏在闭源的高墙之后。而今天,Lightricks 发布的 LTX-2.3 正在改写这个故事——这是一个完全开源、可本地运行、能同时生成高质量视频和同步音频的基础模型。更重要的是,它不只是一个实验室产物,而是一个真正为生产环境设计的创作引擎。 什么是 LTX-2.3? LTX-2.3 是 Lightricks 推出的最新一代音视频生成基础模型,它基于 Diffusion Transformer(DiT)架构构建,拥有约 190 亿参数,其中 140 亿用于视频处理,50 亿用于音频生成。这是业界首批能够在单一统一架构中同时生成同步音频和视频的开源模型之一。 与前代 LTX-2 相比,2.3 版本带来了全面的质量提升。它重建了

2026年7个最佳 OpenRouter 替代方案:AI API 网关全面对比

2026年7个最佳 OpenRouter 替代方案:AI API 网关全面对比 本文对比 7 个 OpenRouter 替代品,包含真实定价数据、可运行代码示例和功能矩阵,帮你选出最适合的 AI API 网关。 前言 OpenRouter 让多模型 API 调用变得简单:一个端点、几百个模型、统一计费。但随着用量增长,问题开始浮现——加价费侵蚀利润、非 LLM 任务(图片/视频/音乐生成)覆盖不足、没有自托管选项。 不管你是想省钱、需要更广的模型覆盖、还是要企业级治理或完全自托管,都有比 OpenRouter 更合适的选择。 我们实测了 7 个替代方案,对比了真实定价,跑了实际 API 调用。以下是结果。