OpenWebUI联网搜索实战:如何用SearXNG让本地大模型获取实时信息(附百度/360配置)

OpenWebUI联网搜索实战:如何用SearXNG让本地大模型获取实时信息(附百度/360配置)

如果你在本地运行大模型,比如用Ollama部署了Qwen、Llama或者DeepSeek,可能会发现一个尴尬的问题:模型的知识截止日期是固定的,它不知道今天股市涨跌,不清楚最新的科技新闻,甚至不知道明天是什么节日。这种“信息孤岛”的感觉,让本地大模型的实用性大打折扣。

我最初搭建OpenWebUI环境时,也遇到了这个痛点。看着模型一本正经地分析过时的数据,那种无力感让我开始寻找解决方案。市面上有不少联网搜索方案,但要么配置复杂,要么对国内网络环境不友好。经过几周的折腾和测试,我发现SearXNG这个开源元搜索引擎,配合OpenWebUI的联网搜索功能,是目前最稳定、最灵活的方案之一。

更重要的是,通过合理配置SearXNG,我们可以让本地大模型直接调用百度、360等国内搜索引擎,获取符合中文用户习惯的实时信息。这不仅仅是技术上的连接,更是让本地AI真正“接地气”的关键一步。下面我就把自己踩过的坑、验证过的配置,以及实际效果对比,毫无保留地分享给你。

1. 为什么需要SearXNG?OpenWebUI联网搜索的现状与痛点

在深入配置之前,我们得先搞清楚一个问题:为什么不能直接用OpenWebUI内置的搜索引擎?答案藏在网络环境和搜索质量的双重限制里。

OpenWebUI确实提供了多种联网搜索选项,比如DuckDuckGo、Google PSE、Bing等。但在实际使用中,你会发现这些选项各有各的问题:

  • DuckDuckGo:开箱即用,但搜索结果对中文内容支持有限,经常返回一些相关性不高的英文页面
  • Google PSE:需要API密钥,免费版限制严格(每天100次搜索),而且搜索结果质量与网页版Google相差甚远
  • Bing:API申请流程复杂,新用户基本无法通过,老用户也经常遇到部署失败的问题
  • Mojeek:速度慢得让人怀疑人生,有时候一个查询要等上十几秒

我在GitHub的OpenWebUI讨论区看到不少开发者都在抱怨这个问题。有人尝试了各种方案,最后发现要么效果差,要么根本用不了。更让人头疼的是,这些搜索引擎大多对国内网络环境不友好,要么访问不稳定,要么直接被屏蔽。

这时候SearXNG的优势就体现出来了。它是一个元搜索引擎,本身不维护搜索索引,而是聚合其他搜索引擎的结果。这意味着:

  1. 隐私保护:SearXNG不会跟踪用户,所有搜索请求都经过匿名化处理
  2. 高度可定制:你可以自由选择启用哪些搜索引擎,包括百度、360、搜狗等国内引擎
  3. API友好:提供JSON格式的输出,非常适合程序化调用
  4. 自托管:完全控制在自己手里,不用担心服务突然不可用

但SearXNG也不是完美无缺。最大的问题是官方Docker镜像默认不包含国内搜索引擎的配置文件。如果你直接部署,很可能会遇到这样的错误:

[Errno 2] No such file or directory: '/usr/local/searxng/searx/engines/baidu.py' 

这就是为什么很多人在配置SearXNG时卡住的原因。不过别担心,后面的章节我会详细讲解如何解决这个问题。

2. SearXNG部署详解:从零搭建可用的元搜索引擎

部署SearXNG有多种方式,包括Kubernetes、手动安装和Docker Compose。考虑到易用性和维护性,我强烈推荐使用Docker Compose方案。下面是我优化后的配置流程,已经避开了大部分常见的坑。

2.1 环境准备与基础部署

首先确保你的服务器已经安装了Docker和Docker Compose。如果还没有,可以参考官方文档进行安装。这里假设你使用的是Ubuntu 22.04或更高版本的系统。

# 更新系统包 sudo apt update && sudo apt upgrade -y # 安装Docker(如果尚未安装) curl -fsSL https://get.docker.com -o get-docker.sh sudo sh get-docker.sh # 安装Docker Compose sudo apt install docker-compose-plugin -y # 验证安装 docker --version docker compose version 

接下来创建SearXNG的工作目录并获取配置文件:

# 创建专用目录 mkdir -p ~/searxng-docker && cd ~/searxng-docker # 克隆官方仓库(包含Docker配置) git clone https://github.com/searxng/searxng-docker.git . 
注意:如果你在国内,GitHub克隆可能会很慢。可以考虑使用镜像源,或者先下载ZIP包再解压。

2.2 Docker Compose配置优化

官方提供的docker-compose.yaml文件包含Caddy反向代理,但对于大多数内网部署场景来说,这个组件不是必需的。我建议使用简化版的配置,只保留核心服务。

创建或修改docker-compose.yaml文件:

version: "3.7" services: redis: container_name: redis image: docker.io/valkey/valkey:8-alpine command: valkey-server --save 30 1 --loglevel warning restart: unless-stopped networks: - searxng volumes: - valkey-data:/data logging: driver: "json-file" options: max-size: "1m" max-file: "1" searxng: container_name: searxng image: searxng/searxng:latest restart: unless-stopped networks: - searxng ports: - "8080:8080" # 可以根据需要修改端口 volumes: - ./searxng:/etc/searxng:rw - ./engines:/usr/local/searxng/searx/engines:rw # 关键:持久化引擎目录 environment: - SEARXNG_BASE_URL=http://${SEARXNG_HOSTNAME:-localhost}:8080/ - UWSGI_WORKERS=${SEARXNG_UWSGI_WORKERS:-4} - UWSGI_THREADS=${SEARXNG_UWSGI_THREADS:-4} - SEARXNG_SETTINGS_PATH=/etc/searxng/settings.yml logging: driver: "json-file" options: max-size: "1m" max-file: "1" networks: searxng: volumes: valkey-data: driver: local driver_opts: type: none o: bind device: /data/searxng-docker/redis 

这里有几个关键点需要注意:

  1. 移除了Caddy服务:对于内网部署,直接用Nginx或直接访问端口更简单
  2. 持久化引擎目录:这是支持国内搜索引擎的关键,后面会详细说明
  3. 使用Valkey替代Redis:Valkey是Redis的分支,兼容性更好,性能也有所提升
  4. 网络配置:使用自定义网络,方便后续与OpenWebUI容器通信

2.3 配置文件深度定制

SearXNG的配置文件位于./searxng/settings.yml。首次启动容器时会自动生成默认配置,但我们需要对其进行定制以支持国内搜索引擎。

首先创建必要的目录结构:

# 创建配置目录 mkdir -p searxng engines # 首次启动以生成默认配置 docker compose up -d sleep 10 # 等待容器启动 docker compose down # 停止容器以修改配置 

现在我们来修改searxng/settings.yml文件。以下是我经过多次测试优化的配置:

# 使用默认设置作为基础 use_default_settings: true server: # base_url在环境变量SEARXNG_BASE_URL中定义 secret_key: "你的安全密钥" # 使用openssl rand -hex 32生成 limiter: false # 私有实例可以禁用限制器 image_proxy: true # 启用图片代理,保护用户隐私 ui: static_use_hash: true redis: url: redis://redis:6379/0 search: formats: - html - json # 必须启用JSON格式,OpenWebUI需要 # 搜索引擎配置 - 重点部分 engines: # 启用国内搜索引擎 - name: baidu categories: - web - news - general engine: baidu shortcut: bd timeout: 9.0 disabled: false enable_http: false # 强制使用HTTPS - name: 360search categories: - web - news - general engine: 360search shortcut: 360so timeout: 9.0 disabled: false enable_http: false - name: sogou categories: - web - news - general engine: sogou shortcut: sg timeout: 9.0 disabled: false # 禁用部分不常用或访问慢的国外引擎 - name: google engine: google disabled: true # 国内访问困难,建议禁用 - name: bing engine: bing disabled: true # API限制严格 - name: duckduckgo engine: duckduckgo disabled: true - name: startpage engine: startpage disabled: true # 保留一些有用的国外引擎(可选) - name: wikipedia engine: wikipedia disabled: false timeout: 15.0 # 维基百科可以慢一点 - name: github engine: github disabled: false shortcut: gh 
提示:secret_key需要自己生成,可以使用命令openssl rand -hex 32。Windows用户可以用PowerShell:<

Read more

【FPGA】Quartus Prime Lite 23.1 最新版 安装教程 ModelSim_18.1 下载安装 + 联调仿真教程 + 详细安装教程 2025最新

【FPGA】Quartus Prime Lite 23.1 最新版 安装教程 ModelSim_18.1 下载安装 + 联调仿真教程 + 详细安装教程 2025最新

前言         本文章基于截至2025年 Quartus_Prime_Lite的最新版 23.1 版本,详细的,一步一步的教你怎么安装,每一步都教你怎么做,按照流程绝对能安装成功。创作不易希望大家看完后点个赞支持创作,谢谢大家啦! 目录  软件下载地址 Quartus Prime Lite 23.1 ModelSim-Intel® FPGA 标准版软件版本 18.1 若不想在官网下载或官网下载速度太慢 点个关注+收藏可以免费用下面的百度链接进行下载  两个软件的安装包都在里面。如果使用百度链接下载则可跳过两个软件的下载流程,直接看安装流程。 一、Quartus Prime Lite 23.1 下载以及安装流程 1.1 Quartus Prime Lite 23.1 官方网站下载流程 第一步 打开上方链接到达如下界面 确保软件名称和版本如下图

硬件-电源-VR多相电源深入解析

1. 引言 一块高性能服务器主板的CPU插槽周围,总是簇拥着一排排整齐的、覆盖着金属散热片的“小方块”。它们就属于VR多相电源的一部分,VR多相电源如同CPU的“专用心脏”,负责将来自电源的“粗犷”能量,转化为CPU所能接受的“精细”养分。本文主要介绍Buck多相电源。 2. VRM是什么?为什么需要“多相”? 2.1 VRM的核心使命:精准的“能量转换师” VRM,全称 Voltage Regulator Module(电压调节模块),其核心任务只有一个:将来自一次电源的电压(如+12V),高效、精准地转换为CPU、GPU等核心芯片所需的低电压(如0.8V~1.3V)和大电流(可达数百A)。 如果让数百安培的电流直接以1V电压从机箱电源传输到CPU,线路损耗将是灾难性的。因此,必须在CPU边上就近进行高效电压转换,这就是VRM存在的根本原因。 2.

Flutter 三方库 arcade 的鸿蒙化适配指南 - 实现高性能的端侧 Web 框架、支持轻量级 HTTP 路由分发与服务端逻辑集成

Flutter 三方库 arcade 的鸿蒙化适配指南 - 实现高性能的端侧 Web 框架、支持轻量级 HTTP 路由分发与服务端逻辑集成

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 arcade 的鸿蒙化适配指南 - 实现高性能的端侧 Web 框架、支持轻量级 HTTP 路由分发与服务端逻辑集成 前言 在进行 Flutter for OpenHarmony 的全栈式开发或特定的边缘计算场景,我们有时需要在鸿蒙应用内部直接启动一个功能完备但又极其轻量的单文件 Web 服务器。arcade 是一个主打微核心设计的 Dart 服务端框架。它能让你在鸿蒙真机上以最少的内存占用,快速运行起一套处理 REST 请求的逻辑中心。本文将指导大家如何在鸿蒙端利用该框架构建微服务。 一、原理解析 / 概念介绍 1.1 基础原理 arcade 采用了非阻塞式的 IO 事件循环架构。它通过直接包装 dart:io 的 HttpServer,提供了一套高度流式(

Spatial Joy 2025 全球 AR&AI 赛事:开发者要的资源、玩法、避坑攻略都在这

Spatial Joy 2025 全球 AR&AI 赛事:开发者要的资源、玩法、避坑攻略都在这

Spatial Joy 2025 全球 AR&AI 赛事:开发者要的资源、玩法、避坑攻略都在这 * 引言: * 正文: * 一、赛事核心价值:资源、履历、落地全具备 * 1.1 硬核资源支持 * 1.2 行业背书与机遇 * 1.3 低门槛试错 * 二、赛道核心玩法:AI 和 AR 创作方向解析 * 2.1 AI 赛道:拼的是 "空间认知协作" 能力 * 2.1.1 应用示例 * 2.2 AR 赛道: