开源 AI 网络搜索工具:OpenWebSearch MCP 全新升级,支持多引擎 + 流式响应!

开源 AI 网络搜索工具:OpenWebSearch MCP 全新升级,支持多引擎 + 流式响应!

🚀 开源 AI 联网搜索工具:Open-WebSearch MCP 全新升级,支持多引擎 + 流式响应!

💡「让你的 AI 插件真正能联网」—— 不需要 API Key,搜索结果可控、开箱即用!

大家好,我最近开源了一个 AI 插件开发工具 —— Open-WebSearch MCP。这个项目旨在解决 AI 在实际应用中无法联网联网费用高昂的问题,特别适合在 Claude、LangChain、RAG 方案中添加“实时搜索”能力。


🧠 项目亮点一览

多引擎实时搜索

  • 支持 Bing百度ZEEKLOGDuckDuckGoExaBrave(目前 linux.do 暂不支持)
  • 支持HTTP代理配置,轻松解决网络访问限制
  • 支持HTTP代理配置,轻松解决网络访问限制
  • 可配置引擎组合搜索,获取更全面的内容

流式响应(MCP协议)

  • 完美兼容 Claude 插件(MCP)协议
  • 更新为支持 streamableHttpSSE 两种方式返回搜索结果,体验丝滑流畅

文章正文抓取

  • 支持提取 ZEEKLOG 博客文章全文
  • 支持提取 Linux.do(开发中)

完全免费 & 无需 API Key

  • 不再依赖 Bing API / Google Custom Search
  • 可自托管,无额度限制,数据可控

Docker 一键部署

  • 提供 docker-compose 和镜像:ghcr.io/aas-ee/open-web-search

⚙️ 如何使用?

安装非常简单:

git clone https://github.com/Aas-ee/open-webSearch cd open-webSearch npminstallnpm run build node build/index.js 

或者直接使用 Docker 启动:

docker run -d \ --name web-search \ -p 3000:3000 \ -e ENABLE_CORS=true \ -e CORS_ORIGIN=* \ ghcr.io/aas-ee/open-web-search:latest 

配置环境变量说明(可选):

# 启用CORS (默认: false)ENABLE_CORS=true # CORS来源配置 (默认: *)CORS_ORIGIN=* # 默认搜索引擎 (可选值: bing, duckduckgo, exa, brave,默认: bing)DEFAULT_SEARCH_ENGINE=duckduckgo # 启用HTTP代理 (默认: false)USE_PROXY=true # 代理服务器URL (默认: http://127.0.0.1:10809)PROXY_URL=http://your-proxy-server:port 
配合 Claude Dev Extension、Claude Desktop、Cherry Studio 使用效果更佳!

⚙️ MCP 客户端配置指南

💻 Cherry Studio

{"mcpServers":{"web-search":{"name":"Web Search MCP","type":"streamableHttp","description":"Multi-engine web search with article fetching","isActive":true,"baseUrl":"http://localhost:3000/mcp"},"web-search-sse":{"name":"Web Search SSE","type":"sse","description":"SSE version of web search","isActive":true,"url":"http://localhost:3000/sse"}}}

🔍 Claude Dev Extension (VSCode)

{"mcpServers":{"web-search":{"transport":{"type":"streamableHttp","url":"http://localhost:3000/mcp"}},"web-search-sse":{"transport":{"type":"sse","url":"http://localhost:3000/sse"}}}}

💻 Claude Desktop

{"mcpServers":{"web-search":{"transport":{"type":"streamableHttp","url":"http://localhost:3000/mcp"}},"web-search-sse":{"transport":{"type":"sse","url":"http://localhost:3000/sse"}}}}
如果你是 Docker 部署,请把 localhost 换成实际 IP 地址

🧩 MCP 工具支持

🔍 search:多引擎搜索工具

{ query:"Claude 插件开发", limit:5, engines:["bing","ZEEKLOG"]}

✅ 返回结构化数据(标题、URL、摘要、来源)


📄 fetchZEEKLOGArticle:提取 ZEEKLOG 文章全文

{ url:"https://blog.ZEEKLOG.net/xxx/article/details/xxx"}

✅ 获取正文,支持摘要分析、RAG、训练语料等场景


🧪 fetchLinuxDoArticle:抓取 Linux.do 文章(目前不稳定)


📦 CI/CD:支持 Docker 镜像自动构建发布

如果你想 Fork 并发布自己的版本,也完全没问题:

  • 支持 GitHub Actions 自动构建并发布到:
    • GitHub Container Registry(ghcr.io)
    • 阿里云容器镜像服务(可选配置 ACR)

✅ 提供详细 CI/CD 配置文档
✅ 开发者可自由部署在内网、私有云环境下


🧱 后续计划

🛠 支持更多搜索引擎(Google、知乎、Reddit)
🛠 支持文档类内容全文抽取(如微信公众号、掘金)


⭐ 项目地址

🧩 GitHub 地址:https://github.com/Aas-ee/open-webSearch
📦 Docker 镜像:ghcr.io/aas-ee/open-web-search:latest

如果你觉得这个项目对你有帮助,请 Star 一下再走 💖,你的支持是我继续迭代的最大动力!


📣 一句话总结:

「Open-WebSearch MCP:让你的 AI 插件真正实现联网搜索,开源、免费、灵活、强大。」

Read more

前端首屏加载优化方案

前端首屏加载优化落地清单(可直接落地 / 自查,分维度 + 实操步骤 + 检查项) 核心遵循 **「先基础后进阶、先低成本高收益后深度优化」原则,按资源层、网络层、渲染层、计算层、缓存层、服务端协同6 大维度划分,每个维度含实操步骤 + 落地检查项 + 备注 **,适配项目开发 / 重构的全流程优化,可直接作为团队协作的落地标准。 一、资源层优化(核心:减体积、按需加载,低成本高收益) 实操步骤 1. 代码压缩与精简:开启打包工具(Webpack/Vite)的 JS/CSS 压缩,开启 Tree-shaking,剔除未引用代码;第三方库按需引入(如 antd/Element 仅引首屏组件、lodash 用 lodash-es

使用VS Code插件搭建AI开发环境完全指南

使用VS Code插件搭建AI开发环境完全指南

前篇: AI编程教学:手把手搭建AI编程环境(IDE/插件/CLI方案) Claude code免费体验+安装方式,对接国产大模型,Node + 配置教程 01. AI编程工具概述 目前主流的AI编程工具主要分为三类:集成IDE、插件模式和独立CLI。 其中,插件模式以其轻量级和高兼容性成为许多开发者的首选。通过在VSCode中安装相应插件,开发者可以在不离开熟悉的编辑器环境的情况下,享受到AI辅助编程的便利。 插件模式的优势在于: * 无需切换编辑器,保持开发环境一致性 * 可根据需求灵活选择不同AI模型 * 资源占用小,启动速度快 * 支持与本地开发环境深度集成 02. VS Code AI插件选择 目前市场上有多种VS Code AI插件可供选择,各有特色。以下是几款主流插件的对比分析: 添加图片注释,不超过 140 字(可选) 综合对比下来,RooCode是目前最推荐的VS Code AI插件,它不仅支持多种模型和模式切换,而且对中文的支持非常友好,适合国内开发者使用。

2025年全球10大AI大模型排行榜出炉!中国独占6席

2025年全球10大AI大模型排行榜出炉!中国独占6席

2025年是AI大模型的爆发之年,也是AI大模型发展的分水岭,谁能留在牌桌上,谁能引领AI最前沿,都是该见分晓的时候了。全球AI大模型那么多,究竟谁好谁坏?让我们拨开AI大模型的面纱,退去营销的潮水,看看谁是王者?谁在裸泳? 我们从大模型的综合技术性能、生态影响力、场景适配性、创新价值、应用场景、用户体验等多个维度出发,为大家分享一份全球AI大模型的排行榜,赶快来围观一下吧! 1、OpenAI的GPT-5大模型 它的最大特色是:千亿级参数规模(52万亿)、多模态融合、逻辑推理接近博士生水平。 核心应用场景:特别适合高端科研(如蛋白质结构预测)、跨领域决策支持(金融策略、医疗诊断)等。 2、Google的Gemini 2.0 Ultra大模型 它的最大特色是:原生多模态架构、与搜索生态深度整合,响应速度与准确性平衡。 核心应用场景:企业级知识库(如Gmail智能摘要)、实时跨模态分析(图像+文本报告生成)等。 3、

脉脉平台深度测评:AI创作者不可错过的xAMA活动

脉脉平台深度测评:AI创作者不可错过的xAMA活动

🔥个人主页:Cx330🌸 ❄️个人专栏:《C语言》《LeetCode刷题集》《数据结构-初阶》《C++知识分享》 《优选算法指南-必刷经典100题》《Linux操作系统》:从入门到入魔 《Git深度解析》:版本管理实战全解 🌟心向往之行必能至 🎥Cx330🌸的简介: 前言 : 在 AI 创作与职场社交深度融合的当下,脉脉凭借 1.2 亿 + 中高端职场用户基数,已从单纯的人脉平台升级为 “创作者成长沃土”。本文实测脉脉核心功能,并重点拆解其王牌活动 —— 创作者 xAMA,为技术人提供 “找资源 + 学创作 + 拓人脉” 的实战指南。 目录 前言 : 一、脉脉平台核心价值测评 1.1 定位:实名制职场生态的独特优势 1.2 核心功能实测(附实用度评级) 1.3