【沧海拾昧】绿联NAS配置WebDAV公网访问并使用RaiDrive挂载到本地

【沧海拾昧】绿联NAS配置WebDAV公网访问并使用RaiDrive挂载到本地

#C0601


沧海茫茫千钟粟,且拾吾昧一微尘

——《沧海拾昧集》@CuPhoenix


【阅前敬告】沧海拾昧集仅做个人学习笔记之用,所述内容不专业不严谨不成体系【如有问题必是本集记录有谬,切勿深究】


目录


前言

将 NAS 的磁盘空间通过 RaiDrive 等软件挂载到本地使用是一种十分便捷的方法,但是 RaiDrive 中只有针对群晖(Synology)等几个品牌 NAS 的原生支持,如果使用绿联(UGREEN) NAS 则无法直接在 RaiDrive 中挂载。本文记录了使用绿联 NAS 配置 WebDAV 协议并通过公网访问的方式在 RaiDrive 中挂载的方法以供参考。

本文用到的软/硬件环境:绿联 DH3400 Plus;

一、配置步骤

1、确认网络设备支持 IPv6

  • 要实现公网访问,必须确认设备可以访问公网 IP,包括确认使用的光猫、路由器对 IPv6 的支持和对应功能是否设置开启;

可以通过 这个网站 进行测试:如果显示网络 IPv6 访问优先,则不需要调整,否则需要先参考其他资料开启 IPv6 访问。

在这里插入图片描述
其他测试连接测试链接 1 :仅支持 IPv6 访问;测试链接 2 :测试网络是 IPv4 还是 IPv6 访问优先(访问IPv4 / IPv6双栈站点,如果返回 IPv6 地址,则 IPv6 访问优先)

2、购买域名

  • 进行 DDNS 配置需要有一个自己的域名,推荐使用阿里云或腾讯云进行配置(该推荐源自绿联官网资料),这里以腾讯云为例;
  • 在腾讯云购买一个域名(购买时需经过实名认证等步骤,不需要购买其他服务,最便宜的大概只需要几块钱一年),购买成功后等待一会有短信通知域名恢复正常解析,就可以使用了;

3、配置访问凭证

  • 登录腾讯云 访问管理控制台策略页,单击【策略】页面中的【新建自定义策略】,并单击【按策略语法创建】;
  • 选择【空白模板】,进入下一步;
  • 复制这段权限脚本到【策略内容】中,然后单击完成;
{ "version": "2.0", "statement": [ { "effect": "allow", "action": [ "cdb:DescribeDBInstances" ], "resource": [ "*" ], "condition": [] }, { "effect": "allow", "action": [ "cvm:DescribeInstances" ], "resource": [ "*" ], "condition": [] }, { "effect": "allow", "action": [ "cynosdb:DescribeClusters" ], "resource": [ "*" ], "condition": [] } ] } 
  • 在导航栏中单击【访问密钥】→【API密钥管理】,获取SecretIdSecretKey(即 AccessId 和 AccessKey ),注意保存好,不要泄露;

2、NAS 配置 WebDAV 服务

  • NAS 开机后,按绿联官方操作手册进行注册、登录等一系列初始化设置;
  • 配置完成后,可以同局域网 IP 访问检测是否设置成功,例如 NAS 的局域网 IP 是 192.168.1.100,则在浏览器中访问【192.168.1.100:5006】看是否会进入鉴权页面;

在【控制面板】→【文件服务】→【WebDAV】中选择启用服务,并在高级设置中勾选;

在这里插入图片描述

3、NAS 配置 DDNS 支持

  • 如果一切正常,点击【连接测试】会显示成功;

服务商选择腾讯云,然后输入刚才注册的域名,和刚才获取的 SecretId 和 SecretKey;

在这里插入图片描述

在【控制面板】→【设备连接】→【远程访问】中选择【启用 DDNS 支持】,然后选择【新增】;

在这里插入图片描述

4、配置反向代理

  • 注意:按这个步骤使用 Nginx 做反向代理可能出现问题(挂载后无法移动文件和修改文件名),该问题尝试网上一些修改 Nginx 的方法无法解决。推荐使用 Lucky 来设置反向代理。教程参考:教程1教程2
  • 这里提醒一点:设置动态域名的时候,要根据 IPv4 还是 IPv6 来选择获取公网 IP 方式。教程1中的示例是 IPv4 的,所以选择了通过接口获取,如果根据本文上面的步骤来做公网 IP应该是 IPv6 的,因此这一步要选择网卡获取。
  • 另注:可以通过 NAS 中的 自动映射 功能(在【控制面板】→【设备连接】→【远程访问】→【方式二:高级设置】)完成路由器端口的映射,不用从路由器中手动设置。
  • 在 NAS 的应用中心中安装 docker,然后在 docker 的镜像中搜索并下载 jc21/nginx-proxy-manager,安装 nginx proxy manager(如果下载失败,则需要开启加速,可以通过 官方教程 进行设置);
  • 设置容器【自动重启】;
  • 点击【Certificates】,选择【Add Certificate】→【Let’s Encrypt via DNS】,在 Domain Names 中输入刚才购买的 DDNS 域名,然后在 DNS Provider 中选择腾讯云 Tencent Cloud,输入 secret_id 和 secret_key,点击【Save】进行保存;
  • 配置完成后,打开浏览器,输入 https://xxxxxxx:8000(xxxxxxx 是自己的域名),如果能跳转到 WebDAV 的页面就是成功了;

点击【Proxy Host】配置反向代理,新建一个 Proxy Host,在 Domain Names 中输入刚才购买的 DDNS 域名,转发 IP 填写 172.17.0.1,端口为5005,然后在 SSL 选项卡中勾选 Force SSL 和 HTTP/2 Support;

在这里插入图片描述

启动容器后,可以通过【快速访问】进入管理页配置证书;

在这里插入图片描述

端口号可以改成比较好记的,避免与 NAS 已有的端口产生冲突;

在这里插入图片描述

对容器进行配置,注意在【存储空间】中加入 /etc/letsencrypt 这个容器目录,否则服务无法启动;

在这里插入图片描述

5、在 RaiDrive 中挂载

  • 启动 RaiDrive,新增虚拟驱动器,在 【NAS】选项卡中选择【WebDAV】,然后在地址栏中输入 https://xxxxxxx:8000,并输入用户名和密码(在绿联APP中设置的访问 WebDAV 的密码,相关的权限也在绿联 APP 中管理);
在这里插入图片描述
  • 点击连接,即可将 NAS 挂载到本地磁盘;

6、设置防火墙

  • 规则1用于允许反向代理的端口访问,规则2用于允许内网访问所有端口。设置完成后记得勾选启用,然后确定。

防火墙可以在 NAS 中进行设置,这里给出两条规则参考:

在这里插入图片描述

二、最终结果

在我的电脑中,出现该驱动器。不开 RaiDrive 会员只能挂载到网络位置,开了会员之后可以挂载到本地磁盘的位置,但这两个在一般使用中没有什么区别。

在这里插入图片描述
参考文献绿联NAS配置公网访问配置腾讯云访问凭证绿联云知识中心 - 启用DDNS支持

Read more

Spring Cloud + AI:微服务架构下的智能路由、故障自愈、日志分析

Spring Cloud + AI:微服务架构下的智能路由、故障自愈、日志分析

在云原生时代,微服务架构的复杂性带来了路由决策、故障恢复、日志排查三大痛点。将 AI 能力融入 Spring Cloud 生态,可以显著提升系统的自适应能力和运维效率。本文将围绕智能路由、故障自愈、智能日志分析三大场景,给出完整的架构设计与代码实现。 一、整体架构 智能路由 智能路由 智能路由 指标上报 指标上报 指标上报 实时指标 服务状态 路由权重 熔断指令 日志输出 日志输出 日志输出 异常日志 告警/报告 客户端请求 Spring Cloud Gateway + AI 路由策略 服务 A 服务 B 服务 C Nacos 服务注册中心 Prometheus + Grafana AI

量化、算子融合、内存映射:C语言实现AI推理的“三板斧“

量化、算子融合、内存映射:C语言实现AI推理的“三板斧“

量化、算子融合、内存映射:C语言实现AI推理的"三板斧" 摘要:做嵌入式AI开发的同学,大概率都遇到过这样的困境:训练好的AI模型(比如CNN),在PC上用TensorFlow/PyTorch跑起来流畅丝滑,可移植到单片机、MCU等边缘设备上,要么内存爆掉,要么推理延迟高到无法使用——毕竟边缘设备的资源太有限了:几百KB的RAM、几MB的Flash、没有GPU加速,甚至连浮点运算都要靠软件模拟。这时,依赖庞大的深度学习框架就成了“杀鸡用牛刀”,甚至根本无法运行。而C语言,作为嵌入式开发的“母语”,凭借其极致的性能控制、内存可控性和无 runtime 依赖的优势,成为边缘设备AI推理引擎的最佳选择。但纯C语言实现AI推理,绝不是简单地“用C重写框架代码”,关键在于掌握三大核心优化技术——这就是我们今天要讲的AI推理“三板斧”:量化、算子融合、内存映射。 它们三者协同作用,能从“体积、速度、内存”三个维度彻底优化AI推理性能:

将 Zed 集成到 Bright Data Web MCP,让 AI 编辑器具备“超能力”

将 Zed 集成到 Bright Data Web MCP,让 AI 编辑器具备“超能力”

还在苦恼 AI 助手的知识库永远停留在“过去时”吗?无论使用 Claude 还是 GPT,无法访问实时网页始终是开发者查阅最新文档、API 变更时的痛点。 本期视频为你带来硬核实战:将高性能 Rust 编写的 Zed 编辑器与 Bright Data Web MCP 无缝集成,彻底打破 AI 的信息孤岛 。 将 Zed 集成到 Bright Data Web MCP 专属链接:https://www.bright.cn/blog/ai/zed-with-web-mcp/?utm_source=brand&utm_campaign=brnd-mkt_cn_ZEEKLOG_

2026 年 Python AI 大模型部署全攻略:本地运行 + API 服务 + Docker 封装

2026 年 Python AI 大模型部署全攻略:本地运行 + API 服务 + Docker 封装

随着开源大模型的爆发式增长,2026 年在本地与服务端部署 AI 大模型已成为开发者的核心技能。本文将从本地运行、API 服务化、Docker 容器封装三个维度,给出完整的生产级部署方案。 一、整体架构概览 开发调试 团队协作 生产交付 模型选择与下载 部署方式 本地直接运行 API 服务化 Docker 容器封装 llama.cpp / vLLM / Ollama FastAPI + vLLM / TGI Dockerfile + docker-compose 性能调优 监控与运维 二、模型选型与技术栈(2026 主流方案) 维度推荐方案适用场景本地推理llama.cpp / Ollama个人开发、低资源环境GPU 推理vLLM / TGI高并发、低延迟API 框架FastAPI轻量、高性能容器化Docker + NVIDIA Container Toolkit标准化部署编排docker-compose