使用rclone将远程的webDav文件共享映射成本地硬盘

#webdav #rclone

一、准备工作

1.1 准备webdav连接

支持webdav的网盘有好多,请自行准备。我做示范的是国外的一个免费网盘,地址是https://infini-cloud.net/en/index.html, 先注册一个账号,就有20GB的免费空间可用。


收到验证邮件,输入验证码或者点击验证链接,注册成功后进入My Page。


免费的20GB空间大小,如果你在主页下方输入我送你的优惠码 L3UV8,你还将多获得5GB的空间


设置允许webDav访问,记住你的密码,如果忘记了,可以Reissue.


记录下以下三个信息(密码只显示一次)

WebDAV Connection URL
Connection ID
Apps Password

尝试一下webdav登录,可以正常访问

1.2 下载Rclone和WINFSP

我本机是Win11,我以windows版本为实例,其他操作系统请自行参考查找相关资料。

下载地址: https://rclone.org/downloads/


下载完成,把压缩包解压到D:/Rclone目录


下载Winfsp并安装。下载地址https://winfsp.dev/rel/

**



二、配置Rclone

我个人习惯将命令行的添加到系统环境变量中间去


打开资源管理器D:\Rclone,右键 在终端中打开 进入命令行窗口


输入以下命令开始配置: rclone config


输入n , 新建 New Remote,紧接着输入远程webdav名称:infinicloud,自己随起,记得住就行。


下面根据提示输入你的rclone版本提示的webdav的名称编号,我这个版本的是62。


依次输入 62,输入上面准备工作时记录下的相关信息

输入URL:如图标2,输入 vendor:如图标3,输入user,如图标4 ,输入y之后,重复输入自己记录下的的密码两遍。

可选配置输入直接回车,最后编辑输入n,然后它就显示输入的一个总结情况。


远程连接配置完成。最后输入q,退出配置模式。


最后验证一下远程连接是否成功。

输入命令

rclone lsf infinicloud: 


如果显示相应的两个说明文件,表示配置成功。

三、本地挂载

前面已经安装 WinFsp 软件(文件系统中间件)。

使用以下命令挂载(以 Z: 盘为例):

rclone mount infinicloud: Z: --network-mode --vfs-cache-mode full 

常用挂载参数说明:

参数说明
–network-mode以网络位置挂载,提高文件管理器响应速度
–vfs-cache-mode full启用完整缓存模式,提高读写性能
–vfs-cache-max-size 1G设置缓存最大大小为1GB
–buffer-size 512M设置缓冲区大小为512MB

在windows资源管理器中,就可以看到Z:盘了,如同本地硬盘一样使用了。

但是,这样只要命令行一退出,Z:盘就自动断开了。我们需要将其添加成window自启动当中去。

设置windows开机自启动无窗口模式

创建批处理文件 mount.bat

@echo off D:\Rclone\rclone.exe mount infinicloud: Z: --vfs-cache-mode full --file-perms 0777 --cache-dir "D:\Rclone\Cache" 

创建启动脚本 start.vbs

CreateObject("WScript.Shell").Run "cmd /c D:\Rclone\mount.bat",0 

把 start.vbs 放入开机启动文件,按Win+R 输入shell:startup,将 start.vbs 的快捷方式放入该目录,这样每次重新启动之后就自己挂载云盘至Z盘了。

四、小结

本文在Windows环境下,使用Rclone命令将支持webDav的云盘挂载到本地当硬盘使用,其他系统的使用方法累似,请自行查找解决方案。在总结时,突然发现其实在windows中实际可以直接将webdav文件共享映射为网络驱动器的。




区别是挂载类型一个是本地硬盘,一个是网络驱动器。具体使用请大家自行体会。

Read more

人工智能:大模型高效推理与部署技术实战

人工智能:大模型高效推理与部署技术实战

人工智能:大模型高效推理与部署技术实战 1.1 本章学习目标与重点 💡 学习目标:掌握大语言模型推理与部署的核心技术,理解模型量化、推理加速、服务化部署的原理,能够完成开源大模型的高性能生产级部署。 💡 学习重点:精通INT4/INT8量化技术的应用,掌握vLLM等高性能推理框架的使用方法,学会搭建高并发的大模型API服务。 1.2 大模型推理部署的核心挑战 1.2.1 大模型推理的痛点分析 💡 预训练大模型通常具备数十亿甚至上百亿的参数量,直接进行推理会面临显存占用高、推理速度慢、并发能力弱三大核心问题。 * 显存占用高:以LLaMA-2-7B模型为例,FP16精度下显存占用约14GB,单张消费级显卡难以承载;而70B模型FP16精度显存占用更是超过140GB,普通硬件完全无法运行。 * 推理速度慢:自回归生成的特性导致模型需要逐token计算,单条长文本生成可能需要数十秒,无法满足实时应用需求。 * 并发能力弱:传统推理方式下,单卡同时处理的请求数极少,高并发场景下会出现严重的排队和延迟问题。 这些问题直接制约了大模型从实验室走向实际生产环境,因此高效

手把手搭建 Python AI 开发环境:Anaconda + PyCharm + Claude Code 安装全攻略(Windows / macOS)

手把手搭建 Python AI 开发环境:Anaconda + PyCharm + Claude Code 安装全攻略(Windows / macOS)

Anaconda + PyCharm + Claude Code 完整安装教程(Windows / macOS) 本文涵盖 Anaconda、PyCharm Community Edition、Claude Code CLI 以及 PyCharm Claude Code 插件的完整安装与配置流程,同时收录注册报错、地区限制、环境变量等常见问题解决方案,适合 Windows 和 macOS 用户从零开始配置 Python 开发环境。 文章目录 * Anaconda + PyCharm + Claude Code 完整安装教程(Windows / macOS) * 一、Windows 安装 * 1. 安装 Anaconda(Windows) * 2. 安装 PyCharm Community Edition(

全网最简单的 OpenClaw 部署教程,5 分钟拥有你的 AI 员工

全网最简单的 OpenClaw 部署教程,5 分钟拥有你的 AI 员工

我们是由枫哥组建的IT技术团队,成立于2017年,致力于帮助IT从业者提供实力,成功入职理想企业,我们提供一对一学习辅导,由知名大厂导师指导,分享Java技术、参与项目实战等服务,并为学员定制职业规划,全面提升竞争力,过去8年,我们已成功帮助数千名求职者拿到满意的Offer:qiuzhiwang.vip。 前言 OpenClaw 是一款终端式 AI 助手,支持多模型适配、多渠道接入,既可本地部署,也支持云端一键安装。 本文聚焦“本地部署 + 飞书机器人接入”全流程,适配 macOS / Linux / Windows。 * 官网:https://openclaw.ai/ * GitHub:https://github.com/openclaw/(以官方仓库为准) * 部署方式: * 本地部署(本文核心) * 云端一键安装(阿里云 / 火山引擎 / MiniMax 等) * Docker

人工智能:大模型分布式训练与高效调参技术实战

人工智能:大模型分布式训练与高效调参技术实战

人工智能:大模型分布式训练与高效调参技术实战 1.1 本章学习目标与重点 💡 学习目标:掌握大语言模型分布式训练的核心原理、主流框架使用方法,以及高效调参策略,能够解决大模型训练过程中的算力瓶颈和效果优化问题。 💡 学习重点:理解数据并行、张量并行、流水线并行的技术差异,掌握基于DeepSpeed的分布式训练实战,学会使用超参数搜索提升模型性能。 1.2 大模型训练的核心挑战 1.2.1 单卡训练的算力瓶颈 💡 大语言模型的参数量动辄数十亿甚至上万亿,单张GPU的显存和计算能力完全无法满足训练需求。以LLaMA-2-70B模型为例: * FP32精度下,模型参数本身就需要约280GB显存,远超单张消费级或企业级GPU的显存容量。 * 训练过程中还需要存储梯度、优化器状态等数据,实际显存占用是模型参数的3-4倍。 * 单卡训练的计算速度极慢,训练一轮可能需要数月时间,完全不具备工程可行性。 1.2.2 大模型训练的核心需求 为了高效完成大模型训练,我们需要解决以下三个核心问题: 1. 显存扩容:通过并行技术,将模型参数和计算任务分布到多张GPU上,突破