前端环境配置(nvm、nodejs、npm)

前端环境配置(nvm、nodejs、npm)

一、安装nvm

1. 下载vnm

url: https://nvm.uihtm.com/doc/download-nvm.html

2. 解压文件后双击exe文件进行安装

3. 选择nvm的安装地址,我是安装在D:\App\nvm

4. 选择nodejs的安装地址,我是安装在C:\Program Files\nodejs

5. 点击next 一直点击 完成安装;

6. 找到nvm的settings.txt文件打开后:

给该文件添加这两行命令:

node_mirror: https://npmmirror.com/mirrors/node/
npm_mirror: https://npmmirror.com/mirrors/npm/

二、环境变量配置

1. 右击计算机

2.点击属性

3.选择高级系统设置

4.点击环境变量

5.查看环境变量是否配置(默认nvm安装成功后,自动配置):

三、验证nvm是否安装成功

打开cmd,输入nvm -v 或 nvm version 或 nvm --version (三选一即可)

四、安装node.js

1. 通过nvm 指令安装node.js

重新打开cmd,输入对应的指令:

①  安装指定nodejs版本:                       nvm install + nodejs版本号 

②  查询已安装nodejs版本列表:         nvm list 

③ 使用对应的版本的nodejs:                 nvm use + nodejs 版本号

如: 

      nvm install 14.20.0                             -- 安装14.20.0版本的nodejs

      nvm use 14.20.0                                -- 使用14.20.0版本的nodejs

2. 检查是否安装成功

    安装成功后会自动新建对应的文件夹

3. node环境变量配置

① 在nvm的安装目录新建两个文件夹node_global和node_cache

② 创建完两个文件夹后,在cmd窗口中输入以下命令(两个路径即是两个文件夹的路径):

npm config set prefix "D:\App\nvm\node_global"
npm config set cache "D:\App\nvm\\node_cache"

③ 设置环境变量(步骤同nvm环境变量设置)

     a. 设置用户变量 前两个会自动创建,仅需要手动New node_global

       b. 设置系统变量,与用户一致也是path

五、所有设置均已完成,希望能帮助你。

Read more

【DeepSeek R1部署至RK3588】RKLLM转换→板端部署→局域网web浏览

【DeepSeek R1部署至RK3588】RKLLM转换→板端部署→局域网web浏览

本文为DeepSeek R1 7B 以qwen为底座的LLM在瑞芯微RK3588 SoC上的完整部署流程,记录从开发板驱动适配烧录开始,到最终的开发板终端访问模型和局域网web访问模型的完整流程,有不足之处希望大家共同讨论。 文章目录 * 一、项目背景介绍 * 二、所需工具介绍 * 1.硬件工具 * 1.X86 PC虚拟机Ubuntu20.04 * 2. 准备NPU驱动为0.9.8的RK3588开发板 * 2.软件工具 * 三、获取.safetensors模型权重 * 四、safetensors转RKLLM * 1.转换环境搭建 * 2.模型转换 * 五、RKLLM模型板端部署及推理 * 六、集成开源gradio工具实现web访问 一、项目背景介绍 先来介绍下项目背景吧,目前有一个空闲的firefly出厂的搭载瑞芯微RK3588 SoC的arm64开发板,样式如图所示: 博主之前主要进行CV领域的模型的RK开发板部署,对于LLM和VLM的接触并不算多,但现在大模型是趋势所向,并且瑞芯微及时的完成了针对各开源

想做多语言项目?试试Hunyuan-MT-7B-WEBUI快速部署方案

想做多语言项目?试试Hunyuan-MT-7B-WEBUI快速部署方案 你有没有遇到过这样的情况:手头有个跨境项目,要同时处理日语产品说明、西班牙语用户反馈、维吾尔语政策文件,甚至还有藏文古籍数字化需求——可翻来翻去,不是翻译质量差强人意,就是部署起来像在解一道高数题?在线工具不敢传敏感数据,本地跑模型又卡在CUDA版本、依赖冲突、显存爆炸上……最后只能靠人工硬啃,进度一拖再拖。 Hunyuan-MT-7B-WEBUI 就是为这种真实困境而生的。它不讲大道理,不堆参数,不做“实验室里的冠军”,而是把腾讯混元团队打磨出的最强开源翻译模型,连同网页界面、一键脚本、预装环境,全打包进一个镜像里。你不需要懂Transformer结构,不用查PyTorch兼容表,甚至不用打开终端敲命令——点一下,等两分钟,就能在浏览器里开始翻译38种语言。 这不是又一个“需要调参、需要写代码、需要配环境”的AI工具。这是你今天下午就能用上的多语言工作台。 1. 为什么这款翻译镜像值得你立刻试试? 1.1 它真能覆盖你没想过的语言 很多翻译模型标榜“支持多语言”,但实际打开列表一看:英、法、

前端实现Word文档在线编辑与导出:基于mammoth.js与Blob对象的完整解决方案

如何在浏览器中直接编辑Word文档并导出?本文将深入探索一种基于mammoth.js和Blob对象的完整技术方案。 在当今的Web应用开发中,实现文档的在线编辑与导出已成为常见需求。无论是企业内部系统、教育平台还是项目管理工具,都迫切需要让用户能够在浏览器中直接编辑Word文档,而无需安装桌面软件。本文将详细介绍如何利用mammoth.js和Blob对象实现这一功能,并对比其他可行方案。 一、为什么选择mammoth.js与Blob方案? 在Web前端实现Word文档处理,主要有三种主流方案:浏览器原生Blob导出、mammoth.js专业转换和基于模板的docxtemplater方案。它们各有优劣,适用于不同场景。 mammoth.js的核心优势在于它能将.docx文档转换为语义化的HTML,而非简单复制视觉样式。这意味着它生成的HTML结构清晰、易于维护和样式定制。配合Blob对象,我们可以轻松将编辑后的内容重新导出为Word文档。 与直接使用Microsoft Office Online或Google Docs嵌入相比,mammoth.js方案不依赖外部服务,能更好地

openclaw 钉钉 Webhook 完全指南

📮 钉钉 Webhook 完全指南 整理者:✨ 小琳 | 更新于 2026-02-05 一、基础知识 Webhook vs 插件 方式优点缺点OpenClaw 插件集成简单,双向通信只能回复,不能主动发Webhook 机器人支持主动推送,格式丰富单向,需要自己处理签名 结论:需要主动推送消息时,用 Webhook。 消息格式支持 格式插件Webhook纯文本✅✅Markdown✅✅链接卡片❌✅按钮卡片❌✅@ 用户❌✅ 二、@ 用户功能 核心原理 两个地方必须同时设置: 1. 消息内容中包含 @手机号 或 @所有人 2. JSON 的 at 字段中指定 atMobiles 或 isAtAll 缺一不可! JSON 示例 @ 所有人: