前端环境配置(nvm、nodejs、npm)

前端环境配置(nvm、nodejs、npm)

一、安装nvm

1. 下载vnm

url: https://nvm.uihtm.com/doc/download-nvm.html

2. 解压文件后双击exe文件进行安装

3. 选择nvm的安装地址,我是安装在D:\App\nvm

4. 选择nodejs的安装地址,我是安装在C:\Program Files\nodejs

5. 点击next 一直点击 完成安装;

6. 找到nvm的settings.txt文件打开后:

给该文件添加这两行命令:

node_mirror: https://npmmirror.com/mirrors/node/
npm_mirror: https://npmmirror.com/mirrors/npm/

二、环境变量配置

1. 右击计算机

2.点击属性

3.选择高级系统设置

4.点击环境变量

5.查看环境变量是否配置(默认nvm安装成功后,自动配置):

三、验证nvm是否安装成功

打开cmd,输入nvm -v 或 nvm version 或 nvm --version (三选一即可)

四、安装node.js

1. 通过nvm 指令安装node.js

重新打开cmd,输入对应的指令:

①  安装指定nodejs版本:                       nvm install + nodejs版本号 

②  查询已安装nodejs版本列表:         nvm list 

③ 使用对应的版本的nodejs:                 nvm use + nodejs 版本号

如: 

      nvm install 14.20.0                             -- 安装14.20.0版本的nodejs

      nvm use 14.20.0                                -- 使用14.20.0版本的nodejs

2. 检查是否安装成功

    安装成功后会自动新建对应的文件夹

3. node环境变量配置

① 在nvm的安装目录新建两个文件夹node_global和node_cache

② 创建完两个文件夹后,在cmd窗口中输入以下命令(两个路径即是两个文件夹的路径):

npm config set prefix "D:\App\nvm\node_global"
npm config set cache "D:\App\nvm\\node_cache"

③ 设置环境变量(步骤同nvm环境变量设置)

     a. 设置用户变量 前两个会自动创建,仅需要手动New node_global

       b. 设置系统变量,与用户一致也是path

五、所有设置均已完成,希望能帮助你。

Read more

龙虾机器人(OpenClaw)本地部署完全技术指南

龙虾机器人(OpenClaw)本地部署完全技术指南

龙虾机器人(OpenClaw)本地部署完全技术指南 前言:什么是“龙虾机器人”? 在开始部署之前,我们需要明确部署的对象。通常所说的“龙虾机器人”指的是开源项目 OpenClaw(曾用名:Clawdbot、Moltbot)。它由程序员彼得·斯坦伯格开发,是一个开源的、可本地部署的通用型AI代理系统。与ChatGPT等对话式AI不同,OpenClaw被赋予了操作系统的权限:它可以执行终端命令、读写文件、操控浏览器、安装软件,甚至通过MCP协议调用外部工具。 由于其强大的系统操控能力,安全性是部署时需关注的首要问题。官方及社区普遍建议:不要在主力机或存有敏感数据的生产环境直接裸奔部署,最好使用虚拟机、Docker容器或专用硬件(如Mac Mini或AI开发盒子)进行隔离。 第一章:环境准备与核心依赖 在安装OpenClaw之前,必须准备好运行环境。OpenClaw的核心由TypeScript编写,因此Node.js是必不可少的运行环境。此外,根据安装方式的不同,可能还需要Git、Docker或Python环境。 1.1 硬件建议与系统选择 * Linux

笔记? 或许吧 (初学web

目录 攻防世界 1. Training-WWW-Robots AI robots协议概述 robots.txt文件规则 注意事项 高级用法 验证工具 2.PHP2 关于 index.phps 的解释 常见用途 配置方法 注意事项 攻防世界 1. Training-WWW-Robots 不难发现robots.txt  但是不知道是什么问问AI找到是个协议 再问robots协议 下面是AI查询结果 AI robots协议概述 robots协议(Robots Exclusion Protocol)是网站通过robots.txt文件告知搜索引擎哪些页面或目录可以被爬取,哪些应被禁止的规范。该协议属于自愿遵守的行业标准,并非强制性技术约束。 robots.txt文件规则 * 基本语法: * User-agent: 指定适用的爬虫名称(如*表示所有爬虫)。 * Disallow: 禁止爬取的路径(如Disallow: /private/

WebMCP 学习指南

WebMCP (Web Model Context Protocol) 是一个新兴的 W3C 提案,旨在让网站能够向 AI 代理暴露结构化工具,使 AI 能够可靠地与网页应用交互。 目录 1. 什么是 WebMCP? 2. 为什么需要 WebMCP? 3. WebMCP 与 MCP 的区别 4. 核心概念 5. 环境准备与安装 6. 如何使用 WebMCP(详细指南) 7. Vue 框架集成(详细步骤) 8. 声明式 API 9. 安全最佳实践 10. 开发与调试 11. 参考 Demo 实战演练(小白教程)

5分钟部署通义千问3-14B:ollama-webui双模式一键启动指南

5分钟部署通义千问3-14B:ollama-webui双模式一键启动指南 1. 引言 1.1 业务场景描述 在当前大模型应用快速落地的背景下,开发者和企业对高性能、低成本、易部署的本地化推理方案需求日益增长。尤其在资源有限的单卡环境下,如何实现接近30B级别模型的推理能力,成为技术选型的关键挑战。 通义千问Qwen3-14B的开源为这一难题提供了极具吸引力的解决方案。其148亿参数全激活Dense架构,在FP8量化下仅需14GB显存即可运行,RTX 4090等消费级显卡即可全速推理,真正实现了“单卡可跑、双模式切换、长上下文支持”的工程目标。 1.2 痛点分析 传统大模型部署存在三大痛点: * 显存占用高:多数14B以上模型fp16加载需超24GB显存,难以在消费级GPU运行 * 部署复杂:依赖vLLM、TGI等服务框架,配置繁琐,调试成本高 * 功能单一:缺乏灵活的推理模式切换机制,无法兼顾质量与延迟 现有方案如直接使用HuggingFace Transformers或vLLM虽性能强劲,但对新手不够友好,且难以快速验证效果。 1.3 方案预告 本文将介绍