记录自己第一次将React 编写的前端部署到服务器,实现外网访问

0.  本地项目添加配置

  1. 在本地 VS Code 打开项目。
  2. 打开根目录下的 vite.config.js 文件。

在 plugins 同级的位置,添加一行 base 配置:

import { defineConfig } from 'vite' import react from '@vitejs/plugin-react' // https://vitejs.dev/config/ export default defineConfig({ plugins: [react()], base: '/delayed-coking-demo/', // <--- 加上这一行,注意前后都有斜杠 })

1. 在你的开发电脑(本地)VS Code 终端运行,确保根目录下生成了dist 文件夹。

npm run build

2. 在服务器上安装 Nginx

远程桌面的那个 Windows 里操作(就像操作你自己的电脑一样):

  1. 下载 Nginx
    • 打开服务器里的 Edge 浏览器(或者你在本地下载好,复制粘贴进去)。
    • 访问:http://nginx.org/en/download.html
    • 下载 Stable version 下面的 nginx/Windows-1.xx.x (zip格式)。
  2. 解压
    • 将下载的压缩包解压到 C 盘根目录,例如:C:\nginx
    • 打开这个文件夹,你会看到 nginx.exe 和 confhtml 等文件夹。

3 . 上传你的项目代码

  1. 回到远程桌面(服务器)
  2. 进入 C:\nginx-1.28.1\html 文件夹。
  3. 新建一个文件夹,命名为 delayed-coking-demo
  4. 把你刚刚重新打包生成的本地 dist 文件夹里面的所有内容(index.html, assets 等),复制粘贴到服务器的这个新文件夹里。

4. 修改 Nginx 配置 (解决路由刷新 404)

worker_processes 1; events { worker_connections 1024; } http { include mime.types; default_type application/octet-stream; sendfile on; keepalive_timeout 65; # --- 这里开始是 Server 配置 --- server { listen 80; server_name localhost; # 1. 默认根目录 (访问 http://ip 时显示的内容) # 只要 html 文件夹里有 index.html,这里就会显示 location / { root html; index index.html index.htm; } # 2. 你的新项目 (访问 http://ip/delayed-coking-demo 时显示) # 请确保你已经在 html 文件夹里新建了 delayed-coking-demo 文件夹 # 并把 build 好的代码放进去了 location /delayed-coking-demo { root html; index index.html; # 这里的路径必须和你的 base 保持一致 try_files $uri $uri/ /delayed-coking-demo/index.html; } error_page 500 502 503 504 /50x.html; location = /50x.html { root html; } } # --- Server 配置结束 --- }

5 . 启动 Nginx

  1. 在服务器文件夹里,双击 nginx.exe
    • 注意:双击后屏幕会闪一下黑框然后消失,这是正常的!它已经在后台运行了。
    • 如果有防火墙弹窗,请点击“允许访问”
  2. 验证是否运行:打开服务器里的 Edge 浏览器,访问 http://localhost。如果能看到你的延迟焦化系统,说明服务器内部部署成功了

6 . 最关键的一步 —— 阿里云安全组配置

这是新手最容易卡住的地方。即使服务器里配置好了,阿里云的外部防火墙如果不放行,外网还是进不去。

  1. 回到你的阿里云网页控制台(就是你截图的那个页面)。
  2. 点击页面中间的选项卡 “网络与安全组”
  3. 找到 “安全组配置” 或 “配置规则” 链接点击进入。
  4. 点击右上角的 “添加安全组规则”(或手动添加):
    • 端口范围:输入 80/80 (或者是 HTTP 80)。
    • 授权对象 (源 IP):输入 0.0.0.0/0 (表示允许全世界访问)。
    • 协议类型:TCP。
    • 策略:允许。
  5. 保存规则。

7.  外网, 输入 http://公网ip/delayed-coking-demo ,就可以访问到项目了

Read more

比迪丽AI绘画多设备协同:PC生成→手机审核→平板标注工作流

比迪丽AI绘画多设备协同:PC生成→手机审核→平板标注工作流 1. 引言:当AI绘画遇上多屏协作 想象一下这个场景:你在电脑前用AI生成了一张比迪丽的角色图,效果还不错,但总觉得眼神差了点意思。你拿起手机,在沙发上放大图片仔细端详,发现确实需要调整。接着,你拿起平板电脑,用触控笔直接在图片上圈出需要修改的区域,写下批注。第二天回到电脑前,你根据批注调整提示词,很快就得到了满意的作品。 这不是科幻电影里的场景,而是我今天要分享的比迪丽AI绘画多设备协同工作流。作为一名长期使用Stable Diffusion、FLUX等AI绘画工具的内容创作者,我发现单设备工作流程存在明显的瓶颈——创作、审核、修改这三个环节被限制在同一块屏幕上,效率低下且容易疲劳。 比迪丽(Videl)作为《龙珠》中的人气角色,有着独特的动漫气质。无论是SDXL、FLUX.1还是ComfyUI,通过LoRA模型输入bidili、videl或比迪丽关键词,都能生成风格各异的角色图。但如何高效地管理从创意到成品的全过程?多设备协同给出了答案。 本文将带你搭建一套完整的PC生成→手机审核→平板标注工作流,让你在不同

AI绘画新范式:ComfyUI可视化工作流全攻略

AI绘画新范式:ComfyUI可视化工作流全攻略 在AI生成图像变得触手可及的今天,越来越多创作者发现——真正难的不是“画出来”,而是“稳定地、可重复地、精准地画出想要的结果”。当你好不容易调出一张惊艳的作品,却因为参数没记全、步骤顺序错乱而无法复现时,那种挫败感几乎让所有灵感戛然而止。 这正是ComfyUI崛起的核心土壤。它不追求一键生成的“傻瓜式”体验,而是反其道而行之:把整个AI绘画过程彻底拆解、暴露、重组,变成一条条清晰可见的数据管道。你不再是在“猜”模型会怎么反应,而是在“指挥”每一步该做什么。 传统WebUI工具像是一台封装严密的相机——自动对焦、自动曝光、自动滤镜,拍出来不错,但你想微调白平衡或手动控制快门?对不起,选项藏得太深。而ComfyUI则像是一套模块化摄影系统:三脚架、镜头、灯光、快门线全部独立可换,你可以自由组合,甚至接上外置控制器做延时拍摄。 它的底层逻辑是数据流编程(Dataflow Programming):每个功能被抽象为一个“节点”,比如加载模型、

别踩坑!虎贲等考AI双控术:一键搞定降重与去AIGC痕迹

别踩坑!虎贲等考AI双控术:一键搞定降重与去AIGC痕迹

“查重率12%达标了,却被AIGC检测揪出50%机器痕迹”——这是当下论文党最头疼的双重困境。随着高校检测技术升级,论文安全早已不是“降重就够”,而是要同时守住“重复率”与“AIGC率”两道防线。不少同学陷入“越改越乱”的循环:单纯降重会放大AI机械感,强行去痕迹又导致查重率反弹。作为深耕论文科普的博主,实测多款工具后发现,虎贲等考AI智能写作平台(官网:https://www.aihbdk.com/)的双控功能,彻底打破这一矛盾,用“语义重构+人工质感注入”技术,实现降重、去AIGC痕迹同步落地,让论文既合规又自然。 先厘清一个核心误区:降重和降AIGC根本是两回事,盲目操作只会顾此失彼。降重针对“文字重复度”,解决与已有文献撞车的问题;降AIGC针对“机器表达特征”,解决语句生硬、逻辑模板化的问题。传统工具要么只改字面不改逻辑,要么只去痕迹不顾重复,而虎贲等考AI的核心优势,就是让两者协同优化,实现“

在Windows11利用llama.cpp调用Qwen3.5量化模型测试

1.下载llama.cpp二进制文件 访问 https://github.com/ggml-org/llama.cpp/releases 或者 https://bgithub.xyz/ggml-org/llama.cpp/releases 选择适合自己平台的。我没有独立显卡,所以选择CPU版本 https://bgithub.xyz/ggml-org/llama.cpp/releases/download/b8192/llama-b8192-bin-win-cpu-x64.zip 解压到\d\llama8\目录。 2.下载量化模型 按照 章北海mlpy 公众号:Ai学习的老章~ID:mindszhang666 写的知乎文章Qwen3.5 0.8B/2B/