零成本上线个人项目 ——ngrok 仅穿透前端实现公网访问

开发个人项目时,想让他人访问往往需要购买服务器、配置域名解析,成本高且流程繁琐。

本文介绍一种零成本方案 —— 仅穿透前端即可实现内网个人项目的公网访问。

ngrok 账号注册与工具准备

首先在https://ngrok.com/ 官网注册一个账号,就能获得一个免费的dev结尾的域名。

注册好之后,下载对应的zip压缩包

在官网个人后台 / 仪表盘(Dashboard)可直接复制个人专属的 Authtoken。

分框架适配配置

如果前端是用 Vite + React 的项目,需要在 vite.config.js 文件加上allowedHosts这一行代码:

// vite.config.jsexportdefaultdefineConfig({server:{allowedHosts:['xxx.dev']// ngrok 域名}})

如果前端是基于 Umi Max + Ant Design Pro 的项目,前端默认是跑在 localhost:8000(umi dev),则需要修改2个文件。

1.config/config.ts

在文件里加上如下 proxy 部分:

// config/config.tsexportdefaultdefineConfig({// ... 其他配置 ... proxy:{'/api/':{ target:'http://localhost:[项目后端的端口号]', changeOrigin:true,// 根据后端实际路由决定是否 rewrite// 如果后端接口路径就是 /api/xxx 开头 → 不要 rewrite// 如果后端是 /user/xxx(无 /api 前缀) → 加下面这行// pathRewrite: { '^/api': '' },},},// ... 其他配置 ...});

这段只在 umi dev / npm run dev 时生效。

2.src/app.tsx

找到 request 配置,把 baseURL 相关全部注释或删除:

// src/app.tsxexportconst request: RequestConfig ={// !!! 下面这整段注释掉或删除 !!!// baseURL: "http://localhost:[项目后端的端口号]",// 保持这两个(ngrok 警告页绕过 + cookie 跨域) withCredentials:true, headers:{'ngrok-skip-browser-warning':'true',},...errorConfig,};

项目启动与公网访问

接下来,依次启动后端和前端,将之前下载好的压缩包解压后直接双击 exe 即可打开命令行,执行以下命令:

ngrok config add-authtoken [YourAuthtoken] ngrok http [项目前端的端口号]

复制 ngrok 生成的 https 地址,其他人就能够访问你的项目了。

Read more

对比测试:Fun-ASR与Whisper语音识别效果与速度差异

对比测试:Fun-ASR与Whisper语音识别效果与速度差异 在企业办公场景中,每天都有成百上千小时的会议录音、客服通话和培训音频亟待处理。如何高效地将这些声音“翻译”成可搜索、可分析的文字?这不仅是效率问题,更是数据资产化的核心环节。过去几年,语音识别技术突飞猛进,尤其是OpenAI推出的Whisper系列模型,一度被视为行业标杆。然而,在真实中文语境下——口音多样、术语密集、环境嘈杂——通用型模型的表现往往不尽如人意。 正是在这种背景下,钉钉联合通义实验室推出的Fun-ASR逐渐进入开发者视野。它不追求“支持99种语言”的广度,而是聚焦于一件事:把中文说得更准、转得更快、用得更稳。更重要的是,它不是一段代码或一个API,而是一整套可以本地运行、开箱即用的语音识别系统,自带Web界面、热词增强、批量处理和历史管理功能。对于需要私有化部署、保障数据安全的企业来说,这种设计思路显然更具现实意义。 那么,当Fun-ASR真正面对Whisper时,差距究竟在哪里?是精度更高,还是速度快到质变?又或者只是“本地可用”这一点就足以决定胜负? 我们不妨从一次真实的批量转写任务说起。 假

AIGC镜头控制完全教程:用Next Scene Qwen Image LoRA实现专业级视角变换

AIGC镜头控制完全教程:用Next Scene Qwen Image LoRA实现专业级视角变换 【免费下载链接】next-scene-qwen-image-lora-2509 项目地址: https://ai.gitcode.com/hf_mirrors/lovis93/next-scene-qwen-image-lora-2509 你是否曾经为AIGC生成的图像无法精准控制镜头角度而苦恼?🤔 传统文本描述往往难以准确传达复杂的相机运动意图,导致生成的画面与想象相去甚远。今天,我们将带你深入了解Next Scene Qwen Image LoRA模型,这是一款专门为AIGC镜头控制设计的强大工具,能够实现六自由度的精准相机操控。 快速上手:5分钟完成环境配置 系统要求检查清单: * Python 3.10或更高版本 * PyTorch 2.0+ * 显卡显存建议8GB以上 * ComfyUI最新版本 模型获取与安装: 1. 将下载的.safetensors文件复制到ComfyUI的loras目录 2. 安装必要依赖库 克隆项目仓库: git clo

【AIGC】Claude Code的三大模式

Claude Code 主要有三大核心权限/执行模式(默认、自动编辑、计划),以及思考强度模式、危险模式等辅助模式。 一、三大核心执行模式(权限控制) 这是最常用的三种模式,控制 Claude 对文件与命令的自动化程度,可通过 Shift+Tab 循环切换。 1. 默认模式(Normal / Manual Approval) * 状态栏:? for shortcuts * 行为:每次文件编辑、命令执行前都需要你手动批准(Y/N/跳过) * 适用:学习阶段、不熟悉的项目、重要/敏感修改、需要精细控制 * 特点:最安全、掌控感最强,但效率较低 2. 自动编辑模式(Auto-Accept / Accept Edits) * 状态栏:

DeepSeek-R1-Distill-Llama-8B部署教程:Docker Compose编排多模型推理服务

DeepSeek-R1-Distill-Llama-8B部署教程:Docker Compose编排多模型推理服务 你是不是也遇到过这样的问题:想快速试用一个新模型,却卡在环境配置上?装依赖、配CUDA、调参数……半天过去,连第一句“你好”都没跑出来。今天这篇教程,就带你绕过所有坑,用最轻量的方式——Docker Compose,把 DeepSeek-R1-Distill-Llama-8B 这个实力派小钢炮模型稳稳跑起来。它不是玩具模型,而是在AIME数学竞赛、MATH-500、CodeForces等硬核榜单上真实打榜的蒸馏成果,8B参数却跑出接近70B级的推理表现。更重要的是,整个过程不需要你装Python环境、不碰CUDA驱动、不改一行源码,一条命令启动,开箱即用。 我们不讲抽象概念,只聚焦三件事:怎么让模型跑起来、怎么让它听懂你的话、怎么把它变成你手边随时能调用的服务。无论你是刚接触大模型的开发者,还是想快速验证想法的产品同学,只要你会用终端,就能照着做,10分钟内看到结果。 1. 为什么选 DeepSeek-R1-Distill-Llama-8B? 1.1 它不是“又一