零成本上线个人项目 ——ngrok 仅穿透前端实现公网访问

开发个人项目时,想让他人访问往往需要购买服务器、配置域名解析,成本高且流程繁琐。

本文介绍一种零成本方案 —— 仅穿透前端即可实现内网个人项目的公网访问。

ngrok 账号注册与工具准备

首先在https://ngrok.com/ 官网注册一个账号,就能获得一个免费的dev结尾的域名。

注册好之后,下载对应的zip压缩包

在官网个人后台 / 仪表盘(Dashboard)可直接复制个人专属的 Authtoken。

分框架适配配置

如果前端是用 Vite + React 的项目,需要在 vite.config.js 文件加上allowedHosts这一行代码:

// vite.config.jsexportdefaultdefineConfig({server:{allowedHosts:['xxx.dev']// ngrok 域名}})

如果前端是基于 Umi Max + Ant Design Pro 的项目,前端默认是跑在 localhost:8000(umi dev),则需要修改2个文件。

1.config/config.ts

在文件里加上如下 proxy 部分:

// config/config.tsexportdefaultdefineConfig({// ... 其他配置 ... proxy:{'/api/':{ target:'http://localhost:[项目后端的端口号]', changeOrigin:true,// 根据后端实际路由决定是否 rewrite// 如果后端接口路径就是 /api/xxx 开头 → 不要 rewrite// 如果后端是 /user/xxx(无 /api 前缀) → 加下面这行// pathRewrite: { '^/api': '' },},},// ... 其他配置 ...});

这段只在 umi dev / npm run dev 时生效。

2.src/app.tsx

找到 request 配置,把 baseURL 相关全部注释或删除:

// src/app.tsxexportconst request: RequestConfig ={// !!! 下面这整段注释掉或删除 !!!// baseURL: "http://localhost:[项目后端的端口号]",// 保持这两个(ngrok 警告页绕过 + cookie 跨域) withCredentials:true, headers:{'ngrok-skip-browser-warning':'true',},...errorConfig,};

项目启动与公网访问

接下来,依次启动后端和前端,将之前下载好的压缩包解压后直接双击 exe 即可打开命令行,执行以下命令:

ngrok config add-authtoken [YourAuthtoken] ngrok http [项目前端的端口号]

复制 ngrok 生成的 https 地址,其他人就能够访问你的项目了。

Read more

【OpenClaw:赚钱】案例19、内容产量5倍、广告收入翻4倍:播客转多平台内容矩阵全自动化实战(OpenAI Whisper + Claude)

【OpenClaw:赚钱】案例19、内容产量5倍、广告收入翻4倍:播客转多平台内容矩阵全自动化实战(OpenAI Whisper + Claude)

内容产量5倍、广告收入翻4倍:播客转多平台内容矩阵全自动化实战(OpenAI Whisper + Claude) 本文拆解内容创业者社区真实案例:用AI自动化将单期播客拆解为跨平台内容矩阵,内容产量提升5倍,广告月收入从¥8,000暴涨至¥35,000。从音频转写、内容提炼到多平台草稿生成,手把手教你打造高效内容分发流水线。 一、案例背景:内容创作者的效率革命 1.1 核心数据与业务本质 一位科技类播客主通过AI自动化内容矩阵系统,实现了内容生产与商业收入的双重飞跃: 核心指标优化前优化后提升幅度单期内容产量1期播客1套完整内容矩阵(6类内容)+500%周更新频率1次/周5次/周+400%月广告收入¥8,000¥35,000+337.5%内容生产耗时8小时/期1小时/期-87.5%平台覆盖仅播客播客+公众号+小红书+微博+LinkedIn+短视频+500%

AIStarter一键安装ComfyUI黎黎原上咩7.0整合包教程:新手免费部署AI绘画神器

AIStarter一键安装ComfyUI黎黎原上咩7.0整合包教程:新手免费部署AI绘画神器

大家好!我是熊哥粉丝,今天分享ComfyUI黎黎原上咩整合包7.0在AIStarter平台的一键安装全攻略!咩姐(黎老师)的超强整合包已正式上架,解压即用、GPU/CPU切换,内置海量插件和工作流,完美适配Stable Diffusion AI绘画。 核心亮点 * 一键下载安装:市场搜索“comfyui黎黎原上咩”,优先高速/离线下载(782GB模型包),避免网速瓶颈。 * 智能启动:AIStarter自动打开浏览器,无黑框CMD,终端日志实时查看。aihubpro.cn * 模型管理:下载后一键配置到ComfyUI目录,支持插件/工作流导入,更新无需重下。 * 脚本模式:简单模式(咩姐默认)or 专业模式(多启动选项,自定义路径)。 安装步骤(5分钟上手) 1. 下载AIStarter(官网免费),打开市场。 2. 搜索黎黎原上咩7.0,点击添加

轻松内网部署:llama.cpp量化大模型运行指南!

轻松内网部署:llama.cpp量化大模型运行指南!

跑量化模型,LLama.cpp 还是方便,用 C/C++ 实现,性能很高,还支持的 CPU+GPU 做量化模型推理,命令行参数很精细,跑 GGUF 很方便。本文就详细介绍安装、运行全过程,中间踩坑无数,希望对大家有所帮助。 一、什么是 llama.cpp?为什么它如此重要? llama.cpp 的核心思想是让大模型运行在普通人的消费级硬件上。它通过以下关键技术实现了这一目标: * C/C++ 实现:没有复杂的 Python 依赖,编译后即是原生可执行文件,性能极高。 * 模型量化 (Quantization):将模型权重从传统的 32 位或 16 位浮点数,压缩成更小的整数(如 4 位、5

5步快速搭建:OpenAI Whisper本地语音转文字终极指南

5步快速搭建:OpenAI Whisper本地语音转文字终极指南 【免费下载链接】whisper-base.en 项目地址: https://ai.gitcode.com/hf_mirrors/openai/whisper-base.en 还在为语音转文字需求而烦恼吗?想要在本地设备上实现专业级的语音识别功能吗?今天我们将完整揭秘如何通过OpenAI Whisper模型,在个人电脑上搭建稳定高效的语音转文字系统。无论你是技术开发者还是AI爱好者,这套方案都能让你在30分钟内完成部署!🚀 为什么选择本地部署Whisper? 传统语音识别服务往往受限于网络环境和隐私顾虑,而本地化部署的Whisper模型提供了完美的解决方案。它不仅支持60多种语言的实时转录,还能在完全离线的环境下运行,确保你的音频数据绝对安全。 核心优势对比: | 特性 | 云端服务 | Whisper本地部署 | |------|----------|-----------------| | 数据隐私 | 数据上传云端 | 完全本地处理 | | 网络依赖 | 必须联网 | 完全离线运行 | | 成本控制 |