PinMe——极简、免费和无需服务器的开源前端部署工具

PinMe——极简、免费和无需服务器的开源前端部署工具

PinMe是一个开源的前端部署工具,它通过将静态网站文件上传到去中心化的IPFS网络来实现快速发布,主打极简、免费和无需服务器,目前Github 1.7k stars。

Github地址:https://github.com/glitternetwork/pinme

PinMe 的官方网站:https://pinme.eth.limo/

如何使用PinMe?

包含两种部署方式,都可实现快速极简部署

方式一:Deploy from Terminal(使用命令行的方式)

全局安装:

npm install -g pinme

上传已经打包后的项目文件:

pinme upload <folder/file-path>

成功上传文件并完成部署后点击链接即跳转PinMe官网,显示项目详情(包含项目网页预览)与简化后的项目链接:

点击"Your Site Link"下的链接即可实现网页跳转,打开部署完成的项目,该链接长期有效可以分享给他人使用:

方式二:Deploy from Browser(浏览器可视化界面)

打开PinMe官网:https://pinme.eth.limo/

如果是单文件网页项目,直接选择上传File:

如果是多文件项目,直接选择上传Folder:

把文件拖进后等带上传完成:

上传成功后会自动跳转并可以拿到一个可以分享访问的链接:

PinMe核心特性:

  1. 核心优势:免费、无需服务器/账号、去中心化、内容不可篡改
  2. 部署方式:网页拖拽上传(无命令)、命令行CLI一键上传
  3. 生成链接:免费的 .eth.limo 短链接,可绑定个人ENS域名
  4. 适用场景:个人简历、作品集、项目Demo、AI生成页面、临时活动页等
  5. 技术原理:基于 IPFS (存储) + ENS (域名),实现去中心化访问

使用注意事项:

PinMe仅支持静态资源(HTML、CSS、JS、图片),不支持需要服务器端运行的程序(如PHP、数据库)。

首次访问时,由于IPFS网络需要寻址和缓存,速度可能略慢于传统CDN,但后续访问会加快。

由于IPFS基于内容哈希寻址,文件任何改动都会产生一个全新的、不同的链接,原链接内容保持不变。这是去中心化存储的特性,而非缺陷。

更好的使用体验:

PinMe虽然是一个免费的开源工具,但是也提供会员服务:

会员支持每月10个定制子域、每次上传的最大文件大小可达2G,每月无限次上传量,总存储空间达100GB。但是个人认为免费版本已经非常适合大部分个人开发者的大部分需求了,PinMe还是非常良心慷慨的。

总结

        PinMe在追求部署速度、零成本和内容自主权的场景下是一个利器。十分适合用来展示AI生成的项目,如Gemini3生成的前端项目来极简部署并展示运行,在工作中也非常适合用来给客户展示一个前端界面或者项目,而无需在生产环境下运行项目。

        但如果你需要动态功能、自定义域名SSL或极致的首次加载速度,Vercel、Netlify等传统托管平台仍是更全面的选择。

Read more

OpenSpec 完全使用指南:用规格驱动 AI 编码

OpenSpec 完全使用指南:用规格驱动 AI 编码

🚀 OpenSpec 完全使用指南:用规格驱动 AI 编码 摘要:如果你正在用 AI 写代码,却总觉得"沟通成本"比"写代码"还高——OpenSpec 可能是你一直缺的那块拼图。本文是我整理的日常使用 OpenSpec 的实战指南。 一、AI 编码的真正瓶颈不是代码,是对齐 🎯 用 AI 结对编程一段时间后,你大概率会遇到几个反复出现的问题: 🔴 常见痛点 1. 沟通成本高 你花了两段话描述一个功能,AI 听起来像是懂了,写出来的代码却跑偏了。你纠偏、它重来,几轮下来上下文窗口已经被消耗大半,真正写代码的空间反而不剩多少。 2. 上下文丢失 好不容易和 AI 对齐了设计思路,实现完一个功能。过两天打开新对话继续下一个功能,之前的所有讨论、

AI 中的skill、mcp和 Function Call

AI 中的skill、mcp和 Function Call

Skill(技能)、MCP(模型上下文协议) 和 Function Call(函数调用) 这三个概念。 简单来说,你可以这样理解: * Function Call 是基础的、标准的“能力调用机制”。 * Skill 是面向用户的、打包好的“功能产品”。 * MCP 是连接 AI 与外部资源和工具的“新一代通信协议”。 1. Function Call(函数调用) 这是最基础、最广泛使用的概念,主要由 OpenAI 在 2023 年 6 月引入并普及。 * 是什么: 一种让大语言模型(如 GPT-4)能够智能地决定在何时、以何种参数调用开发者预先定义好的函数(或工具) 的机制。它不是直接执行代码,而是输出一个结构化的调用请求。 * 如何工作: 1.

AI提示词管理工具AiShort

AI提示词管理工具AiShort

简介 什么是 AiShort? AiShort (原名 ChatGPT Shortcut) 是一个精选的 AI 提示词库,能帮助用户更高效地使用大语言模型(LLM),例如 ChatGPT。它内置了大量经过优化和筛选的提示词,覆盖写作、编程、学术、求职等多种场景。用户只需一键复制,即可获得高质量的 AI 回复,极大地提升了工作和学习效率。 主要特点 * 精选提示词库:内置上百个专业、实用的提示词,并持续更新。 * 智能搜索与过滤:通过关键词搜索或标签分类,快速定位你需要的提示词。 * 多语言支持:所有提示词均已翻译成十多种主流语言,方便不同母语的用户使用。 * 一键复制:简化操作流程,点击即可复制提示词,直接粘贴到任何 AI 对话窗口。 * 无需注册:用户无需注册即可立即开始使用,方便快捷。 * 我的收藏(高级功能):用户可以保存喜欢的提示,并进行排序和自定义标签管理。 * 导出功能:支持将所有提示导出为

AI agent:介绍 ZeroClaw 安装,使用

ZeroClaw 是一款纯 Rust 编写、超轻量、高性能的 AI Agent 运行时,主打极低资源占用、快速启动与多模型/多通道接入,适合本地/嵌入式/服务器部署。 一、ZeroClaw 核心介绍 ZeroClaw 定位为轻量级 AI 助手基础设施,核心优势: * 极致轻量:编译后仅约 3.4MB 单文件二进制,运行内存 < 5MB,启动 < 10ms。 * 纯 Rust 实现:无 Node.js 依赖,安全、稳定、内存安全。 * 多模型兼容:原生支持 22+ AI 服务商(OpenAI、