AI提示词管理工具AiShort

AI提示词管理工具AiShort
在这里插入图片描述

简介

什么是 AiShort?

AiShort (原名 ChatGPT Shortcut) 是一个精选的 AI 提示词库,能帮助用户更高效地使用大语言模型(LLM),例如 ChatGPT。它内置了大量经过优化和筛选的提示词,覆盖写作、编程、学术、求职等多种场景。用户只需一键复制,即可获得高质量的 AI 回复,极大地提升了工作和学习效率。

主要特点

  • 精选提示词库:内置上百个专业、实用的提示词,并持续更新。
  • 智能搜索与过滤:通过关键词搜索或标签分类,快速定位你需要的提示词。
  • 多语言支持:所有提示词均已翻译成十多种主流语言,方便不同母语的用户使用。
  • 一键复制:简化操作流程,点击即可复制提示词,直接粘贴到任何 AI 对话窗口。
  • 无需注册:用户无需注册即可立即开始使用,方便快捷。
  • 我的收藏(高级功能):用户可以保存喜欢的提示,并进行排序和自定义标签管理。
  • 导出功能:支持将所有提示导出为 JSON 格式,便于备份。
  • 自定义提示管理(高级功能):允许用户创建、编辑和管理自己的提示。
  • 浏览器扩展:提供 Chrome/Edge/Firefox 扩展,通过快捷键 Alt+Shift+S 即可在任何网页唤出侧边栏,随时使用。
  • 社区分享:用户可以分享、发现和评价来自社区的优秀提示词。
  • 支持自托管:提供 VercelCloudflareDocker 等多种方式进行私有化部署。

应用场景

AiShort 适用于所有希望提升 AI 交互效率的用户:

  • 内容创作者:快速生成文章大纲、标题、社交媒体文案。
  • 程序员:获取代码解释、重构建议、Bug 修复方案。
  • 学生与学者:辅助论文写作、润色、翻译和提取核心观点。
  • 市场营销人员:构思广告语、邮件营销文案和市场分析报告。
  • 所有 AI 用户:无需再费力思考如何提出好问题,让 AI 的回答更精准、更有效。

AiShort 凭借其便捷性和功能性,为各类用户提供了一个有效的 AI 提示管理解决方案。

如何使用

该项目使用方式非常灵活,你可以选择最适合自己的一种。

1. 访问官方网站

最简单的方式是直接访问官方网站,所有功能即开即用。

2. 浏览器扩展

安装浏览器扩展后,可以在任何页面通过 Alt+Shift+S 快捷键唤出 AiShort 侧边栏,无缝集成到你的工作流中。

安装完成后,可以在侧边栏打开

需要说明的是,浏览器扩展目前似乎不支持直接配置自定义后端 URL 来访问私有化部署的实例。这意味着,即使你部署了自己的 AiShort 服务,浏览器扩展仍然会默认从官方的 aishort.top 获取提示词数据。

3. Tampermonkey 脚本 (高级)

如果你是 Tampermonkey 用户,也可以安装 ChatGPT Shortcut Anywhere 脚本,在任何网站上启用 AiShort 侧边栏。

https://greasyfork.org/scripts/482907-chatgpt-shortcut-anywhere

自托管部署

对于希望数据私有化或进行二次开发的用户,AiShort 提供了多种自托管方案。

Vercel / Cloudflare 部署

你可以利用 VercelCloudflare Pages 的免费服务,一键 Fork 项目并进行部署,实现零成本线上托管。详细步骤请参考项目 README

Docker 部署

这是最常见的自托管方式之一。

本文写作时, latest 版本对应为 4.0.8

如果你熟悉命令行,可能用 docker cli 更快捷,只需一行命令即可启动服务。

# 新建文件夹 chatgpt-shortcut 和 子目录mkdir -p /volume1/docker/chatgpt-shortcut # 进入 chatgpt-shortcut 目录cd /volume1/docker/chatgpt-shortcut # 运行容器docker run -d \ --restart unless-stopped \ --name chatgpt-shortcut \ -p 3145:3000 \ ghcr.io/rockbenben/chatgpt-shortcut:latest 

也可以用 docker-compose 安装,将下面的内容保存为 docker-compose.yml 文件

version:"3.8"services:docsify:image: ghcr.io/rockbenben/chatgpt-shortcut:latest container_name: chatgpt-shortcut restart: unless-stopped ports:-"3145:3000"

然后通过 SSH 登录到您的群晖,执行下面的命令:

# 新建文件夹 chatgpt-shortcut 和 子目录mkdir -p /volume1/docker/chatgpt-shortcut # 进入 chatgpt-shortcut 目录cd /volume1/docker/chatgpt-shortcut # 将 docker-compose.yml 放入当前目录# 一键启动docker-compose up -d 

运行

启动后,在浏览器中输入 http://群晖IP:3145 即可访问你的私有 AiShort 实例


注册并登录后,可以添加自己的提示词

可以通过 Filters 进行过滤

挑了一个厨师为例

[饮食倾向] 改成了 [赣菜,中辣] 风格,推荐的前三道是 藜蒿炒腊肉赣南小炒鱼萍乡小炒肉

自托管不支持浏览器插件,所以似乎没什么必要非自己搭建

参考文档

rockbenben/ChatGPT-Shortcut: 🚀💪Maximize your efficiency and productivity. The ultimate hub to manage, customize, and share prompts. (English/中文/Español/العربية). 让生产力加倍的 AI 快捷指令。更高效地管理提示词,在分享社区中发现适用于不同场景的灵感。
地址:https://github.com/rockbenben/ChatGPT-Shortcut
AiShort - AI提示词库 | 精选Prompt模板,即刻提升AI效率 | AiShort - Advanced AI Agent & Prompt Platform | Build, Share, and Multiply Productivity with One Click
地址:https://www.aishort.top/
AI Short 入门指南 | 复制提示词到 ChatGPT/DeepSeek | AiShort - Advanced AI Agent & Prompt Platform | Build, Share, and Multiply Productivity with One Click
地址:https://www.aishort.top/docs/guides/getting-started

Read more

一键换装魔法:基于ComfyUI工作流的Stable Diffusion服装替换指南

文章目录 * 一、Stable Diffusion与ComfyUI工作流基础 * 二、工作流获取:从社区到管理器一键部署 * 途径1:专业工作流社区(推荐新手) * 途径2:ComfyUI Manager(高阶扩展) * 三、换装工作流详解:以ComfyUI为例 * 工作流结构拆解 * 关键节点说明 * 模型准备清单 * 四、实战演示:一键换衣全流程 * 五、进阶应用:跨次元换装与3D生成 * 六、常见问题排查 * 结语:工作流的未来 Stable Diffusion作为当前最热门的开源文生图模型,在图像生成领域掀起了一场革命。其最新版本Stable Diffusion 3 Medium(2024年发布)包含20亿参数,在图像质量、复杂提示理解及资源效率方面实现显著突破,能生成细节逼真、色彩鲜艳且光照自然的图像。而ComfyUI作为基于节点的工作流界面,通过可视化连接处理模块,为复杂任务(如图像重绘、视频生成、服装替换等)提供了灵活且可复现的解决方案。

llama.cpp量化模型部署实战:从模型转换到API服务

1. 为什么你需要关注llama.cpp:让大模型在普通电脑上跑起来 如果你对AI大模型感兴趣,肯定听说过动辄需要几十GB显存的“庞然大物”。想在自己的电脑上跑一个7B参数的模型,以前可能得配一张昂贵的专业显卡。但现在,情况不一样了。我今天要跟你聊的 llama.cpp,就是那个能让大模型“瘦身”并飞入寻常百姓家的神奇工具。 简单来说,llama.cpp是一个用C/C++编写的开源项目,它的核心目标只有一个:用最高效的方式,在消费级硬件(比如你的笔记本电脑CPU)上运行大型语言模型。它不像PyTorch那样是个庞大的深度学习框架,它更像一个“推理引擎”,专注于把训练好的模型,以最小的资源消耗跑起来。 我刚开始接触大模型部署时,也被各种复杂的依赖和巨大的资源需求劝退过。直到用了llama.cpp,我才发现,原来在我的MacBook Pro上,也能流畅地和Llama 2这样的模型对话。这背后的功臣,主要就是两点:纯C/C++实现带来的极致性能,以及模型量化技术带来的体积与速度革命。量化这个词听起来有点技术,你可以把它想象成给模型“压缩图片”

AI编程工具对比:Cursor、GitHub Copilot与Claude Code

AI编程工具对比:Cursor、GitHub Copilot与Claude Code

文章目录 * AI编程工具对比:Cursor、GitHub Copilot与Claude Code * 一、产品定位与核心架构 * 1.1 Cursor:AI原生IDE的代表 * 1.2 GitHub Copilot:代码补全的行业标杆 * 1.3 Claude Code:终端Agent的革新者 * 二、核心功能深度对比 * 2.1 代码生成与理解能力 * 2.2 自动化与工作流集成 * 2.3 隐私与数据安全 * 三、成本效益分析 * 3.1 定价模式对比 * 3.2 投资回报比 * 四、适用场景与用户画像 * 4.1 最佳应用场景 * 4.2 用户反馈摘要 * 五、

《Whisper模型版本及下载链接》

《Whisper模型版本及下载链接》

Whisper模型版本及下载链接 Whisper是OpenAI开发的语音识别模型,以下按模型规模从小到大排列,包含不同语言版本及通用版本: 1. Tiny系列(轻量级) * tiny.en.pt(英文专用): https://openaipublic.azureedge.net/main/whisper/models/d3dd57d32accea0b295c96e26691aa14d8822fac7d9d27d5dc00b4ca2826dd03/tiny.en.pt * tiny.pt(多语言通用): https://openaipublic.azureedge.net/main/whisper/models/65147644a518d12f04e32d6f3b26facc3f8dd46e5390956a9424a650c0ce22b9/tiny.pt 2. Base系列(基础版) * base.en.pt(英文专用): https://openaipublic.azureedge.net/main/whisper/models/25a8566e1d0