2025 最全的 10 大 AI提示库网站汇总

2025 最全的 10 大 AI提示库网站汇总

以下是综合 2025 年最新资源整理的全球顶级AI 提示词、GPT 提示词、豆包提示词、Deepseek 提示词等 LLM 大模型提示词库网站推荐,覆盖图像、文本、视频等多模态场景,结合功能特性与实际应用价值分类呈现:

1. PromptHero

  • 核心优势:全球最大提示词库之一,覆盖 Stable Diffusion、Midjourney、ChatGPT 等 30 + 主流模型,拥有 200 万条实测提示词。2025 年新增中文界面支持,中文搜索准确率比国际平台高 3 倍,支持拼音首字母速搜(如 “xnsm” 查 “仙女人设”)。
  • 网址: https://prompthero.com/

2. From2045

  • 核心优势:全球最大提示词共享社区,积累超 5000 万条优质提示词,覆盖文生图、图生视频、3D 建模等跨模型创作。2025 年新增多模态提示词优化引擎,支持中文深度优化,古风、电商文案等场景精准度达 92%。

3. 65960

  • 核心优势:Stable Diffusion 官方指定图库,每张生成图片附带完整提示词及技术参数(如采样步数、CFG scale),支持按艺术风格(如 “超现实主义”)、艺术家(如 “Alberto Giacometti”)多维度过滤。
  • 特色功能

4. Midlibrary

  • 核心优势:Midjourney 专属风格库,收录超百位摄影师 / 画家风格模板(如 “Ansel Adams 风光摄影”“Studio Ghibli 动画”),提供 Midjourney 历代版本效果对比(V5.2 vs V6)http://midlibrary.io

5. PromptoMANIA

  • 核心优势:可视化提示词生成器,通过勾选 “构图类型”“色彩方案”“材质纹理” 等元素自动组装复杂指令,降低新手门槛。

6. PromptBase

  • 核心优势:全球最大提示词交易市场,覆盖 ChatGPT、Claude、Midjourney 等工具,提供 200 + 领域模板(如 “小红书爆款文案”“商业计划书”),单条提示词售价 $1.99 起。

7. SaaS Prompts

  • 核心优势:专为 SaaS 创业者打造的免费提示词库,收录 500 + 实战模板(如 “客户留存策略”“竞品分析框架”),覆盖产品开发、营销策略、融资路演全生命周期。

8. Sora2 官方提示词库

  • 核心优势:OpenAI Sora 视频生成器专属资源库,提供 48 个官方认证提示词模板(如 “机器人赛博朋克生活故事”“纽约水下城市”),覆盖电影级镜头语言(如 “35mm 胶片质感”“无人机俯拍”)。

9. Visual Prompt Builder

  • 核心优势:拖拽式多模态提示词工厂,支持文生图、图生视频、3D 建模参数联动。2025 年新增 Sora 视频生成模块,输入 “赛博朋克雨夜” 可自动生成包含镜头运动(如 “推轨镜头”)、光影变化(如 “霓虹灯光闪烁”)的完整脚本。

10. Krea.ai

  • 核心优势:设计师友好型灵感平台,类似 Pinterest 的视觉发现界面,支持搜索 “UI 设计”“空间设计” 等专业领域提示词。2025 年新增 AI 风格分析功能,上传图片可自动识别 “极简主义”“孟菲斯设计” 等风格标签并推荐关联提示词。

Read more

2026-01-14 学习记录--LLM-申请Hugging Face 访问令牌(以Meta-Llama-3.1-8B-Instruct为例)

2026-01-14 学习记录--LLM-申请Hugging Face 访问令牌(以Meta-Llama-3.1-8B-Instruct为例)

LLM-申请 Hugging Face 访问令牌(以Meta-Llama-3.1-8B-Instruct为例) 一、请求访问Llama模型 ⭐️ 随便进入想要访问的Llama模型,这里展示的是Meta-Llama-3-8B-Instruct。 1、 点击链接,申请访问Llama模型 2、 填写相关申请信息,注意如下:👇🏻(1)、国家最好选「美国」,然后填 「美国的大学」;(2)、操作这一步时,节点需要是对应国家的节点(若是美国,那么节点也要是美国)。 3、 提交成功后,就可开始申请Llama模型的Hugging Face 访问令牌啦~ 二、申请Llama模型的Hugging Face 访问令牌(以Meta-Llama-3.1-8B-Instruct为例)⭐️ 1、判断是否需要申请 访问Meta-Llama-3.1-8B-Instruct模型在Hugging Face上的官方仓库。 假若你看见“You need to agree to share your

Ollama 底层的 llama.cpp 和 GGUF

GGUF = 大模型权重的「通用压缩格式」(类似视频的 MP4,适配所有播放器) llama.cpp = 跑 GGUF 格式模型的「轻量级推理引擎」(类似视频播放器,能在低配电脑上流畅播 MP4) 两者配合:GGUF 让模型体积变小、适配性强,llama.cpp 让模型能在 CPU / 低配 GPU 上快速跑 这也是 Ollama 能做到 “一键本地运行” 的底层原因 GGUF 详解:大模型的 “通用压缩包” 核心定义 GGUF(Generic GGML Format)是 GGML 格式的升级版,是专门为大模型权重设计的二进制存储格式 核心目标是「通用、高效、压缩」 GGML 是什么?

开源浪潮下的中国力量:文心一言大模型本地部署与应用全攻略

开源浪潮下的中国力量:文心一言大模型本地部署与应用全攻略

文章目录 * 一、前言 * 1.1 模型开源意义与背景 * 1.2 文心一言大模型简介 * 1.3 测评目标与思路 * 二、文心一言大模型 * 2.1 文心一言开源概况 * 2.2 文心一言大模型技术综述 * 三、文心一言大模型深度解析 * 3.1 开源策略与生态影响 * 3.1.1 开源时间与版本介绍 * 3.2 模型特性与优势 * 四、部署实战:从 GitCode下载ERNIE-4.5-0.3B 模型到本地可交互服务 * 4.1 环境准备与部署方式 * 4.2 下载与安装步骤 * 4.3 调用示例与接口说明 * 编写部署测试脚本 * 五、

彻底解决llama.cpp项目CUDA编译难题:从环境配置到性能优化全指南

彻底解决llama.cpp项目CUDA编译难题:从环境配置到性能优化全指南 【免费下载链接】llama.cppPort of Facebook's LLaMA model in C/C++ 项目地址: https://gitcode.com/GitHub_Trending/ll/llama.cpp 你是否在编译llama.cpp时遭遇过CUDA相关的"nvcc not found"错误?是否尝试启用GPU加速却始终无法识别显卡?本文将系统梳理llama.cpp项目中CUDA编译的常见问题,提供从环境配置到高级优化的完整解决方案,让你的NVIDIA显卡充分释放AI计算潜能。 CUDA编译基础与环境检查 llama.cpp通过CUDA后端实现NVIDIA GPU加速,其核心配置位于CMakeLists.txt构建系统中。官方推荐的基础编译命令看似简单: cmake -B build -DGGML_CUDA=ON