Jan:一款支持 100% 本地运行的开源 LLM 客户端
Jan 是一款开源的本地大模型客户端,支持在 Windows、Mac 和 Linux 系统上 100% 离线运行。它基于 Llama.cpp 构建,支持 Nvidia GPU 和 Apple M 系列芯片加速,具备本地数据存储、OpenAI API 兼容性及插件扩展能力。用户可以通过二进制包或源码方式进行安装,内置模型 Hub 可下载 GGUF 格式模型。本文详细介绍了 Jan 的核心特性、安装步骤、模型管理及 API 集成方法,适用于希望构建私有化 AI 应用的开发者。


