基于 Ollama 搭建本地大模型部署指南
本文介绍了在本地环境中使用 Ollama 部署大语言模型的完整流程。涵盖 Windows/Linux 系统下的安装步骤、环境变量配置、模型下载与运行方法,以及通过 Node.js 构建聊天界面的操作指南。此外还包括如何在 VS Code 中集成 Ollama 插件进行开发辅助,并提供了常用命令参考及性能优化建议,帮助用户快速实现本地 AI 能力落地。

本文介绍了在本地环境中使用 Ollama 部署大语言模型的完整流程。涵盖 Windows/Linux 系统下的安装步骤、环境变量配置、模型下载与运行方法,以及通过 Node.js 构建聊天界面的操作指南。此外还包括如何在 VS Code 中集成 Ollama 插件进行开发辅助,并提供了常用命令参考及性能优化建议,帮助用户快速实现本地 AI 能力落地。

访问官网下载对应操作系统的安装包。
curl -fsSL https://ollama.com/install.sh | sh
建议添加 OLLAMA_HOST 变量以指定服务地址(可选)。
默认模型路径为:
C:\Users\{用户}.ollama\models
如果修改到其他盘符,可能会产生大量磁盘 IO,影响生成速度。建议使用默认位置。
环境变量修改完成后,记得重启 Ollama 服务使配置生效。
选择合适的模型并运行对应的命令。例如运行 Gemma 2B 模型:
ollama run gemma:2b
该命令会自动下载模型到本地。下载完成后,浏览器访问 http://localhost:11434 若出现欢迎信息,说明安装成功。
为了获得更好的交互体验,可以部署一个基于 Node.js 的聊天前端。
在项目当前目录下执行:
npm install
如需本地构建,需修改 svelte.config.js 中的 adapter 配置。示例如下:
const config = {
preprocess: [vitePreprocess({})],
kit: {
adapter: adapter({
out: 'build',
precompress: false,
envPrefix: '',
polyfill: true
})
}
};
执行构建命令:
npm run build
生成 build 目录后,执行启动命令:
node build
在浏览器输入 http://localhost:3000 即可打开聊天界面。选择模型后点击 New Session 开始对话。注意历史记录依赖于浏览器缓存。
性能提示:本地运行大模型对 CPU/GPU 资源消耗较大,请确保硬件配置满足需求。
在 VS Code 中安装 Llama Coder 插件,可提升开发效率。
ollama listollama rm <model_name>ollama stopOllama 支持多种开源模型,可根据需求在官网查询支持的模型列表。

微信公众号「极客日志」,在微信中扫描左侧二维码关注。展示文案:极客日志 zeeklog
生成新的随机RSA私钥和公钥pem证书。 在线工具,RSA密钥对生成器在线工具,online
基于 Mermaid.js 实时预览流程图、时序图等图表,支持源码编辑与即时渲染。 在线工具,Mermaid 预览与可视化编辑在线工具,online
将字符串编码和解码为其 Base64 格式表示形式即可。 在线工具,Base64 字符串编码/解码在线工具,online
将字符串、文件或图像转换为其 Base64 表示形式。 在线工具,Base64 文件转换器在线工具,online
将 Markdown(GFM)转为 HTML 片段,浏览器内 marked 解析;与 HTML转Markdown 互为补充。 在线工具,Markdown转HTML在线工具,online
将 HTML 片段转为 GitHub Flavored Markdown,支持标题、列表、链接、代码块与表格等;浏览器内处理,可链接预填。 在线工具,HTML转Markdown在线工具,online