使用 Ollama 在本地部署并运行大语言模型
在当前的技术环境下,大型语言模型(LLMs)已经成为人工智能领域的一个重要里程碑。这些模型能够在各种任务上展现出人类水平的性能,包括但不限于文本生成、语言理解和问题解答。随着开源项目的发展,个人开发者现在有机会在本地部署这些强大的模型,以探索和利用它们的潜力。本文将详细介绍如何使用 Ollama,一个开源项目,在 Mac 上本地运行大型模型(Windows 同理)。通过遵循以下步骤,即使是配备了几年前硬件的电脑,也能够顺利完成部署和运行。
第一步:下载和安装 Ollama
以 Mac 为例,访问官网下载页面,您会看到如下所示的下载界面。
下载完成后,双击解压软件,您将看到应用安装界面,按照提示完成安装即可。
第二步:下载模型并运行 mistral-7b 大模型
打开终端,输入命令 ollama run mistral 以启动 Ollama 并下载所需的大型模型。下图显示了 mistral-7b 模型的下载过程。
下载完成后,您可以运行 Ollama,并询问例如'why is the sky blue?'的问题,以测试模型的响应。
第三步:设置前端界面和 Docker 环境
下载前端页面。在终端中运行以下命令,克隆仓库:
git clone https://github.com/open-webui/open-webui.git
使用以下命令下载并运行 Docker 镜像,为 Ollama 设置一个前端界面:
cd open-webui
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
打开浏览器,输入网址 http://localhost:3000,选择您刚下载的模型 mistral:latest (3.8GB),即可开始探索大型模型的强大功能。
此外,对于关注电脑配置的用户,以下是一个配置示例,表明即使是老旧的电脑也能够运行这些大型模型。
通过遵循这个指南,任何拥有基本计算机技能的用户都可以在本地部署和运行大型模型,进一步探索人工智能的前沿技术。这不仅为开发者提供了一个实验和学习的平台,也为研究人员和爱好者提供了一个探索 AI 模型潜力的机会。


