GPT4ALL本地部署AI大模型:拥有自己的本地AI助手
什么是大模型本地部署?
大模型本地部署,就是将大模型权重文件下载到本地,然后在本地用自己的硬件算力执行推理计算,获得结果的过程 。现在大模型本地部署不仅有GPT4ALL、Ollama、LM Studio以及llama.cpp等多个软件可以使用,也改变了必须使用GPU的“刻板印象”,可以直接使用CPU进行部署。值得一提的是,现在大模型的类型多样,参数量也极为丰富,用户可以根据自己的硬件资源和需求来自由选择不同大小的模型(如1.5B,7B,70B等)。
为什么要本地部署?
- 本地部署,可以体验到以前没有用过的模型,也可以实现一个软件内多种不同模型的切换。
- 还有本地部署,可以真正保障数据的安全,因为现在用的AI助手都是运行和存储在云端。
- 在线使用大模型依赖网络,网络不稳定时,体验不好,且延迟较高。
怎么本地部署?
软件的选择
虽然本地部署的软件各种各样,在了解和尝试了多次之后,我还是选择了GPT4ALL,因为这款软件够“轻”,也够“稳”。
首先,它的安装包非常迷你,只有32MB,安装下来也只有1.77GB,对电脑的磁盘空间占用非常小。
其次,也是最核心的优势——它对 CPU 的优化做得极好,它能让大模型在纯 CPU 环境下,也能保持不错的推理速度(实测0.5B参数的大模型可以达到50+Token/s)。
还有一点,就是这个软件对模型文件的配置非常方便,不像其他软件还需要通过一些命令来导入。这款GPT4ALL软件,是需要将下载好的模型文件复制到一个文件夹里,然后在软件设置里面选中那个路径就可以了,它会自动读取模型权重文件(因为连接不稳定,所以一般要手动下载文件,软件提供的模型下载很难下载成功)。
下载GPT4ALL软件
这个GPT4ALL软件在官网(https://www.nomic.ai/gpt4all)即可下载。
下载之后直接按照和其他软件一样的步骤安装即可。
安装好后界面如下:
下载模型文件
其实这里我还是推荐去镜像站下载模型,因为在这个软件里下载或者到模型的官网去下载,基本上都是连接会中断或者速度特别慢(那天我自己下载速度只有10Kb/s左右,对于大模型的文件来说实在是太慢了)。
Hugging Face地址:Hugging Face网址 (https://huggingface.co/)
Hugging Face镜像站地址:Hugging Face镜像站(https://hf-mirror.com/)
这里可以根据自己的硬件和需求下载合适的模型文件(注意:GPT4ALL需要GGUF格式的文件,要下载GGUF格式的文件)。
导入模型文件
下载完成之后打开GPT4ALL,在设置里面选择本地模型文件所在的目录。
再次重启GPT4ALL,在首页就可以看到刚刚下载的模型了,可以选择这个模型,GPT4ALL自动载入之后就可以与其进行对话了。
值得一提的是,GPT4ALL可以开启本地API接口服务,使得我们可以在一个特定的端口像调用线上的大模型API接口一样调用我们本地的大模型,在使用Python代码调用的时候我们不仅可以使用gpt4all库进行简单快捷的调用,还可以使用openai库进行调用,完美符合主流大模型的调用方式。