大模型基于缩放定律,参数越大能力越强。本文介绍 Meta 的 Llama 3 和微软的 Phi-3 两款开源小模型,重点讲解如何在电脑(Ollama)及手机(Termux+Ollama)上私有化部署。通过实测对比了两者在响应速度、中文能力、代码生成及数学推理上的表现,指出小模型推理成本低、适合本地定制的趋势。
芝士奶盖0 浏览
大模型无疑是此次 AI 革命的主角,基于 Scaling Law(缩放定律)。简单来说,就是数据越多,参数越大,算力越强,模型最终的能力就越强。随着模型参数和预训练数据规模的增加,模型能力与任务效果不断改善,展示出了一些小规模模型所不具备的'涌现能力'。
随着大模型时代的逐步来临,以 ChatGPT 为代表的前沿大模型技术正逐步在经济、法律、社会等诸多领域展现其重要价值。与此同时,众多 AI 企业纷纷推出开源大模型,其规模正遵循扩展定律实现指数级增长。
然而,一个不可忽视的趋势是,大模型的体积正在逐渐精简,使得私有化部署成为可能。这一需求显得尤为重要,特别是在对个人隐私保护要求极高的场景中。想象一下,一个能够深入了解你各类数据的 AI 机器人,在无需联网传输数据的情况下,直接在你的设备上运行并为你提供决策支持,这无疑大大增强了用户的信任。而如果这种 AI 只存在企业的'云服务器'上,尽管性能更强,但安全性及可靠性就堪忧了。
然而,开源 AI 大模型(LLMs)正逐渐崭露头角,它们不仅增强了数据的安全性和隐私保护,还为用户节省了成本,减少了对外部依赖,实现了代码的透明性和模型的个性化定制。这里我重点介绍下 Meta 推出的 Llama 3 和微软的 Phi-3,这两款算是开源大模型的顶流,是'小而美'的大模型,而且方便部署。
但是手机上部署会麻烦一丢丢,与电脑部署差不多,但需要先在手机上安装配置 Linux 环境。虽然安卓手机的底层是基于 Linux 内核,但要重装个 Linux 难度可太大了。好在我发现了另外一个神器:Termux,它是一个 Android 上的终端模拟器,可以在 Android 设备上运行许多 Linux 命令和工具。
安装后打开 Termux 如下图。(如有要打开多个 Linux 窗口,左上角右滑点击 New session 就可以。)
接下来,通过 Termux + Ollama 就可以在手机上部署大模型了:
第一步,借助 Termux,在上面使用 proot-distro 安装个 Linux 系统。(proot-distro 允许用户在 Termux 中安装、卸载和运行各种 Linux 发行版,包括 Ubuntu、Debian、Arch Linux 等。这样,用户就可以在他们的 Android 设备上使用完整的 Linux 环境,包括安装和运行 Linux 软件包。)
文末简单说两句,虽然现在 AI 的落地的应用还比较少,但技术的发展需要时间,再者大模型的高昂推理成本限制了其实用性。然而,有了小模型如 Llama 3 和 Phi3,大模型实用化的道路变得更加清晰。虽然小模型的训练成本较高,但推理成本低,整体上更省钱,特别是在服务大量用户时,高性能的小模型使得 AI 更容易摆脱成本限制,更有效地应用于各种场景。一个能自己本地部署定制的 AI,别提能玩的会有多溜了~
相信后面,通过模型优化、定制 AI 芯片等带来的算力提升,越多'小而美'的 AI 大模型不久就会普及到我们生活!