前言
AI 正在悄然渗透进生活,从写文案到做 PPT,它几乎无所不能。但许多中文用户面对清一色的英文界面、高昂的 API 费用以及闭源大模型的门槛,往往望而却步。好消息是,文心一言 4.5 正式开源,带着「能跑、好用、懂中文」的标签亮相。这不仅是一款中文大模型,更像是为中文用户量身定做的钥匙,让你在本地就能打开 AI 世界的大门。
能力测评
最近尝试用手机识别一种虫子,常规识图工具给出的答案并不准确。我们来看看文心一言的表现。

文心一言的答案准确且健全。

开关门测试

结果很准确,甚至注意到了门上的透明胶带。
物体识别

反应非常快,上一秒提问,下一秒就给出了答案。
通识问答
1:选无穷远处为电势零点,半径为 R 的导体球带电后,其电势为 U₀,则球外离球心距离为 r 处的电场强度的大小为?
2:用含 Oligo-dT 配基的纤维素柱层析提纯真核组织 mRNA 是非常有效的方法,是因为 mRNA 含有?
3:分子中含碳碳双键,且每个双键碳上各自连有的基团不同就可产生?
4:解释花间词派
5:在分析城市空间结构时,哪个因素对城市内部功能分区的形成起着决定性因素?
1:选无穷远处为电势零点... 答案:E = U₀R / r²
2:... 答案:poly(A)
3:... 答案:顺反异构结构
4:... 答案:五代后蜀赵崇祚辑录了晚唐五代时温庭筠、皇甫松、韦庄等十八家词,编为《花间集》十卷...
5:... 答案:经济

可以看到,回答十分完美,特别是在中文问题上给出了很多见解。
推理能力
1:假如目前这里现在一共有三只鸟,并且其中至少有一只是公鸟,如果我这里还有一只公鸟,则在这四只鸟里面,至少有两只鸟是母鸟的概率为多少? 答案:3/7
2:假设一种罕见疾病在人群中的发病率为 0.1%... 答案:4.7%
3:某处立交桥上... 答案:6.25s,36.7m
4:某密码锁有三个数字位... 答案:698

这个问题没有毛病,是对的。

这个问题有一些偏差,但深度思考后就能正常回答出来。



也是没有问题,算术能力强。

密码推理功能有些偏差,但好像是 AI 通病,GPT 等 AI 都没能回答上来。


不知道你注意到没有,我在上面回答时第一次文都没有使用深度思考功能!普通功能就能回答好这些问题,文心的各项能力已经到一定程度了。
下面是我的聊天链接,可以看看没有任何提示词工程,而是干涩的问,可以说是很错误的用法。
聊天链接分享
叮!快来看看我和文心一言的奇妙对话~点击链接 https://yiyan.baidu.com/share/hUqYw7NWT1 – 文心一言,既能写文案、读文档,又能绘画聊天、写诗做表,你的全能伙伴!
横向对比
可能有人会问,为什么没有 Gemini、ChatGPT 呢?因为 Gemini 不开源就算了,还不让中国地区的用户使用;ChatGPT 发几张图片就要你充钱,那里比得上文心?
胶带为什么在门上?
胶带是我弟弟玩的时候缠上去的,不是为了固定门。

显然,现实会出现很多 AI 难以理解的事情,不过世界一流 AI 也不能猜出胶带为什么在门上。
Claude

可以说文心一言已经达到世界一流 AI 水平,在中文处理能力方面会更胜一筹!!
DeepSeek

DeepSeek 在这方面猜到了我话中的暗示。
Qwen3

Qwen3 表现是这几个中最差的。
能看懂绕的问题吗?
+ 是药三分毒,那吃药的时候为什么不只吃另外七分?
+ 陨石为什么每次都能精准砸到陨石坑?
+ 斑马是黑底白花还是白底黑花?
+ 吃健胃消食片能吃饱吗
+ 近亲结婚不是会影响孩子的智商吗?为什么我亲妈和我亲爸结婚了,我却没有影响呢?
+ 如果父母以后的钱都是留给我的,那我是不是能认为,他们现在正在花我的钱?
+ 水不能直接喝,苹果不能直接吃,为什么让不能直接喝的水洗洗苹果就能吃了?
+ 冰箱为什么是柜子,而冰柜却是箱子?
+ 配个 6000 多块的电脑,要多少钱?
+ 我妈怀胎十月生我,是不是对我非法禁锢?还是合法禁锢?
+ 大家买莲藕,一斤有半斤是洞,不会觉得买亏了吗?
接下来我会对上面问题答案进行评分,1~5 分。



这个就差了很多,苹果问题没有注意到水的干净程度,前面的消食片不提供营养肯定是错的。

难以想到,这是 DeepSeek,可能是因为原本他回答很长,我让他简洁点,导致父母结婚问题答错。

后面再测试,依旧如此,提示词同别人一样,就是下面这段。
+ 陨石为什么每次都能精准砸到陨石坑?
+ 斑马是黑底白花还是白底黑花?
+ 吃健胃消食片能吃饱吗
+ 近亲结婚不是会影响孩子的智商吗?为什么我亲妈和我亲爸结婚了,我却没有影响呢?
+ 如果父母以后的钱都是留给我的,那我是不是能认为,他们现在正在花我的钱?
+ 水不能直接喝,苹果不能直接吃,为什么让不能直接喝的水洗洗苹果就能吃了?
+ 冰箱为什么是柜子,而冰柜却是箱子?
+ 配个 6000 多块的电脑,要多少钱?
+ 我妈怀胎十月生我,是不是对我非法禁锢?还是合法禁锢?
+ 大家买莲藕,一斤有半斤是洞,不会觉得买亏了吗?

6000 元电脑没有指出答案就是 6000,水也是没有表明洁净与否。
结论
文心一言的中文处理能力是这几个 AI 模型中最强。原本 DeepSeek 再猜测胶带上表现得不错,但因为父母结婚问题分不清而大败于文心。而 Qwen3 更不用说了,其表现在这几个 AI 中是倒数。在与外国 AI 的比较中,文心的中文处理能力也显然高了一截。
部署与调用
本小结将快速部署文心一言的 ERNIE-4.5-0.3B-PT 模型,带你入门 AI 从业。涉及到一些技术,因此篇幅长,如果只想看文心功能,请点击目录跳转到上文。
如果不想部署,也可以直接访问 文心一言。
1. 用千帆来操控文心
稳定的 ERNIE4.0

点击模型开发及服务。

立即使用。


不过 ERNIE4.5(文心 4.5)还没有上线,因此想要最新的文心只能自己部署或访问官网。在这个界面只有 4.0。


只需要获取一下 token 就能够用代码的方式与文心对话了。
可以体验的 ERNIE4.5


现在就能看到文心 4.5 啦。

这里就能体验 4.5 的各项功能,包括但不限于文本对话、图像理解、多模态、图像生成、视频生成。
测评不是这一小结的重点,想看我的测试方式,那就继续向下看吧。
Linux 部署
1. 更换镜像源(使用阿里云镜像源)
sudo cp /etc/apt/sources.list /etc/apt/sources.list.bak
sudo sed -i 's|http://archive.ubuntu.com/ubuntu|http://mirrors.aliyun.com/ubuntu|g' /etc/apt/sources.list
sudo sed -i 's|http://security.ubuntu.com/ubuntu|http://mirrors.aliyun.com/ubuntu|g' /etc/apt/sources.list
sudo apt update
2. 切换当前工作目录
cd /
pwd
3. 安装虚拟环境工具
sudo apt update
sudo apt install -y python3-venv
4. 创建虚拟环境
python3 -m venv --without-pip /fastdeploy-env
source /fastdeploy-env/bin/activate
使用虚拟环境能让 Python 依赖保持干净独立。
5. 安装 pip
curl https://bootstrap.pypa.io/get-pip.py -o get-pip.py
python get-pip.py
6. 安装 PaddlePaddle GPU 版本
python -m pip install paddlepaddle-gpu==3.1.0 -i https://www.paddlepaddle.org.cn/packages/stable/cu126/
7. 安装 FastDeploy GPU 稳定版本
python -m pip install fastdeploy-gpu -i https://www.paddlepaddle.org.cn/packages/stable/fastdeploy-gpu-80_90/ --extra-index-url https://mirrors.tuna.tsinghua.edu.cn/pypi/web/simple
8. 安装 FastDeploy GPU 最新开发构建版本
python -m pip install fastdeploy-gpu -i https://www.paddlepaddle.org.cn/packages/nightly/fastdeploy-gpu-80_90/ --extra-index-url https://mirrors.tuna.tsinghua.edu.cn/pypi/web/simple
六到八步有一个要点,得根据 GPU 选对版本。具体参考 FastDeploy 安装文档。
到这一步都没问题那你其实就是基本成功了,因为接下来只需要用 FastDeploy 来跑 AI 就好,基本不会有什么问题。
跑 ERNIE-4.5-0.3B-Base-Paddle
python -m fastdeploy.entrypoints.openai.api_server \
--model baidu/ERNIE-4.5-0.3B-Base-Paddle \
--port 8180 \
--metrics-port 8181 \
--engine-worker-queue-port 8182 \
--max-model-len 32768 \
--max-num-seqs 32 &
curl http://127.0.0.1:8181/v1/chat/completions -H "Content-Type: application/json" -d '{"model": "baidu/ERNIE-4.5-0.3B-Base-Paddle", "messages": [{"role": "user", "content": "你好,文心一言"}]}'

2. 本地部署文心一言(需 Linux 环境,下载较多东西,适合程序员)
4060 Linux 系统下能够部署 0.36B 文心。
第一步:查看本地的 GPU 是什么型号

点击任务管理器。

博主电脑是 NVIDIA GPU 的,能 NVIDIA -> CUDA -> FastDeploy -> 文心一言。AMD 系的电脑不能部署文心一言。
第二步:显卡适配

点击 win+r 启动命令行,命令行中输入 nvidia-smi 查看自己的各项信息。
看不懂怎么办?问 AI 文心一言 4.5。
将命令行输出截图下来,然后问 AI GPU 版本和驱动适配了嘛。

可以看到,文心一言回答的很好,还猜到我们要进行跑 AI,给出了 CUDA 要求驱动版本。
显卡适配第二种方式
NVIDIA 控制面板—>帮助—>系统信息—>组件。

可以看到安装不超过多少版本的 CUDA。
第三步:安装 CUDA


可以在文档版本中找到自己的驱动要下载对应的 CUDA 是什么。

这里的 X86 架构,近些年的电脑几乎都是 X86 架构。
官网安装

找到相关即可。
使用 PowerShell 安装
确认 Chocolatey。


Set-ExecutionPolicy Bypass -Scope Process -Force; `[System.Net.ServicePointManager]::SecurityProtocol = `[System.Net.SecurityProtocolType]::Tls12; `[iex ((New-Object System.Net.WebClient).DownloadString('https://community.chocolatey.org/install.ps1'))
记住,要管理员权限,这是系统级别的添加东西,一般情况下,你点击管理员模型启动就可以了。

choco install cuda -y
可以看到通过这个命令自动开始安装最新的 CUDA。

刷新环境变量(重要)
在 PowerShell 中执行以下命令,使新添加的 CUDA 路径生效:
refreshenv
或者 重启 PowerShell / 电脑 也可生效。

验证 CUDA 安装是否成功
在 PowerShell 执行以下命令:
nvcc -V

重启之后,可以看到输出了版本号。
第四步:安装 cuDNN(选择安装)
cuDNN 能进行加速,记得选择对应版本的。
第五步:安装 FastDeploy
安装 FastDeploy 前,需要安装 pip。关于 pip 可以上网搜。
pip install fastdeploy-gpu-python

黄色的是警告,不碍事的,看 successfully 就知道可以了。
第六步:部署 ERNIE-4.5-0.3B-PT
部署模型介绍

就可以看到,提供了翻译版本。我感觉这是唯一不好的点,应该翻译版本是英文还差不多。
| 关键字 | 值 |
|---|---|
| 模态 | 文本 |
| 训练阶段 | 后训练 |
| 参数量 | 0.36B |
| 层数 | 18 |
| 头数(Q/KV) | 16 / 2 |
| 上下文长度 | 131072 |
部署

git clone https://gitcode.com/paddlepaddle/ERNIE-4.5-0.3B-PT.git

输入上面代码即可克隆,上面这个界面就是一句克隆成功了。当然,你需要提前在电脑里下载 git 并配置环境变量,保持网络通畅。

在 pycharm 中打开项目。


运行给的命令,出了一堆问题。
解决问题
右键点击 '此电脑' 或 '我的电脑',选择 '管理'。在管理窗口中,点击 '设备管理器'。展开 '显示适配器',你可以看到显卡的具体型号。

[FastDeploy](https://paddlepaddle.github.io/FastDeploy/get_started/installation/nvidia_gpu/)
看上面文档的这一部分。

在其中找到自己要如何做,但会遇到 Windows 不能部署的情况,有个底层需要 Linux 系统。如果要在 Window 系统部署,就要使用 Windows Subsystem for Linux 或 Docker。
后面我换成 Linux 云电脑,部署是没有问题的。碍于篇幅,本文就不继续写部署了。
结语
从李彦宏'闭源宣言'到 10 款模型全栈开源,百度完成了一次对傲慢的祛魅。技术真正的胜利,不在于高墙内的参数霸权,而在于多少人能用它创造价值。
'当文心 4.5 的代码流淌在千万开发者的 GPU 上,中国大模型终于从'追赶者',变成了规则制定者。'
国外的 AI 技术确实很强,但它毕竟是国外的。记得 ChatGPT 刚推出时,有中国 IP 登录痕迹的账号直接被封禁。即使现在有了 DeepSeek 的突破,但像高贵的 Gemini 依然不为国内用户提供服务。在国内的大模型技术已经能够与国外的媲美时,我当然更倾向于使用国内的。毕竟,若大家都不使用,相关研究的资金和支持也会变得更少。
现在,文心 4.5 开源大模型,向我证明了他在中文方面的优秀处理能力,或许我们可以打破以前外国的东西就是好的刻板印象,将目光放在自家的企业上。
想体验?
- 轻量部署:
ERNIE-4.5-21B-Base(HuggingFace) - 多模态实战:
ERNIE-4.5-VL-28B(飞桨星河社区) - 懒人 API:百度智能云千帆平台
- 好用社区:GitCode


