前言
AI 正在渗透进生活,但中文用户常面临英文界面、高昂 API 费用及网络限制等问题。好消息是,文心一言 4.5 正式开源,带着「能跑、好用、懂中文」的标签亮相,为中文用户提供了在本地打开 AI 世界大门的机会。
一:文心 4.5 各项能力单独测评
图像识别
测试中,文心一言对虫子、开关门状态及物体识别均给出了准确答案,反应迅速。
通识问答
针对物理、生物、化学及人文历史等综合问题,模型回答完美,尤其在中文问题上展现了独到见解。
推理能力
在概率计算、逻辑推断、数学应用题及密码推理任务中,文心表现良好。部分复杂逻辑题需深度思考,普通功能下也能解决大部分问题。
二:文心一言 VS Claude VS DeepSeek VS Qwen3
对比了 Gemini(不可用)、ChatGPT(收费高)以及 Claude、DeepSeek、Qwen3。
常识与逻辑测试
针对胶带位置、绕口令式问题(如'陨石为什么砸到陨石坑'、'斑马黑白底'等),文心一言在中文理解上表现最佳,达到世界一流水平。
- Claude:表现优秀。
- DeepSeek:部分逻辑题存在偏差。
- Qwen3:表现相对较弱。
结论:文心一言的中文处理能力在这些模型中最强。
三:线上 API 调用与 ERNIE-4.5-0.3B-PT 部署
本小结介绍快速部署文心大模型的方法。
1、用千帆来操控文心
通过百度智能云千帆平台可获取 Token 进行 API 调用。目前 ERNIE 4.0 已上线,ERNIE 4.5 可通过特定页面体验或自行部署。
Linux 部署步骤
- 更换镜像源
sudo cp /etc/apt/sources.list /etc/apt/sources.list.bak
sudo sed -i 's|http://archive.ubuntu.com/ubuntu|http://mirrors.aliyun.com/ubuntu|g' /etc/apt/sources.list
sudo apt update
- 安装虚拟环境工具
sudo apt install -y python3-venv
python3 -m venv --without-pip /fastdeploy-env
source /fastdeploy-env/bin/activate
- 安装 pip
curl https://bootstrap.pypa.io/get-pip.py -o get-pip.py
python get-pip.py
- 安装 PaddlePaddle GPU 版本
python -m pip install paddlepaddle-gpu==3.1.0 -i https://www.paddlepaddle.org.cn/packages/stable/cu126/
- 安装 FastDeploy 根据 GPU 型号选择稳定版或开发版:
python -m pip install fastdeploy-gpu -i https://www.paddlepaddle.org.cn/packages/stable/fastdeploy-gpu-80_90/ --extra-index-url https://mirrors.tuna.tsinghua.edu.cn/pypi/web/simple
- 运行模型
python -m fastdeploy.entrypoints.openai.api_server \
--model baidu/ERNIE-4.5-0.3B-Base-Paddle \
--port 8180 \
--metrics-port 8181 \
--engine-worker-queue-port 8182 \
--max-model-len 32768 \
--max-num-seqs 32 &
2、本地部署文心一言(Windows/Linux)
第一步:查看 GPU 型号
使用 nvidia-smi 命令确认 NVIDIA GPU 型号及 CUDA 驱动版本。AMD 显卡暂不支持。
第二步:安装 CUDA 下载对应版本的 CUDA Toolkit。可使用 Chocolatey 自动安装:
choco install cuda -y
refreshenv
nvcc -V
第三步:安装 cuDNN 选择对应 CUDA 版本的 cuDNN 加速库。
第四步:安装 FastDeploy
pip install fastdeploy-gpu-python
第五步:部署模型 克隆仓库并运行:
git clone https://gitcode.com/paddlepaddle/ERNIE-4.5-0.3B-PT.git
注意:Windows 系统底层依赖 Linux 环境,建议使用 WSL 或 Docker 部署。
四:文心大模型技术演进
开发时间线
- 2023 年 3 月:推出闭源产品。
- 2023 年 11 月:商业化尝试,推出会员订阅。
- 2025 年 2 月:宣布开源战略转变,计划 6 月 30 日开源。
技术架构
- 多模态异构专家架构 (Heterogeneous MoE):文本、视觉共享专家协同,提升效率。
- 自适应视觉编码器:支持任意尺寸图像,保留宽高比。
- 全栈开源工具链:释放 ERNIEKit 训练框架 + FastDeploy 推理引擎。
结语
从闭源到开源,百度完成了技术自信到生态自信的进化。文心 4.5 在中文处理及多模态能力上表现优异,且具备端侧部署潜力。对于国内开发者而言,使用自主可控的大模型有助于推动相关研究资金与支持的发展。


