「源力觉醒 创作者计划」实测解析!文心一言 4.5 开源版本地化部署的表现与潜力

「源力觉醒 创作者计划」实测解析!文心一言 4.5 开源版本地化部署的表现与潜力

引言

2025 年 6 月 30 日,百度文心大模型 4.5 系列正式开源,并首发于 GitCode 平台!这一重磅消息在 AI 领域掀起了不小的波澜。作为国内最早布局大模型研发的企业之一,百度所推出的文心大模型目前已跻身国内顶级大模型行列,此次开源无疑将对各行各业产生深远影响,进一步加速大模型的发展进程。接下来,就让我们一同探究文心一言 4.5 开源版本地化部署的表现与潜力。

文章目录

一、文心大模型 ERNIE 4.5 开源介绍

1.1 开源版本介绍

文心 ERNIE 4.5 本次开源一次性发布了 10 款模型,覆盖基础、对话、多模态、思考等多个方向,此次开源的模型构建起从 0.3B(3 亿参数)到 424B(4240 亿参数)的完整梯度矩阵,能够精准匹配多样化场景的需求,为不同规模、不同类型的应用场景提供了恰到好处的技术支撑。
在这里插入图片描述
从百度文心官方公布的这张图中可以清晰看到,本次开源的大模型主要分为两类:一类是专注于文本处理的语言模型(LLMs);另一类是能够处理多种模态数据的视觉 - 语言模型(VLMs)。其中,普通模型以文本处理为核心,而带有 “VL” 标识的模型则具备多模态处理能力,能够实现对文本、图像等多种形式数据的理解与生成。

1.1 ERNIE 4.5 的主要特点和区别

在这里插入图片描述
其中MoE是指专家混合(MoE)架构,除最小的 0.3B 稠密模型外,其他模型都采用了 MoE 架构。MoE架构可以动态的选择并激活不同的专家网络来处理输入,在保障高性能的同时,又有效提升了训练与推理效率。
模型名称中不带 “-Base” 后缀的通常表示这些模型在预训练的基础上,经过了进一步的后训练 (Post-Trained) 或微调,以优化其在特定应用场景下的性能。而带有 “-Base” 后缀的模型则是基础的预训练模型。
思考模式(Thinking Mode)与非思考模式(Non-Thinking Mode): 在“non-thinking”模式下,模型可以直接给出答案,无需复杂的推理过程。“both” 模式(多见于 VL 模型)则使模型能根据任务需求,在直接响应与更深层次的 “思考”(即复杂推理和分析)之间灵活切换。

二、文心ERNIE 4.5 技术解析

2.1 多模态异构 MOE

异构MoE(Heterogeneous MoE)作为ERNIE 4.5的核心架构,其创新的"异构模态MoE" 设计巧妙破解了多模态模型训练中的关键矛盾。该架构不仅支持跨模态参数共享(涵盖自注意力参数与专家参数共享),还能为各独立模态配置专用参数,实现了共享与专属的灵活平衡。
在这里插入图片描述
与传统的统一MoE不同,ERNIE 4.5将专家(Experts)明确划分为三类:文本专家、视觉专家和共享专家。此外,文心还引入了一种模态感知的专家分配策略,其中视觉专家的参数仅为文本专家的三分之一,从而提高了视觉信息处理的效率。
在这里插入图片描述

2.2 高效训练与并行架构

在训练与推理环节文心也实现了关键的技术突破,在训练方面采用了异构并行策略融入 FP8 混合精度训练框架和容错系统,优化内存、通信和计算开销,其最大语言模型采用 8 路专家并行、12 路管道并行和 ZeRO-1 数据并行配置,实现 47% 的 MFU,来支撑超大规模模型开源落地。
在这里插入图片描述

2.3 针对特定模态的后训练策略

针对特定模态的后训练:为了满足实际应用的多样化需求,百度针对特定模态对预训练模型的变体进行了微调。其大模型针对通用语言理解和生成进行了优化。
在这里插入图片描述
对特定的模态的训练策略进行微调,对每个模型采用SFT(监督微调)手把手”教模型怎么做”, DPO(直接偏好优化)通过用户偏好直接优化模型输出,让用户更喜欢模型的回答, UPO(统一偏好优化)使模型在多任务场景,能同时兼顾用户的多种偏好,来满足实际应用的不同要求。
在这里插入图片描述

三、文心一言 4.5 开源版本地化部署

相信经过以上介绍,大家对文心 ERNIE 4.5 大模型的架构技术及各开源版本的特点与差异已有清晰认识。接下来,我们就直接进入大家都期待的本地化部署流程。

3.1 部署环境准备

下面是文心4.5 不同型号模型对配置的要求,我们本次本地部署现在 ERNIE-4.5-0.3B-PT 的这个版本的轻量级模型,仅需一张4090系列显卡就满足配置要求了。
模型名称上下文长度量化方式最低部署资源说明
baidu/ERNIE-4.5-VL-424B-A47B-Paddle32K/128KWINT44×80G GPU 显存/1T 内存128K 长度需启用分块预填充
baidu/ERNIE-4.5-VL-424B-A47B-Paddle32K/128KWINT88×80G GPU 显存/1T 内存128K 长度需启用分块预填充
baidu/ERNIE-4.5-300B-A47B-Paddle32K/128KWINT44×64G GPU 显存/600G 内存128K 长度需启用分块预填充
baidu/ERNIE-4.5-300B-A47B-Paddle32K/128KWINT88×64G GPU 显存/600G 内存128K 长度需启用分块预填充
baidu/ERNIE-4.5-300B-A47B-2Bits-Paddle32K/128KWINT21×141G GPU 显存/600G 内存128K 长度需启用分块预填充
baidu/ERNIE-4.5-300B-A47B-W4A8C8-TP4-Paddle32K/128KW4A8C84×64G GPU 显存/160G 内存固定 4-GPU 配置,建议启用分块预填充
baidu/ERNIE-4.5-300B-A47B-FP8-Paddle32K/128KFP88×64G GPU 显存/600G 内存建议启用分块预填充,仅支持带专家并行的 PD 分离部署
baidu/ERNIE-4.5-300B-A47B-Base-Paddle32K/128KWINT44×64G GPU 显存/600G 内存建议启用分块预填充
baidu/ERNIE-4.5-300B-A47B-Base-Paddle32K/128KWINT88×64G GPU 显存/600G 内存建议启用分块预填充
baidu/ERNIE-4.5-VL-28B-A3B-Paddle32KWINT41×24G GPU 显存/128G 内存需启用分块预填充
baidu/ERNIE-4.5-VL-28B-A3B-Paddle128KWINT41×48G GPU 显存/128G 内存需启用分块预填充
baidu/ERNIE-4.5-VL-28B-A3B-Paddle32K/128KWINT81×48G GPU 显存/128G 内存需启用分块预填充
baidu/ERNIE-4.5-21B-A3B-Paddle32K/128KWINT41×24G GPU 显存/128G 内存128K 长度需启用分块预填充
baidu/ERNIE-4.5-21B-A3B-Paddle32K/128KWINT81×48G GPU 显存/128G 内存128K 长度需启用分块预填充
baidu/ERNIE-4.5-21B-A3B-Base-Paddle32K/128KWINT41×24G GPU 显存/128G 内存128K 长度需启用分块预填充
baidu/ERNIE-4.5-21B-A3B-Base-Paddle32K/128KWINT81×48G GPU 显存/128G 内存128K 长度需启用分块预填充
baidu/ERNIE-4.5-0.3B-Paddle32K/128KBF161×6G/12G GPU 显存/2G 内存
baidu/ERNIE-4.5-0.3B-Base-Paddle32K/128KBF161×6G/12G GPU 显存/2G 内存
  • 对于本地部署百度提供了FastDeploy一键部署工具,FastDeploy 是基于 PaddlePaddle 的大型语言模型和可视化语言模型的推理部署工具包。它提供具有核心加速技术的生产就绪型开箱即用部署的解决方案。
以下是对基于NVIDIA CUDA GPU 安装FastDeploy,需要满足以下环境
依赖项版本要求
GPU驱动程序≥535
CUDA≥12.3
CUDNN≥9.5
Python≥3.10
LinuxX86_64架构
在这里我们选择丹模算力平台来为我们提供算力服务,适用于各种AI深度学习、高性能计算、渲染测绘、云游戏等算力租用各种场景,大家随便选择一个厂商就好。服务器配置我们选择 4090就够用了,镜像方面选择了PyTorch2.5 ,它自带了安装文心意见部署工具FastDeploy所需的环境要求,这方面就不用我们费心了非常方便。
在这里插入图片描述
① 创建云实例成功后,有两种方式可连接实例:一是通过 SSH 密钥连接,二是借助 JupyterLab 可视化工具连接(推荐使用这种更便捷的方式 )。② 点击进入JupyterLab可视化的工具的终端进入工作空间控制台
在这里插入图片描述


在这里插入图片描述
然后我们就登录到终端的工作目录,可以来安装文心4.5 FastDeploy 一键部署工具了
在这里插入图片描述

3.2 安装部署工具

然后我们选择用python创建虚拟空间,主要是来保持保持系统环境清洁和隔离项目依赖① 避免我们后续操作出现环境上的报错问题,确保依赖互不干扰② 如果不用虚拟环境我们就肯会出现下面的报错
在这里插入图片描述
  • 1. 安装虚拟环境工具
把下面命令复制粘贴输入到控制终端即可
#更新软件包apt update #安装虚拟环境工具aptinstall -y python3-venv 
在这里插入图片描述
  • 2. 创建虚拟环境,创建名为 fastdeploy-env 的虚拟环境
在这里插入图片描述
python3 -m venv fastdeploy-env/ 
  • 3. 激活虚拟环境
在这里插入图片描述
source fastdeploy-env/bin/activate 
  • 4.下载GNU依赖库
libgomp1 是 GNU OpenMP 库的一部分,用于支持程序中的 并行计算(多线程并行处理),在后面我们启动服务是需要依赖 libgomp1 来实现并行计算加速。
apt update &&aptinstall -y libgomp1 libssl-dev zlib1g-dev 
在这里插入图片描述
  • 6.安装 paddlepaddle-gpu:3.1.0版本
因为FastDeploy 的部分核心功能(如模型解析、推理引擎适配)直接依赖 PaddlePaddle 的底层库,未安装 Paddle的话,FastDeploy 将无法正确加载和运行 Paddle 模型来以提供 CUDA/CUDNN 等 GPU 加速所需的依赖。所以我们先安装一下 paddlepaddle-gpu 。① 在这里我们一定要根据自己显卡厂商和CUDA的版本来选择安装命令,否则导致依赖冲突② paddlepaddle-gpu安装的详细说明【一键直达:查看安装信息】
在这里插入图片描述
python -m pip install paddlepaddle-gpu==3.1.0 -i https://www.paddlepaddle.org.cn/packages/stable/cu126/ 
在这里插入图片描述


在这里插入图片描述
  • 检测是否安装成功
paddlepaddle-gpu 安装好了我们可以使用一下代码检测一下,如果没问题那么就证明可以下一步了① vi check.py 用vim编辑器创建一个python文件,把代码复制进去② python check.py 运行代码查看信息
import paddle paddle.utils.run_check()
这边可以看命令运行完之后,显示paddlepaddle-gpu 安装成功,现在就开始使用 PaddlePaddle 进行深度学习吧。
在这里插入图片描述
  • 7.安装 fastdeploy
下载完 fastdeploy 工具后面把模型拉取之后,我们就可以一键启动我们的 ERNIE-4.5-0.3B-PT 了。① 在下载时我们要注意使用自己CPU架构对应的版本来安装下载,不然就会启动失败② fastdeploy的安装手册: 【一键直达】
在这里插入图片描述
我们本次显卡是4090所以直接选择对应版本的命令下载就好了
python -m pip install fastdeploy-gpu -i https://www.paddlepaddle.org.cn/packages/stable/fastdeploy-gpu-86_89/ --extra-index-url https://mirrors.tuna.tsinghua.edu.cn/pypi/web/simple 
选择其中一条命令即可如果你安装的gpu是Nightlybuild那么就选择下面Nightly build 版本的fastdeloy
看到下面这种就是成功安装了 fastdeploy
在这里插入图片描述
  • 验证PaddlePaddle GPU 是否支持
安装完成后,再次运行以下命令,确认输出为 True 和 gpu,如果输出结果为False cpu 表示这意味着 PaddlePaddle 没有使用 CUDA 编译,只能在 CPU 上运行。需要重新安装 paddlepaddle-gpu:3.1.0
python -c "import paddle; print(paddle.is_compiled_with_cuda()); print(paddle.device.get_device())"
在这里插入图片描述

3.3 拉取 文心 ERNIE 4.5 启动大模型

以上运行模型需要的环境就全部搭建好,其实整个过程还是非常简单了只需要输入几行命令5分钟就可以快速部署起来了,下面我们去 gitcode 拉取 ERNIE-4.5-0.3B-PT 开源项目来一键部署文心大模型4.5系列开源模型: https://ai.gitcode.com/theme/1939325484087291906
  • 1.下载git 工具(如果系统有就不用下载了,直接拉取就好)
aptinstallgit
在这里插入图片描述
  • 点击进入gitcode仓库,进行拉取项目
ERNIE-4.5-0.3B-PT开源地址:https://ai.gitcode.com/paddlepaddle/ERNIE-4.5-0.3B-PT
在这里插入图片描述
  • 修改主机映射(避免DNS 解析失败)

拉取项目源码

在这里插入图片描述
为了避免大模型后续启动解析主机名(或获取本机 IP)时,DNS 解析失败。使用我们这里修改一下主机的配置来让主机名与本机 IP 的映射。
#1. 查看当前主机名hostname
在这里插入图片描述
#2. 编辑 hosts 文件vim /etc/hosts 
在这里插入图片描述

一键启动ERNIE-4.5-0.3B-PT

在这里插入图片描述


在这里插入图片描述
当下方显示 8180 端口启动时,咱们的大模型就部署完成了。服务启动了一定要注意,不要Ctrl+C退出连接,否则服务会停止,API也无法访问了。
在这里插入图片描述
  • 查看端口是否连接成功,验证服务状态(HTTP 200 表示成功)

开启第二个终端开始测试

在这里插入图片描述
curl -i http://0.0.0.0:8180/health 
这里可以看到咱们端口连接没问题,服务完美启动了
在这里插入图片描述
  • 下载requests 库发送 HTTP 请求
首先我们需要下载一个requests 库发送 HTTP 请求
pip install requests 
在这里插入图片描述

3.4 本地化部署总结

整体来说部署文心4.5大模型过程还是非常简单的,利用官方提供的FastDeploy 部署工具就可以一键完成模型部署,整个部署流程被高度简化,开发者无需复杂配置,只需输入预设命令即可实现模型的一键启动,极大降低了操作难度。
在这里插入图片描述
并且在在模型量化、对齐、LoRA精调等方面也无需担心。百度早已准备好了,开源了文心大模型开发套件​ERNIEKit​,提供预训练、全参精调(SFT)、直接偏好优化(DPO)、参数高效精调与对齐(SFT-LoRA/DPO-LoRA)、训练感知量化(QAT)和训练后量化(PTQ)等大模型全流程开发支持,帮我们轻松玩转大模型。

四 部署测试

4.1 测试环境准备

  • 创建测试文件开始测试
vi test.py 
这里我给大家准备了一个python的大模型交互程序来方便我们进行和大模型交互,把下面代码复制进test文件
import requests import json # 模型服务的API端点,需确保模型服务已启动并可通过该地址访问 url ="http://127.0.0.1:8180/v1/chat/completions"# 请求头,指定发送数据的格式为JSON headers ={"Content-Type":"application/json"}# 初始化对话上下文列表,用于保存用户输入和模型回复的历史 messages =[]# 启动对话循环,持续获取用户输入并与模型交互while True: # 获取用户输入,提示用户输入内容 user_input = input("你: ")# 如果用户输入exit或quit(不区分大小写),则退出对话循环if user_input.lower()in['exit', 'quit']: break# 将用户输入以指定格式添加到对话上下文,role为user表示是用户输入 messages.append({"role":"user", "content": user_input})# 构建请求体数据 data ={# 指定要使用的模型,需与服务端部署的模型匹配"model":"baidu/ERNIE-4.5-VL-28B-A3B-PT", # 传入对话上下文,包含历史交互信息"messages": messages, # 温度参数,控制模型输出的随机性,值越大越随机"temperature":0.7} try: # 发送POST请求到模型服务,将data转为JSON字符串传入 response = requests.post(url, headers=headers, data=json.dumps(data))# 解析响应为JSON格式 response_json = response.json()# 提取模型回复内容,从响应的特定结构中获取 result = response_json["choices"][0]["message"]["content"]# 输出模型回复,标识为ERNIE的回复 print("ERNIE: ", result)# 将模型回复添加到对话上下文,role为assistant表示是模型回复 messages.append({"role":"assistant", "content": result}) except requests.RequestException as e: # 如果请求过程中发生异常(如网络问题、服务未响应等),捕获并提示 print("请求发生异常: ", e) except KeyError as e: # 如果响应JSON结构不符合预期,捕获并提示 print("解析响应失败,缺少必要字段: ", e) except json.JSONDecodeError as e: # 如果响应内容无法正确解析为JSON,捕获并提示 print("响应内容解析为JSON失败: ", e)
启动python 文件
在这里插入图片描述

4.2 通识基础测试

问题:9.11和9.9哪个更大?
在这里插入图片描述

4.3 中文复杂语境测试

问题:请解析以下古诗并仿写一句:
枯藤老树昏鸦,小桥流水人家,古道西风瘦马。夕阳西下,断肠人在天涯。
  • 创建测试文件二
vi test2.py 
在这里插入图片描述
import requests import json def test_ernie_model(): # 设置API端点 url ="http://127.0.0.1:8180/v1/chat/completions"# 设置请求头 headers ={"Content-Type":"application/json"}# 测试问题 test_question =""" 请解析以下古诗并仿写一句: 枯藤老树昏鸦,小桥流水人家,古道西风瘦马。夕阳西下,断肠人在天涯。 """ # 构建请求体 data ={"model":"baidu/ERNIE-4.5-0.3B-PT", "messages":[{"role":"user", "content": test_question.strip()}], "temperature":0.7, # 控制生成文本的随机性"max_tokens":500# 限制生成文本的最大长度} try: # 发送请求 response = requests.post( url, headers=headers, data=json.dumps(data), timeout=30# 设置超时时间)# 检查响应状态 response.raise_for_status()# 解析响应 result = response.json()# 提取并打印模型回复if"choices"in result and len(result["choices"])>0: answer = result["choices"][0]["message"]["content"] print("模型回复:\n") print(answer) else: print("未获取到有效回复") print("完整响应:", result) except requests.exceptions.RequestException as e: print(f"请求发生错误:{e}") except json.JSONDecodeError: print("响应解析失败,非JSON格式") except Exception as e: print(f"发生意外错误:{e}")if __name__ =="__main__": print("正在测试ERNIE-4.5-0.3B模型...") print("测试问题:解析《天净沙·秋思》并仿写\n") test_ernie_model()
在这里插入图片描述
文心 4.5 这次给了我们一个惊喜。原本以为 0.3B 参数的模型在古诗仿写任务上会有些吃力,没想到它的表现远超预期 —— 不仅完整写出了仿写句子,对原诗的解析也基本抓住了核心意思,整体表现可圈可点。

4.4 写作能力测试

问题: 请创作一个600字左右的童话故事,要求:
1. 主人公是一个小女孩
2. 包含"魔法森林"场景
3. 故事要有简单的情节发展和温暖的结局
4. 语言风格适合儿童阅读,用词生动形象
  • 创建测试文件三
vi test2.py 
import requests import json def generate_fairy_tale(): # API端点 url ="http://127.0.0.1:8180/v1/chat/completions"# 请求头 headers ={"Content-Type":"application/json"}# 生成童话故事的提示 prompt =""" 请创作一个400字左右的童话故事,要求: 1. 主人公是一个小女孩 2. 包含"魔法森林"场景 3. 故事要有简单的情节发展和温暖的结局 4. 语言风格适合儿童阅读,用词生动形象 """ # 构建请求数据 data ={"model":"baidu/ERNIE-4.5-0.3B-PT", "messages":[{"role":"user", "content": prompt.strip()}], "temperature":0.8, # 适当提高随机性,增加故事创意"max_tokens":600, # 预留足够长度确保故事完整"top_p":0.9} try: # 发送请求 response = requests.post( url, headers=headers, data=json.dumps(data), timeout=60) response.raise_for_status()# 解析响应 result = response.json()# 提取并返回故事内容if"choices"in result and len(result["choices"])>0: story = result["choices"][0]["message"]["content"] print("生成的童话故事:\n") print(story)return story else: print("未能生成故事,请检查模型服务")return None except Exception as e: print(f"生成过程出错:{str(e)}")return None if __name__ =="__main__": print("正在生成包含小女孩和魔法森林的童话故事...\n") generate_fairy_tale()
在这里插入图片描述
文心 4.5 0.3B 模型这次同样交出了令人满意的答卷,完美达成了我们的创作需求。从发送请求到接收完整故事,整个过程仅耗时约 3 秒,响应速度远超预期。生成的童话故事不仅紧扣 “小女孩” 与 “魔法森林” 的核心要素,篇幅控制在 400 字左右,语言风格也贴合儿童阅读习惯。

五、总结

文心 ERNIE 4.5 开源版本通过架构创新、高效部署工具与轻量化模型设计,降低了大模型应用门槛,在保证性能的同时,具备快速响应、低资源占用等优势。即便是0.3B的参数模型在我们的实际测试中也展现了不错的表现,极具竞争力。
我相信,未来文心 4.5 凭借其在中文领域的深厚根基和百度生态的强大支持,会在国内市场占据重要地位,并进一步推动全球人工智能产业的发展。😀一起来轻松玩转文心大模型吧!🎉🎉🎉📌文心大模型免费下载地址: https://ai.gitcode.com/paddlepaddle/ERNIE-4.5-VL-424B-A47B-Paddle

起来轻松玩转文心大模型吧一文心大模型免费下载地址:https://ai.gitcode.com/paddlepaddle/ERNIE-4.5-VL-424B-A47B-Paddle

Read more

2025最新在GitHub上搭建个人图床,保姆级图文教程,实现图片高效管理

2025最新在GitHub上搭建个人图床,保姆级图文教程,实现图片高效管理

文章目录🌍一. 图床❄️1.什么是图床❄️2.图床能解决什么问题?🌍二. 在github上面创建图床🌍三. PicGo❄️1. PicGo介绍❄️ 2. 下载与安装❄️3. 配置图床❄️3.错误解决问题1问题2问题3问题4🌍 四. Typora❄️一. 破解版安装❄️二. 设置Typora实现自动上传 🙋‍♂️ 作者:@whisperrr.🙋‍♂️ 👀 其他专栏:JavaWeb👀 💥 标题:2025最新在GitHub上搭建个人图床,保姆级图文教程,实现图片高效管理💥 ❣️ 寄语:比较是偷走幸福的小偷❣️ 在数字化时代,图片已成为我们日常沟通和表达的重要方式。无论是社交媒体、博客还是论坛,图片都是不可或缺的元素。然而,随着图片数量的不断增加,如何高效地存储和分享图片成为了一个难题。这时候,图床应运而生,成为解决这一问题的利器。 🌍一. 图床 ❄️1.什么是图床

By Ne0inhk
2025电赛E题开源:二维云台激光打靶系统全解析(基于STM32F407+K230)

2025电赛E题开源:二维云台激光打靶系统全解析(基于STM32F407+K230)

2025电赛E题:二维云台激光打靶系统全解析——基于STM32F407的视觉伺服控制 本文详细介绍2025年全国大学生电子设计竞赛E题《二维云台激光打靶系统》的完整实现方案。项目基于STM32F407微控制器,结合视觉追踪、PID控制、步进电机驱动等技术,实现高精度的激光自动瞄准与发射功能。 🎯 项目背景与意义 在自动化控制领域,视觉伺服系统是实现高精度定位与追踪的关键技术。本次分享的项目,源自 2025 年全国大学生电子设计竞赛的赛题,题目要求设计一套二维云台系统,需具备自动识别目标、控制激光精准命中的功能。 该项目历经多重挑战,最终斩获了广东省赛区的省一等奖。由于我在此次比赛中主要负责二维云台激光打靶系统的设计,因此仅针对 25 年电赛 e 题的瞄准模块部分进行解说,自动循迹小车的内容会略过。 这个项目的成功落地,既为电子设计竞赛提供了一套完整的参考方案,也为嵌入式视觉伺服系统的教学与研究提供了宝贵的实践案例。 📊 系统总体设计 系统架构图 二维云台激光打靶系统 ├── 感知层(视觉模块) │ ├── 摄像头采集 │ └── 目标坐标提取 ├── 控制层(主控板

By Ne0inhk
用 Fiora 搭个专属聊天室?开源社交工具 + cpolar让沟通更自由

用 Fiora 搭个专属聊天室?开源社交工具 + cpolar让沟通更自由

本文介绍了如何利用 Fiora 搭建专属聊天室并通过 cpolar 实现远程访问。Fiora 是开源即时通讯工具,支持注册登录、群组聊天等多种功能,可通过 Docker 在本地部署。为解决局域网使用限制,搭配 cpolar 内网穿透工具,无需公网 IP 和复杂设置即可映射到公网,实现异地访问。文中还提及配置固定二级子域名的方法,方便长期使用,两者结合为私域社群和协作提供了灵活方案。 文章目录 * 前言 * 1.关于Fiora * 2.安装Docker * 3.本地部署Fiora * 4.使用Fiora * 5.cpolar内网穿透工具安装 * 6.创建远程连接公网地址 * 7.固定Uptime Kuma公网地址 * 联系博主 前言 Fiora 是一款开源即时通讯工具,支持账号注册登录、群组聊天、私聊加好友,还能发送文本、表情、图片等多种消息类型,

By Ne0inhk
OpenCode 免费使用 Kimi K2.5 完整指南:国产最强开源模型零成本体验

OpenCode 免费使用 Kimi K2.5 完整指南:国产最强开源模型零成本体验

什么是 Kimi K2.5? Kimi K2.5 是月之暗面 (Moonshot AI) 于 2026 年 1 月发布的开源多模态大模型,总参数量达 1 万亿,激活参数 320 亿,在多项基准测试中超越 Claude Opus 4.5,尤其在编程和 Agent 任务上表现卓越。 OpenCode 作为最热门的开源 AI 编程助手,现已正式支持 Kimi K2.5。更令人兴奋的是,通过多种渠道,你可以限时免费体验这款国产最强开源模型。本文将详细介绍配置方法和使用技巧。 为什么选择 Kimi K2.5? 在深入配置之前,先了解 Kimi K2.5

By Ne0inhk