从0到1打造专业职配助手:基于openJiuwen记忆库新特性的AI职业规划实战

从0到1打造专业职配助手:基于openJiuwen记忆库新特性的AI职业规划实战

前言

最近基于openJiuwen框架,用它最新推出的独立记忆库功能,搭建了一个“专业职配助手”智能体。它不仅能依托行业知识库给出专业-岗位匹配建议,更能通过记忆库记住用户的专业背景、职业偏好,实现跨智能体的个性化推荐。今天就把从模型配置到智能体测试的全流程拆解给你,重点聊聊记忆库如何让AI真正“懂你”。

一、核心思路:知识库+记忆库,让AI从“会回答”到“懂你”

这次搭建的核心,是openJiuwen的记忆库新特性

  • 知识库:作为“公共知识底座”,存储全行业职业数据、专业与岗位对应表,解决“专业能做什么”的问题;
  • 记忆库:作为“用户专属档案”,存储用户的专业背景、职业偏好、咨询历史,解决“你适合做什么”的问题;
  • 大模型:负责理解用户需求,同时调用知识库和记忆库,生成精准、个性化的职业建议。

一句话概括:用知识库提供行业广度,用记忆库赋予用户温度,让这两者的结合更高效、更灵活。

二、第一步:模型配置——打好智能体基础

openJiuwen支持独立配置LLM和Embedding模型,这让我可以根据场景选择最适合的工具:

1. LLM模型(对话与记忆理解)

我选择了 DeepSeek-V3.2,通过 SiliconFlow 平台接入:

  • 模型友好名称Pro/deepseek-ai/DeepSeek-V3.2
  • API协议SiliconFlow
  • 基础服务地址https://api.siliconflow.cn/v1/chat/completions
  • API密钥:从 SiliconFlow 控制台获取

这个模型负责理解用户对话、解析记忆库中的用户信息,是实现个性化推荐的核心。

接下来测试模型是否配置成功

2. Embedding模型(文本向量化,支撑记忆检索)

为了让知识库和记忆库能被高效检索,我配置了 text-embedding-v4

  • 模型友好名称text-embedding-v4
  • API协议OpenAI
  • 基础服务地址https://dashscope.aliyuncs.com/compatible-mode/v1
  • API密钥:从阿里云百炼控制台获取

它负责将用户的对话和记忆数据转换成向量,是记忆库能快速定位用户信息的关键,同时检索上传的知识库。

三、第二步:知识库搭建——全行业职业数据

知识库是智能体的“公共大脑”,我上传了两份核心文档:

  1. 《2025年全行业职业数据知识库(含传统+第七批新职业完整版).md》:包含各行业岗位名称、能力要求、薪资范围和发展趋势;
  2. 《专业与就业岗位核心对应表.md》:明确了不同专业(如计算机、金融、机械)对应的典型岗位和适配方向。

上传后,系统自动对文档进行了索引和增强,确保后续检索时能快速定位到相关信息。

四、第三步:记忆库创建——openJiuwen新特性的核心应用

这是本次搭建的重点,我充分利用了openJiuwen的独立记忆库功能

1. 记忆库核心配置

  • 记忆库名称职业记忆分析
  • 描述:存储用户专业背景、职业兴趣及各专业对应的职业图谱,包括岗位名称、能力要求、晋升路径等,用于辅助生成个性化职业建议、专业转岗方案及职业发展规划。
  • 关联模型
    • Embedding 模型:text-embedding-v4(负责记忆数据向量化)
    • LLM 模型:Pro/deepseek-ai/DeepSeek-V3.2(负责记忆理解与生成)

2. 记忆库新特性优势

  • 独立配置:可以为记忆库单独选择最适合的LLM和Embedding模型,不依赖智能体本身的模型配置,灵活性更高;
  • 跨Agent共享:记忆库中的用户数据可以被多个智能体调用,比如我可以在“职业规划”和“简历优化”两个智能体中,共享同一个用户的专业背景和职业偏好;
  • 上下文增强:通过记忆库,智能体能理解用户的历史对话,比如用户之前说过“想留在成都发展”,后续推荐岗位时就会优先标注成都地区的机会,上下文理解能力大幅提升。

五、第四步:智能体创建与配置

我给智能体起名为 “专业职配助手”,描述:联动职业知识库与用户专属记忆库,快速匹配专业对应的适配岗位,解答行业选择、岗位要求、晋升路径等核心问题,为用户提供精准、高效的职业匹配与咨询服务。

接下来进行提示词配置,可以使用自动优化功能进行配置。

同时,我在系统提示词中明确了记忆库的调用逻辑:

每次回复前,必须调取用户记忆库中的历史信息,确保回答贴合用户个性化需求;若记忆库中无相关信息,主动引导用户补充专业背景、职业偏好等内容,丰富记忆库;支持跨智能体共享记忆数据,让用户在不同场景下都能获得一致的个性化体验。

进行记忆库添加以及变量配置,方便智能体中的记忆库进行分类存储。

知识库添加和开场白介绍

你好,我是专业职配助手。依托职业知识库和你的专属记忆,我能快速为你匹配岗位、分析路径。请直接告诉我你的专业或目标,我会给出精准建议。

六、第五步:测试验证——记忆库让AI更懂你

创建完成后,我重点测试了记忆库的效果:

金融专业的学生,有没有对口职业推荐

  1. 输入“我专业是计算机科学技术,掌握C++,python,Linux,会AI编程”,智能体快速返回了软件开发、数据分析、网络安全等岗位,并标注了能力要求和薪资范围;回答的内容我们发现按照变量保存到了记忆库中。

  1. 清空聊天记录,重新进入智能体测试。

测试结果显示,openJiuwen的记忆库新特性,让智能体从“通用回答机器”变成了“懂你的职业伙伴”,成功保存了用户的对话信息,不用担心对话内容消失。

七、总结:记忆库是AI从“工具”到“伙伴”的关键

这次基于openJiuwen搭建专业职配助手的过程,让我深刻体会到:

  • 知识库是广度:没有高质量的行业数据,智能体就会泛泛而谈,精确的知识库,内容更加规范,具有可信度;
  • 记忆库是温度:没有用户记忆,智能体就只能给出通用答案,缺乏个性化;
  • openJiuwen的新特性是效率:独立配置、跨Agent共享的记忆库功能,让AI应用的开发和迭代更高效,也让用户体验更流畅。

如果你也想让自己的AI应用更懂用户,不妨试试openJiuwen的记忆库新特性,从一个小场景入手,比如“考研专业推荐”“留学选校”,让AI真正记住用户的需求。

部署使用参考链接:

openJiuwen项目地址:https://gitcode.com/openJiuwen?utm_source=ZEEKLOG

openJiuwen:https://openJiuwen.com?utm_source=ZEEKLOG

Read more

一文掌握 Git 分支:本地管理 + 远程协作 + 最佳实践

前言:为什么分支如此重要? 在现代软件开发中,分支(Branch) 是 Git 最强大的特性之一。想象一下: * 🚀 你可以在不影响主代码的情况下开发新功能 * 🐛 你可以独立修复紧急 Bug * 🧪 你可以安全地尝试实验性想法 * 👥 团队成员可以并行工作而不互相干扰 这一切都归功于 git branch 命令。本文将带你从零开始,全面掌握 Git 分支管理的核心技能。 一、分支的本质:理解 Git 分支模型 在深入命令之前,先理解分支的本质: ┌─────────────────────────────────────────────────┐ │ Git 分支 = 指向提交的轻量级指针 │ │ │ │ main ──→ ● ──→ ● ──→ ● (最新提交) │ │ ↘ │ │ feature ──→ ● ──→ ● (独立开发线) │ └─────────────────────────────────────────────────┘ 关键概念: * 分支只是一个指向特定提交的指针 * 创建分支几乎零成本(只创建指针,不复制文件)

By Ne0inhk
PandaWiki:更轻量的开源知识库,问答效果到底如何?(本地部署教程+效果实测)

PandaWiki:更轻量的开源知识库,问答效果到底如何?(本地部署教程+效果实测)

开源 RAG 项目我之前主要围绕 RAGFlow 写了不少落地案例。RAGFlow 定位是大而全的企业级 RAG 引擎,所以社区里也一直有人吐槽:资源吃得多、处理慢。但这事儿某种程度上就是端到端全包(解析、切分、向量化、检索、权限、工作流、评测)的代价,工程体量上去了,默认就不可能太轻。 如果你想找一款更轻量的开源方案,主要用来处理产品文档、技术文档、FAQ、博客等内容,那可以看看今天要介绍的 PandaWiki。一句话总结:PandaWiki 更像开源版的知识库产品,而不是一个给工程师从零拼装的 RAG 引擎。 这个项目实际我也是近期才注意到,GitHub 目前 8.6K Star,看趋势图下半年热度是一路走高。我花了几天集中测了下,确实有一些可圈可点的地方,这篇就抓大放小,来和各位说道说道。 这篇试图说清楚: PandaWiki 的手把手本地部署过程、

By Ne0inhk

3大开源修复模型横评:云端镜像快速部署,1天完成全面测试

3大开源修复模型横评:云端镜像快速部署,1天完成全面测试 你是不是也遇到过这样的情况:团队要选一个AI图像修复工具,大家各自在本地跑GFPGAN、CodeFormer、GPEN,结果有人用笔记本CPU跑,有人用高端显卡,测试速度、画质效果完全没法比?最后开会讨论时,谁的电脑配置高,谁的结果就“看起来更好”,根本没法做出公正决策。 这正是很多技术主管在搭建AI工具链时最头疼的问题——缺乏统一、可复现的测试环境。不同设备、不同依赖版本、不同参数设置,导致评估结果偏差巨大,选型变成“看运气”。 别急,今天我就来帮你解决这个痛点。我们不靠本地部署“拼电脑”,而是直接上云端标准化镜像环境,一键部署三大主流开源人脸修复模型:GFPGAN、CodeFormer 和 GPEN,在相同GPU资源下完成公平对比测试,1天内搞定从部署到出报告的全流程。 ZEEKLOG星图平台提供了预置好这三大模型的AI镜像,无需手动安装复杂依赖,不用折腾CUDA、PyTorch版本兼容问题,点击即用,还能对外暴露API服务,方便团队成员远程调用测试。整个过程就像租了一台“AI修复工作站”,谁都能用,结果可比对。

By Ne0inhk