从0到1打造专业职配助手:基于openJiuwen记忆库新特性的AI职业规划实战

从0到1打造专业职配助手:基于openJiuwen记忆库新特性的AI职业规划实战

前言

最近基于openJiuwen框架,用它最新推出的独立记忆库功能,搭建了一个“专业职配助手”智能体。它不仅能依托行业知识库给出专业-岗位匹配建议,更能通过记忆库记住用户的专业背景、职业偏好,实现跨智能体的个性化推荐。今天就把从模型配置到智能体测试的全流程拆解给你,重点聊聊记忆库如何让AI真正“懂你”。

一、核心思路:知识库+记忆库,让AI从“会回答”到“懂你”

这次搭建的核心,是openJiuwen的记忆库新特性

  • 知识库:作为“公共知识底座”,存储全行业职业数据、专业与岗位对应表,解决“专业能做什么”的问题;
  • 记忆库:作为“用户专属档案”,存储用户的专业背景、职业偏好、咨询历史,解决“你适合做什么”的问题;
  • 大模型:负责理解用户需求,同时调用知识库和记忆库,生成精准、个性化的职业建议。

一句话概括:用知识库提供行业广度,用记忆库赋予用户温度,让这两者的结合更高效、更灵活。

二、第一步:模型配置——打好智能体基础

openJiuwen支持独立配置LLM和Embedding模型,这让我可以根据场景选择最适合的工具:

1. LLM模型(对话与记忆理解)

我选择了 DeepSeek-V3.2,通过 SiliconFlow 平台接入:

  • 模型友好名称Pro/deepseek-ai/DeepSeek-V3.2
  • API协议SiliconFlow
  • 基础服务地址https://api.siliconflow.cn/v1/chat/completions
  • API密钥:从 SiliconFlow 控制台获取

这个模型负责理解用户对话、解析记忆库中的用户信息,是实现个性化推荐的核心。

接下来测试模型是否配置成功

2. Embedding模型(文本向量化,支撑记忆检索)

为了让知识库和记忆库能被高效检索,我配置了 text-embedding-v4

  • 模型友好名称text-embedding-v4
  • API协议OpenAI
  • 基础服务地址https://dashscope.aliyuncs.com/compatible-mode/v1
  • API密钥:从阿里云百炼控制台获取

它负责将用户的对话和记忆数据转换成向量,是记忆库能快速定位用户信息的关键,同时检索上传的知识库。

三、第二步:知识库搭建——全行业职业数据

知识库是智能体的“公共大脑”,我上传了两份核心文档:

  1. 《2025年全行业职业数据知识库(含传统+第七批新职业完整版).md》:包含各行业岗位名称、能力要求、薪资范围和发展趋势;
  2. 《专业与就业岗位核心对应表.md》:明确了不同专业(如计算机、金融、机械)对应的典型岗位和适配方向。

上传后,系统自动对文档进行了索引和增强,确保后续检索时能快速定位到相关信息。

四、第三步:记忆库创建——openJiuwen新特性的核心应用

这是本次搭建的重点,我充分利用了openJiuwen的独立记忆库功能

1. 记忆库核心配置

  • 记忆库名称职业记忆分析
  • 描述:存储用户专业背景、职业兴趣及各专业对应的职业图谱,包括岗位名称、能力要求、晋升路径等,用于辅助生成个性化职业建议、专业转岗方案及职业发展规划。
  • 关联模型
    • Embedding 模型:text-embedding-v4(负责记忆数据向量化)
    • LLM 模型:Pro/deepseek-ai/DeepSeek-V3.2(负责记忆理解与生成)

2. 记忆库新特性优势

  • 独立配置:可以为记忆库单独选择最适合的LLM和Embedding模型,不依赖智能体本身的模型配置,灵活性更高;
  • 跨Agent共享:记忆库中的用户数据可以被多个智能体调用,比如我可以在“职业规划”和“简历优化”两个智能体中,共享同一个用户的专业背景和职业偏好;
  • 上下文增强:通过记忆库,智能体能理解用户的历史对话,比如用户之前说过“想留在成都发展”,后续推荐岗位时就会优先标注成都地区的机会,上下文理解能力大幅提升。

五、第四步:智能体创建与配置

我给智能体起名为 “专业职配助手”,描述:联动职业知识库与用户专属记忆库,快速匹配专业对应的适配岗位,解答行业选择、岗位要求、晋升路径等核心问题,为用户提供精准、高效的职业匹配与咨询服务。

接下来进行提示词配置,可以使用自动优化功能进行配置。

同时,我在系统提示词中明确了记忆库的调用逻辑:

每次回复前,必须调取用户记忆库中的历史信息,确保回答贴合用户个性化需求;若记忆库中无相关信息,主动引导用户补充专业背景、职业偏好等内容,丰富记忆库;支持跨智能体共享记忆数据,让用户在不同场景下都能获得一致的个性化体验。

进行记忆库添加以及变量配置,方便智能体中的记忆库进行分类存储。

知识库添加和开场白介绍

你好,我是专业职配助手。依托职业知识库和你的专属记忆,我能快速为你匹配岗位、分析路径。请直接告诉我你的专业或目标,我会给出精准建议。

六、第五步:测试验证——记忆库让AI更懂你

创建完成后,我重点测试了记忆库的效果:

金融专业的学生,有没有对口职业推荐

  1. 输入“我专业是计算机科学技术,掌握C++,python,Linux,会AI编程”,智能体快速返回了软件开发、数据分析、网络安全等岗位,并标注了能力要求和薪资范围;回答的内容我们发现按照变量保存到了记忆库中。

  1. 清空聊天记录,重新进入智能体测试。

测试结果显示,openJiuwen的记忆库新特性,让智能体从“通用回答机器”变成了“懂你的职业伙伴”,成功保存了用户的对话信息,不用担心对话内容消失。

七、总结:记忆库是AI从“工具”到“伙伴”的关键

这次基于openJiuwen搭建专业职配助手的过程,让我深刻体会到:

  • 知识库是广度:没有高质量的行业数据,智能体就会泛泛而谈,精确的知识库,内容更加规范,具有可信度;
  • 记忆库是温度:没有用户记忆,智能体就只能给出通用答案,缺乏个性化;
  • openJiuwen的新特性是效率:独立配置、跨Agent共享的记忆库功能,让AI应用的开发和迭代更高效,也让用户体验更流畅。

如果你也想让自己的AI应用更懂用户,不妨试试openJiuwen的记忆库新特性,从一个小场景入手,比如“考研专业推荐”“留学选校”,让AI真正记住用户的需求。

部署使用参考链接:

openJiuwen项目地址:https://gitcode.com/openJiuwen?utm_source=ZEEKLOG

openJiuwen:https://openJiuwen.com?utm_source=ZEEKLOG

Read more

怎么样才能降低AIGC(亲测好用)

怎么样才能降低AIGC(亲测好用)

以下博文将教会你如何降低自己论文的AIGC率,简单易学,但是不包会。 方法一:手动让AI变得像人 首先先生成一个AIGC检测报告,反正又不要钱,只要进行漫长的等待: 然后,重点来了,你照着改就行了: 1.内容格式不对被判定AIGC(详细可见博主上篇文章) 看过博主的毕业论文撰写指南的同学都知道,一定要用大段大段的文字来让他生成,总之句子一定要有主语,以及不要把一个短句后前后加句号,因为格子达是以一个句号来查AGC的,这样小句子非常容易风险。 2.AI特别喜欢使用“首先,其次,另外,此外,因此”,而且用逗号隔开,这时候就要把这句话连接起来。 比如:因此,A1GC率的问题确实感到烦恼和困扰。 改成:所以AGC率的问题确实感到烦恼和困扰。 3.一般没有主语的句子,会被判定为AI写作!降A1的时候一定要把句子的主语加上。 比如:因此,AGC率的问题确实感到烦恼和困扰。 改成:所以AGC率的问题确实让我感到烦恼和困扰。 4.内容空洞,没有例子,干货 AI写的论文看起来好像有点道理,但实际上没有实质性内容,纯凑字数,

AMD显卡终极兼容性解决方案:llama.cpp快速部署完整指南

AMD显卡终极兼容性解决方案:llama.cpp快速部署完整指南 【免费下载链接】llama.cppPort of Facebook's LLaMA model in C/C++ 项目地址: https://gitcode.com/GitHub_Trending/ll/llama.cpp 想要在AMD显卡上流畅运行llama.cpp却总是遇到各种兼容性问题?本文为你提供一套完整的解决方案,从问题识别到性能优化,手把手教你解决AMD显卡与Vulkan后端的兼容性挑战。 为什么AMD显卡与llama.cpp存在兼容性问题 AMD显卡用户在使用llama.cpp时常常面临Vulkan初始化失败、模型加载卡顿、推理速度缓慢等问题。这些问题主要源于: * 驱动版本不匹配:不同世代的AMD显卡对Vulkan标准的支持程度存在差异 * 内存管理机制冲突:AMD的显存管理与llama.cpp的预期存在偏差 * 着色器编译异常:特定驱动版本在编译SPIR-V着色器时会产生无效代码 这张矩阵乘法示意图展示了llama.cpp在GPU上进行张量运算的核心原理,帮助你理解为什么兼容性问

ClawdBot真实案例:树莓派4上同时运行OCR/Whisper/vLLM,15用户并发无卡顿

ClawdBot真实案例:树莓派4上同时运行OCR/Whisper/vLLM,15用户并发无卡顿 1. 什么是ClawdBot?一个真正属于你的本地AI助手 ClawdBot不是另一个云端API包装器,也不是需要注册账号、绑定手机号的SaaS服务。它是一个你完全掌控的个人AI助手——所有计算发生在你自己的设备上,消息不上传、模型不调用第三方服务、对话历史默认不留存。你可以把它装在树莓派4里放在书桌角落,也可以部署在老旧笔记本上作为家庭AI中枢,甚至塞进一台闲置的NUC里变成办公室智能前台。 它的核心设计哲学很朴素:AI能力应该像电和水一样,成为你设备的底层能力,而不是需要反复登录的远程服务。当你在终端输入clawdbot devices list,看到的是真实连接到你本地机器的设备列表;当你执行clawdbot models list,列出的是正在你内存中运行的vLLM实例;当你在Telegram里发一条语音,转写、翻译、响应全过程都在你家里的树莓派上完成——没有数据离开你的局域网。 这种“本地即服务”的模式,带来三个实实在在的好处:一是隐私可控,聊天内容、图片、语音全部留在