大语言模型在线连续知识学习(OCKL)框架与方法研究
大语言模型在线连续知识学习(OCKL)框架及其评估方法。研究提出了知识获取速率(KAR)和知识差距(KG)两个新指标,以衡量模型学习速度及知识动态变化。实验对比了正则化、演绎和参数扩展等多种方法,重点分析了 LoRA、Mix-Review 等技术在冗余数据流、时间限制及不同模型规模下的表现。研究发现 LoRA 在计算效率和性能上具有优势,而核心集选择策略需根据数据冗余情况调整。文章总结了在线场景下方法选择的实际指导建议,旨在解决知识遗忘和计算效率问题,适应动态变化的数据流环境。


