今天咱们聊聊用MATLAB玩时间序列预测的野路子。别被那些AR、ARIMA之类的缩写吓到,说白了就是找规律猜未来的游戏。直接上代码更实在,咱边写边唠

今天咱们聊聊用MATLAB玩时间序列预测的野路子。别被那些AR、ARIMA之类的缩写吓到,说白了就是找规律猜未来的游戏。直接上代码更实在,咱边写边唠

几种时间序列预测方法(MATLAB R2021B) 算法运行环境为MATLAB R2021B,执行几种时间序列预测方法,包括: 1) Autoregression (AR) 2) Moving Average 3) Autoregressive Moving Average 4) Autoregressive Integrated Moving Average (ARIMA) 5) Seasonal Autoregressive Integrated Moving-Average (SARIMA) 6) Seasonal Autoregressive Integrated Moving Average with Exogenous Regressors (SARIMAX) 7) Vector Autoregression (VAR) 8) GARCH Model 9) Glostan, Jagannathan and Runkle GARCH Model

先整点数据热身。假设手头有个股票收盘价序列,长度500天:

data = cumsum(randn(500,1)*0.5 + 0.01) + 50; % 带趋势的随机游走 plot(data) title('假装这是股票价格')

这串随机数生成器造的数据有微弱正趋势,标准差0.5,初始值50。cumsum让数据有持续性特征,符合金融时间序列特性。

AR模型实战

自回归的核心就是拿历史数据当预测依据。比如用前3天的数据预测明天:

Mdl = arima('ARLags',1:3); EstMdl = estimate(Mdl, data); [YF, YMSE] = forecast(EstMdl, 5, data); % 预测未来5天

这里'ARLags'参数指定滞后阶数,1:3表示用t-1,t-2,t-3时刻的值。estimate函数会返回模型参数估计值,注意MATLAB自动做了标准化处理。预测时YMSE是预测方差,可以画置信区间。

ARIMA进阶版

加上差分处理非平稳数据更带劲:

Mdl = arima(2,1,1); % AR阶2,差分阶1,MA阶1 EstMdl = estimate(Mdl, data); [YF, YMSE] = forecast(EstMdl, 5, 'Y0', data);

差分阶数1表示做一阶差分消除趋势。模型训练时注意看命令行输出的参数显著性,p值小于0.05的项才有保留价值。如果MA项系数不显著,可以降阶试试。

GARCH家族玩波动

几种时间序列预测方法(MATLAB R2021B) 算法运行环境为MATLAB R2021B,执行几种时间序列预测方法,包括: 1) Autoregression (AR) 2) Moving Average 3) Autoregressive Moving Average 4) Autoregressive Integrated Moving Average (ARIMA) 5) Seasonal Autoregressive Integrated Moving-Average (SARIMA) 6) Seasonal Autoregressive Integrated Moving Average with Exogenous Regressors (SARIMAX) 7) Vector Autoregression (VAR) 8) GARCH Model 9) Glostan, Jagannathan and Runkle GARCH Model

搞金融预测必须处理波动聚集现象:

Mdl = garch('GARCHLags',1,'ARCHLags',1); EstMdl = estimate(Mdl, diff(data)); % 对收益率建模 condVar = infer(EstMdl, diff(data)); % 提取条件方差 plot([diff(data), condVar]) legend('收益率','波动率')

这里用差分后的收益率数据,infer函数能提取波动率估计。GARCH(1,1)模型里,ARCH项反映新息冲击,GARCH项体现波动持续性。如果发现杠杆效应(跌的时候波动更大),可以升级到GJR-GARCH:

Mdl = gjr('GARCHLags',1,'ARCHLags',1,'LeverageLags',1); EstMdl = estimate(Mdl, diff(data));

多了个LeverageLags参数来捕捉不对称效应。回测时要注意,这类模型对参数初值敏感,可能需要多试几次初值设定。

多变量搞事情——VAR模型

当多个时间序列互相影响时:

data_multi = [data, randn(500,1)*2 + 5]; % 伪造第二个变量 Mdl = varm(2,2); % 两个变量,滞后2阶 EstMdl = estimate(Mdl, data_multi); [YF, YMSE] = forecast(EstMdl, 5, data_multi);

varm模型会自动估计变量间的交叉影响。注意数据要先做平稳性检验,可以用MATLAB的adftest做单位根检验。预测时输出的YF是矩阵,每列对应一个变量的预测值。

季节杀器SARIMA

处理像销售额这种有季节波动的:

Mdl = arima('ARLags',1:2,'D',1,'Seasonality',12,... 'MALags',1,'SMALags',12); EstMdl = estimate(Mdl, data);

这里设置季节周期为12(比如月度数据),Seasonality参数自动创建季节性差分。实际操作中要先用季节图判断周期长度,别瞎猜参数。可以用x13as工具做季节调整,再喂给模型。

代码跑完别急着收工,几个避坑指南:

  1. 预测前务必做残差诊断:用lbqtest检验自相关性
  2. 模型对比用AIC/BIC指标,别光看拟合误差
  3. 样本外预测要用滚动窗口验证,防止过拟合
  4. 用parfor加速参数寻优,特别是SARIMAX这种参数多的模型

说到底,时间序列预测就是平衡bias和variance的艺术。没有通吃所有场景的银弹,多备几把刷子,根据数据特征选兵器才是王道。下次遇到震荡市,不妨试试GARCH系模型;要是数据有明显周期规律,SARIMA可能更香。代码只是工具,理解数据内在逻辑才是真功夫。

Read more

【Claude Code解惑】深度评测:Claude Code vs. GitHub Copilot CLI,谁才是终端之王?

【Claude Code解惑】深度评测:Claude Code vs. GitHub Copilot CLI,谁才是终端之王?

深度评测:Claude Code vs. GitHub Copilot CLI,谁才是终端之王? 目录 1. 引言与背景 2. 原理解释(深入浅出) 3. 10分钟快速上手(可复现) 4. 代码实现与工程要点 5. 应用场景与案例 6. 实验设计与结果分析 7. 性能分析与技术对比 8. 消融研究与可解释性 9. 可靠性、安全与合规 10. 工程化与生产部署 11. 常见问题与解决方案(FAQ) 12. 创新性与差异性 13. 局限性与开放挑战 14. 未来工作与路线图 15. 扩展阅读与资源 16. 图示与交互 17. 术语表与速查表 18. 互动与社区 0.

Llama-Factory如何设置warmup步数?线性增长策略推荐

Llama-Factory如何设置warmup步数?线性增长策略推荐 在大模型微调实践中,你是否遇到过训练刚开始 loss 就飙升到 NaN 的情况?或者前几个 epoch 损失剧烈震荡,导致最终性能不稳定?这类问题往往不是数据或模型结构的问题,而是学习率调度中一个关键细节被忽略了——warmup 步数的合理设置。 尤其在使用像 Llama-Factory 这样支持全参数微调、LoRA 和 QLoRA 的通用框架时,虽然上手门槛低,但如果对底层优化机制缺乏理解,很容易因为默认配置“跑不动”而误判工具本身的能力。其中,warmup 阶段的设计直接决定了模型能否平稳度过最脆弱的初始训练期。 为什么 warmup 如此重要? 现代大语言模型(LLM)通常拥有数十亿甚至上百亿参数,初始化权重是随机的。训练初期,梯度可能非常大且方向不稳定。如果此时直接使用较高的学习率进行更新,会导致参数跳跃幅度过大,破坏初始学习动态,甚至引发梯度爆炸。 Warmup 机制就是为了解决这个问题:它让学习率从接近零开始,在前若干步中逐步上升至预设的基础学习率。这个“预热”

多模态模型Qwen3-VL在Llama-Factory嵌套量化QLoRA训练+测试+导出+部署(Ollama/LMDeploy)全流程--以具身智能数据集open-eqa为例

多模态模型Qwen3-VL在Llama-Factory嵌套量化QLoRA训练+测试+导出+部署(Ollama/LMDeploy)全流程--以具身智能数据集open-eqa为例

前期环境配置等准备可参考教程: 多模态模型Qwen3-VL在Llama-Factory中断LoRA微调训练+测试+导出+部署全流程--以具身智能数据集open-eqa为例 这里数据来源 Open-EQA 多模态具身智能数据集,经过处理每个样本八张图片,划分为训练-验证集和测试集。 若对下载和处理open-eqa数据集代码有兴趣,可以通过网盘分享的文件:OpenEQACode.zip 链接: https://pan.baidu.com/s/1DqmIp1Xw6HJPX77O-iOXdQ?pwd=dgn8 提取码: dgn8 如果不方便下载和处理open-eqa数据集,可以通过网盘分享的文件:OpenEQA8s.zip 链接: https://pan.baidu.com/s/1_6G4YwI5tmYXUSDLssJ13A?pwd=hfvw 提取码: hfvw 1.微调训练 有cuda显卡可以执行pip install unsloth可以安装Unsloth加快训练和推理 执行pip install tensorboard安装保存完整训练过程的数据,避免中断只能部分曲线

【实战】从零搭建GEO多平台监控系统:支持ChatGPT、豆包、Kimi、文心一言

【实战】从零搭建GEO多平台监控系统:支持ChatGPT、豆包、Kimi、文心一言

【实战】从零搭建GEO多平台监控系统:支持ChatGPT、豆包、Kimi、文心一言 背景 Sora死了。 我的第一反应不是"AI完了",而是"我的监控代码要不要改"。 因为之前我专门写了Sora的监控脚本。 Sora一关,代码废了。 痛定思痛,我决定写一套通用的GEO多平台监控方案。 本文分享完整代码,支持:ChatGPT、豆包、Kimi、文心一言、通义千问。 系统架构 ┌─────────────────────────────────────────────────────────┐ │ GEO多平台监控系统 │ ├─────────────────────────────────────────────────────────┤ │ │ │ ┌───────────┐ ┌───────────┐ ┌───────────┐ │ │ │ 任务调度 │→ │ 平台查询 │→ │ 结果分析 │ │ │ └───────────┘ └───────────┘ └───────────┘ │ │ ↑ ↓ ↓ │ │ └──── 告警通知 ←────── 报告生成 ←─