模型调参:压力也没那么大,试了一圈还是得靠贝叶斯
YouTube网红小哥Siraj Raval的趣味小视频系列The Math of Intelligence又来啦!这期我们来讲一讲机器学习建模中最痛苦的部分——“超参数调优”。
超参数调优方法我们试了个遍,人工搜索、网格搜索、随机搜索……但最后发现:有了贝叶斯,压力其实也没那么大!
图片来自网络
“超参数”是指模型里的那些预先设定的、无法直接从模型训练中得到的参数。随机森林树木的个数、神经网络隐藏层的个数、逻辑回归的学习率,这些都是超参数。调好超参数,模型会有意外好的表现。
视频内含超多笑点,文摘菌先来预告几个,下拉观看完整视频哟!
笑点预告1:今天我们用SVM来分类一句Twitter的语气是正向的还是负向的,这叫做情感分析▼
星球大战Darth Vader:I am your father,内心戏多不外露,分析不出来能怪我?
笑点预告2:搜索参数啊搜索参数……你们找着找着就会遇到这个诅咒▼
维度超多!完全搜不过来!超开心!
笑点预告3:一定有更好的方法对不对!我们要充分发挥我们的聪明才智▼
而不是成为压力也没那么大的28岁互联网公司程序员对不对!
笑点预告4:终于,我们要和贝叶斯老爷见面了。我们先让频率学派和贝叶斯学派打一架▼
贝叶斯学派认为样本数据是确定的而参数是随机的,频率学派则相反,认为参数是确定的而样本是随机的。在超参数调优中,贝叶斯方法更占优势。
为什么试了一圈还是得靠贝叶斯?赶紧戳开视频了解吧!
▼小哥告诉你,为什么贝爷才是真爱?