--------0918刚刚把《动手学pytorch》看完敲完了hhh,所以重新开了一个blog。
想去看看ARIMA,这也是我之前挖的一个坑,感觉现在可以看了~嗯,去试试吧!
----0927EEE好像也不是很难挖。。。还是落实在代码上,试一试??
参考:https://zhuanlan.zhihu.com/p/60648709
数据集下不下来,还是算了。不过,这里面的这些算法都是什么哇~

总的来说:
1、对数据进行分析,确定p,d,q(可以分析后,凭经验选;也可以用准则)
2、进行训练,学习参数。
但其实细节挺恐怖的:
1、适不适合用ARIMA【比如参考文章里面的自相关性并不强——“从序列 ACF 、PACF 的图中没有发现明显的拖尾或截尾”,参考文章里后来用的STL分解】
2、d的确定,我横竖觉得差不差分看起来没啥区别

3、ARIMA模型本身要求序列平稳,额鹅鹅鹅感觉限制还蛮大的。在参考文章里,选择了一段平稳的去进行学习预测。

总的来说,ARIMA使用条件有点多(数据平稳、有自相关性),而且超参数设置的随机性有点大(对于d,p,q的选择,我感觉比起dl,这里超参的影响会比较大,毕竟这里面的超参数影响了模型本身的architecture;而dl里面,参数本身就比较多,受需要设置的超参影响比较小【我们一般调参的时候,不把模型结构这个大大的超参count进来叭hhhh】)
-----1438上午写了写总结,发现写blog记录很重要,要不然根本不知道自己干了什么。中午已经迫不及待看《人类语言处理》了hhh,不过还是先把总结和自我分析写好~要学会停下来呀!!!
鹅鹅鹅,还想说,自己这一个月的work load真的把自己吓了一跳。
—1703听歌写东西效率真的不高,而且听着听着,我感觉我好想外放了???怎么能没人提醒我呢?太尴尬了鹅鹅鹅。
----2042考完试啦!!!;
–2207今天晚上没有学习啦,就躺在床上开摆,放松一下嘿嘿!