码农知识堂 - 1000bd
  •   Python
  •   PHP
  •   JS/TS
  •   JAVA
  •   C/C++
  •   C#
  •   GO
  •   Kotlin
  •   Swift
  • TensorFlow搭建LSTM实现多变量多步长时间序列预测(五):seq2seq


    目录

    • I. 前言
    • II. seq2seq
    • III. 代码实现
      • 3.1 数据处理
      • 3.2 模型搭建
      • 3.3 模型训练/测试
      • 3.4 实验结果
    • IV. 源码及数据

    I. 前言

    系列文章:

    1. 深入理解PyTorch中LSTM的输入和输出(从input输入到Linear输出)
    2. PyTorch搭建LSTM实现时间序列预测(负荷预测)
    3. PyTorch中利用LSTMCell搭建多层LSTM实现时间序列预测
    4. PyTorch搭建LSTM实现多变量时间序列预测(负荷预测)
    5. PyTorch搭建双向LSTM实现时间序列预测(负荷预测)
    6. PyTorch搭建LSTM实现多变量多步长时间序列预测(一):直接多输出
    7. PyTorch搭建LSTM实现多变量多步长时间序列预测(二):单步滚动预测
    8. PyTorch搭建LSTM实现多变量多步长时间序列预测(三):多模型单步预测
    9. PyTorch搭建LSTM实现多变量多步长时间序列预测(四):多模型滚动预测
    10. PyTorch搭建LSTM实现多变量多步长时间序列预测(五):seq2seq
    11. PyTorch中实现LSTM多步长时间序列预测的几种方法总结(负荷预测)
    12. PyTorch-LSTM时间序列预测中如何预测真正的未来值
    13. PyTorch搭建LSTM实现多变量输入多变量输出时间序列预测(多任务学习)
    14. PyTorch搭建ANN实现时间序列预测(风速预测)
    15. PyTorch搭建CNN实现时间序列预测(风速预测)
    16. PyTorch搭建CNN-LSTM混合模型实现多变量多步长时间序列预测(负荷预测)
    17. PyTorch搭建Transformer实现多变量多步长时间序列预测(负荷预测)
    18. PyTorch时间序列预测系列文章总结(代码使用方法)
    19. TensorFlow搭建LSTM实现时间序列预测(负荷预测)
    20. TensorFlow搭建LSTM实现多变量时间序列预测(负荷预测)
    21. TensorFlow搭建双向LSTM实现时间序列预测(负荷预测)
    22. TensorFlow搭建LSTM实现多变量多步长时间序列预测(一):直接多输出
    23. TensorFlow搭建LSTM实现多变量多步长时间序列预测(二):单步滚动预测
    24. TensorFlow搭建LSTM实现多变量多步长时间序列预测(三):多模型单步预测
    25. TensorFlow搭建LSTM实现多变量多步长时间序列预测(四):多模型滚动预测
    26. TensorFlow搭建LSTM实现多变量多步长时间序列预测(五):seq2seq
    27. TensorFlow搭建LSTM实现多变量输入多变量输出时间序列预测(多任务学习)
    28. TensorFlow搭建ANN实现时间序列预测(风速预测)
    29. TensorFlow搭建CNN实现时间序列预测(风速预测)
    30. TensorFlow搭建CNN-LSTM混合模型实现多变量多步长时间序列预测(负荷预测)
    31. PyG搭建图神经网络实现多变量输入多变量输出时间序列预测
    32. PyTorch搭建GNN-LSTM和LSTM-GNN模型实现多变量输入多变量输出时间序列预测
    33. PyG Temporal搭建STGCN实现多变量输入多变量输出时间序列预测
    34. 时序预测中Attention机制是否真的有效?盘点LSTM/RNN中24种Attention机制+效果对比

    II. seq2seq

    seq2seq由两部分组成:Encoder和Decoder。seq2seq的输入是一个序列,输出也是一个序列,经常用于时间序列预测。关于seq2seq的具体原理可以参考:DL入门(3):循环神经网络(RNN)。

    III. 代码实现

    3.1 数据处理

    我们根据前24个时刻的负荷以及该时刻的环境变量来预测接下来12个时刻的负荷(步长pred_step_size可调)。

    数据处理代码和前面的直接多输出预测一致。

    3.2 模型搭建

    模型搭建分为三个步骤:编码器、解码器以及seq2seq。

    首先是Encoder:

    class Encoder(keras.Model):
        def __init__(self, args):
            super().__init__()
            self.lstm = layers.LSTM(units=args.hidden_size, input_shape=(args.seq_len, args.input_size),
                                    activation='tanh', return_sequences=True, return_state=True)
    
        def call(self, input_seq):
            output, h, c = self.lstm(input_seq)
    
            return h, c
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10

    一般来讲编码器采用的就是RNN网络,这里采用了LSTM将原始数据进行编码,然后将LSTM的最后的隐状态和单元状态返回。

    接着是解码器Decoder:

    class Decoder(keras.Model):
        def __init__(self, args):
            super().__init__()
            self.lstm = layers.LSTM(units=args.hidden_size, input_shape=(args.seq_len, args.input_size),
                                    activation='tanh', return_sequences=True, return_state=True)
            self.fc1 = layers.Dense(64, activation='relu')
            self.fc2 = layers.Dense(args.input_size)
    
        def call(self, input_seq, h, c):
            # input_seq(batch_size, input_size)
            batch_size, input_size = input_seq.shape[0], input_seq.shape[1]
            input_seq = tf.reshape(input_seq, [batch_size, 1, input_size])
            output, h, c = self.lstm(input_seq, initial_state=[h, c])
            # output(batch_size, seq_len, num * hidden_size)
            pred = self.fc1(tf.squeeze(output, axis=1))  # pred(batch_size, 1, output_size)
            pred = self.fc2(pred)
    
            return pred, h, c
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18

    解码器同样也由LSTM组成,不过解码器的初始的隐状态和单元状态是编码器的输出。此外,解码器每次输入都是上次的输出。

    最后定义seq2seq:

    class Seq2Seq(keras.Model):
        def __init__(self, args):
            super().__init__()
            self.args = args
            self.Encoder = Encoder(args)
            self.Decoder = Decoder(args)
    
        def call(self, input_seq):
            batch_size, seq_len, input_size = input_seq.shape[0], input_seq.shape[1], input_seq.shape[2]
            h, c = self.Encoder(input_seq)
            outputs = []
            decoder_input = input_seq[:, -1, :]
            target_len = self.args.output_size
            for t in range(target_len):
                decoder_output, h, c = self.Decoder(decoder_input, h, c)
                outputs.append(decoder_output)
                decoder_input = decoder_output
    
            outputs = tf.stack(outputs, axis=2)
            return outputs[:, 0, :]
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7
    • 8
    • 9
    • 10
    • 11
    • 12
    • 13
    • 14
    • 15
    • 16
    • 17
    • 18
    • 19
    • 20

    这里原理与PyTorch搭建LSTM实现多变量多步长时间序列预测(五):seq2seq
    中一致,不再赘述。

    3.3 模型训练/测试

    模型训练和测试同前文一致。

    3.4 实验结果

    前24个预测未来12个,每个模型训练30轮,MAPE为9.36%,还需要进一步完善。
    在这里插入图片描述

    IV. 源码及数据

    后面将陆续公开~

  • 相关阅读:
    Vue3+TypeScript学习
    java剧院售票系统计算机毕业设计MyBatis+系统+LW文档+源码+调试部署
    vue使用谷歌地图实现地点查询
    计算机网络:随机访问介质访问控制之令牌传递协议
    用好JAVA中的函数式接口,轻松从通用代码中剥离掉业务定制逻辑
    文件包含_具体场景、zip、php相关问题
    【自学开发之旅】Flask-前后端联调-异常标准化返回(六)
    Java语法笔记
    4.6 - 堆 4.7 - 图
    JVM知识点
  • 原文地址:https://blog.csdn.net/Cyril_KI/article/details/126563659
  • 最新文章
  • 攻防演习之三天拿下官网站群
    数据安全治理学习——前期安全规划和安全管理体系建设
    企业安全 | 企业内一次钓鱼演练准备过程
    内网渗透测试 | Kerberos协议及其部分攻击手法
    0day的产生 | 不懂代码的"代码审计"
    安装scrcpy-client模块av模块异常,环境问题解决方案
    leetcode hot100【LeetCode 279. 完全平方数】java实现
    OpenWrt下安装Mosquitto
    AnatoMask论文汇总
    【AI日记】24.11.01 LangChain、openai api和github copilot
  • 热门文章
  • 十款代码表白小特效 一个比一个浪漫 赶紧收藏起来吧!!!
    奉劝各位学弟学妹们,该打造你的技术影响力了!
    五年了,我在 CSDN 的两个一百万。
    Java俄罗斯方块,老程序员花了一个周末,连接中学年代!
    面试官都震惊,你这网络基础可以啊!
    你真的会用百度吗?我不信 — 那些不为人知的搜索引擎语法
    心情不好的时候,用 Python 画棵樱花树送给自己吧
    通宵一晚做出来的一款类似CS的第一人称射击游戏Demo!原来做游戏也不是很难,连憨憨学妹都学会了!
    13 万字 C 语言从入门到精通保姆级教程2021 年版
    10行代码集2000张美女图,Python爬虫120例,再上征途
Copyright © 2022 侵权请联系2656653265@qq.com    京ICP备2022015340号-1
正则表达式工具 cron表达式工具 密码生成工具

京公网安备 11010502049817号