我的编程空间,编程开发者的网络收藏夹
学习永远不晚

Python中LSTM回归神经网络时间序列如何预测

短信预约 -IT技能 免费直播动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

Python中LSTM回归神经网络时间序列如何预测

这篇文章主要介绍“Python中LSTM回归神经网络时间序列如何预测”,在日常操作中,相信很多人在Python中LSTM回归神经网络时间序列如何预测问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”Python中LSTM回归神经网络时间序列如何预测”的疑惑有所帮助!接下来,请跟着小编一起来学习吧!

前言:

这个问题是国际航空乘客预测问题, 数据是1949年1月到1960年12月国际航空公司每个月的乘客数量(单位:千人),共有12年144个月的数据。
数据趋势:

Python中LSTM回归神经网络时间序列如何预测

训练程序:

import numpy as np import pandas as pd import matplotlib.pyplot as plt import torch from torch import nnfrom torch.autograd import Variable#LSTM(Long Short-Term Memory)是长短期记忆网络data_csv = pd.read_csv('C:/Users/DZF/Desktop/LSTM/data.csv',usecols=[1])#pandas.read_csv可以读取CSV(逗号分割)文件、文本类型的文件text、log类型到DataFrame#原有两列,时间和乘客数量,usecols=1:只取了乘客数量一列plt.plot(data_csv)plt.show()#数据预处理data_csv = data_csv.dropna() #去掉na数据dataset = data_csv.values      #字典(Dictionary) values():返回字典中的所有值。dataset = dataset.astype('float32')   #astype(type):实现变量类型转换  max_value = np.max(dataset)min_value = np.min(dataset)scalar = max_value-min_valuedataset = list(map(lambda x: x/scalar, dataset)) #将数据标准化到0~1之间#lambda:定义一个匿名函数,区别于def#map(f(x),Itera):map()接收函数f和一个list,把函数f依次作用在list的每个元素上,得到一个新的object并返回'''接着我们进行数据集的创建,我们想通过前面几个月的流量来预测当月的流量,比如我们希望通过前两个月的流量来预测当月的流量,我们可以将前两个月的流量当做输入,当月的流量当做输出。同时我们需要将我们的数据集分为训练集和测试集,通过测试集的效果来测试模型的性能,这里我们简单的将前面几年的数据作为训练集,后面两年的数据作为测试集。'''def create_dataset(dataset,look_back=2):#look_back 以前的时间步数用作输入变量来预测下一个时间段    dataX, dataY=[], []    for i in range(len(dataset) - look_back):        a = dataset[i:(i+look_back)]  #i和i+1赋值        dataX.append(a)        dataY.append(dataset[i+look_back])  #i+2赋值    return np.array(dataX), np.array(dataY)  #np.array构建数组data_X, data_Y = create_dataset(dataset)#data_X: 2*142     data_Y: 1*142#划分训练集和测试集,70%作为训练集train_size = int(len(data_X) * 0.7)test_size = len(data_X)-train_size train_X = data_X[:train_size]train_Y = data_Y[:train_size] test_X = data_X[train_size:]test_Y = data_Y[train_size:] train_X = train_X.reshape(-1,1,2) #reshape中,-1使元素变为一行,然后输出为1列,每列2个子元素train_Y = train_Y.reshape(-1,1,1) #输出为1列,每列1个子元素test_X = test_X.reshape(-1,1,2) train_x = torch.from_numpy(train_X) #torch.from_numpy(): numpy中的ndarray转化成pytorch中的tensor(张量)train_y = torch.from_numpy(train_Y)test_x = torch.from_numpy(test_X)#定义模型 输入维度input_size是2,因为使用2个月的流量作为输入,隐藏层维度hidden_size可任意指定,这里为4class lstm_reg(nn.Module):    def __init__(self,input_size,hidden_size, output_size=1,num_layers=2):        super(lstm_reg,self).__init__()        #super() 函数是用于调用父类(超类)的一个方法,直接用类名调用父类        self.rnn = nn.LSTM(input_size,hidden_size,num_layers) #LSTM 网络        self.reg = nn.Linear(hidden_size,output_size) #Linear 函数继承于nn.Module    def forward(self,x):   #定义model类的forward函数        x, _ = self.rnn(x)        s,b,h = x.shape   #矩阵从外到里的维数                   #view()函数的功能和reshape类似,用来转换size大小        x = x.view(s*b, h) #输出变为(s*b)*h的二维        x = self.reg(x)        x = x.view(s,b,-1) #卷积的输出从外到里的维数为s,b,一列        return xnet = lstm_reg(2,4) #input_size=2,hidden_size=4 criterion = nn.MSELoss()  #损失函数均方差optimizer = torch.optim.Adam(net.parameters(),lr=1e-2)#构造一个优化器对象 Optimizer,用来保存当前的状态,并能够根据计算得到的梯度来更新参数#Adam 算法:params (iterable):可用于迭代优化的参数或者定义参数组的 dicts   lr:学习率for e in range(10000):    var_x = Variable(train_x) #转为Variable(变量)    var_y = Variable(train_y)    out = net(var_x)    loss = criterion(out, var_y)    optimizer.zero_grad() #把梯度置零,也就是把loss关于weight的导数变成0.    loss.backward()  #计算得到loss后就要回传损失,这是在训练的时候才会有的操作,测试时候只有forward过程    optimizer.step() #回传损失过程中会计算梯度,然后optimizer.step()根据这些梯度更新参数    if (e+1)%100 == 0:        print('Epoch: {}, Loss:{:.5f}'.format(e+1, loss.data[0]))        torch.save(net.state_dict(), 'net_params.pkl') #保存训练文件net_params.pkl#state_dict 是一个简单的python的字典对象,将每一层与它的对应参数建立映射关系

测试程序:

import numpy as np import pandas as pd import matplotlib.pyplot as plt import torch from torch import nnfrom torch.autograd import Variabledata_csv = pd.read_csv('C:/Users/DZF/Desktop/LSTM/data.csv',usecols=[1]) # plt.plot(data_csv)# plt.show()#数据预处理data_csv = data_csv.dropna() #去掉na数据dataset = data_csv.values #字典(Dictionary) values():返回字典中的所有值。dataset = dataset.astype('float32') # astype(type):实现变量类型转换  max_value = np.max(dataset)min_value = np.min(dataset)scalar = max_value-min_valuedataset = list(map(lambda x: x/scalar, dataset)) #将数据标准化到0~1之间def create_dataset(dataset,look_back=2):    dataX, dataY=[], []    for i in range(len(dataset)-look_back):        a=dataset[i:(i+look_back)]        dataX.append(a)        dataY.append(dataset[i+look_back])    return np.array(dataX), np.array(dataY) data_X, data_Y = create_dataset(dataset)class lstm_reg(nn.Module):    def __init__(self,input_size,hidden_size, output_size=1,num_layers=2):        super(lstm_reg,self).__init__()         self.rnn = nn.LSTM(input_size,hidden_size,num_layers)        self.reg = nn.Linear(hidden_size,output_size)     def forward(self,x):        x, _ = self.rnn(x)        s,b,h = x.shape        x = x.view(s*b, h)        x = self.reg(x)        x = x.view(s,b,-1)        return x net = lstm_reg(2,4)net.load_state_dict(torch.load('net_params.pkl')) data_X = data_X.reshape(-1, 1, 2) #reshape中,-1使元素变为一行,然后输出为1列,每列2个子元素data_X = torch.from_numpy(data_X) #torch.from_numpy(): numpy中的ndarray转化成pytorch中的tensor(张量)var_data = Variable(data_X) #转为Variable(变量)pred_test = net(var_data)  #产生预测结果pred_test = pred_test.view(-1).data.numpy() #view(-1)输出为一行plt.plot(pred_test, 'r', label='prediction')plt.plot(dataset, 'b', label='real')plt.legend(loc='best') #loc显示图像  'best'表示自适应方式plt.show()

预测结果:

Python中LSTM回归神经网络时间序列如何预测

到此,关于“Python中LSTM回归神经网络时间序列如何预测”的学习就结束了,希望能够解决大家的疑惑。理论与实践的搭配能更好的帮助大家学习,快去试试吧!若想继续学习更多相关知识,请继续关注编程网网站,小编会继续努力为大家带来更多实用的文章!

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

Python中LSTM回归神经网络时间序列如何预测

下载Word文档到电脑,方便收藏和打印~

下载Word文档

猜你喜欢

Python中LSTM回归神经网络时间序列如何预测

这篇文章主要介绍“Python中LSTM回归神经网络时间序列如何预测”,在日常操作中,相信很多人在Python中LSTM回归神经网络时间序列如何预测问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”Python中
2023-07-02

神经网络算法RNN实现时间序列预测

这篇文章主要为大家介绍了神经网络算法RNN实现时间序列预测示例详解,有需要的朋友可以借鉴参考下,希望能够有所帮助,祝大家多多进步,早日升职加薪
2023-05-17

Python中如何进行基于BP神经网络的预测

今天就跟大家聊聊有关Python中如何进行基于BP神经网络的预测,可能很多人都不太了解,为了让大家更加了解,小编给大家总结了以下内容,希望大家根据这篇文章可以有所收获。一、Introduction1 BP神经网络的优点非线性映射能力:BP神
2023-06-26

如何使用python实现时间序列预测中的数据滑窗操作

这篇文章主要为大家展示了“如何使用python实现时间序列预测中的数据滑窗操作”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“如何使用python实现时间序列预测中的数据滑窗操作”这篇文章吧。撰写
2023-06-29

如何使用Python中的数据分析库处理和预测时间序列数据

如何使用Python中的数据分析库处理和预测时间序列数据时间序列数据是指按时间顺序排列的数据,其特点是具有时间上的相关性和趋势性。在许多领域中,时间序列数据分析起着重要的作用,如股市预测、天气预报、销售预测等。Python中有许多强大的数据
2023-10-22

编程热搜

  • Python 学习之路 - Python
    一、安装Python34Windows在Python官网(https://www.python.org/downloads/)下载安装包并安装。Python的默认安装路径是:C:\Python34配置环境变量:【右键计算机】--》【属性】-
    Python 学习之路 - Python
  • chatgpt的中文全称是什么
    chatgpt的中文全称是生成型预训练变换模型。ChatGPT是什么ChatGPT是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列
    chatgpt的中文全称是什么
  • C/C++中extern函数使用详解
  • C/C++可变参数的使用
    可变参数的使用方法远远不止以下几种,不过在C,C++中使用可变参数时要小心,在使用printf()等函数时传入的参数个数一定不能比前面的格式化字符串中的’%’符号个数少,否则会产生访问越界,运气不好的话还会导致程序崩溃
    C/C++可变参数的使用
  • css样式文件该放在哪里
  • php中数组下标必须是连续的吗
  • Python 3 教程
    Python 3 教程 Python 的 3.0 版本,常被称为 Python 3000,或简称 Py3k。相对于 Python 的早期版本,这是一个较大的升级。为了不带入过多的累赘,Python 3.0 在设计的时候没有考虑向下兼容。 Python
    Python 3 教程
  • Python pip包管理
    一、前言    在Python中, 安装第三方模块是通过 setuptools 这个工具完成的。 Python有两个封装了 setuptools的包管理工具: easy_install  和  pip , 目前官方推荐使用 pip。    
    Python pip包管理
  • ubuntu如何重新编译内核
  • 改善Java代码之慎用java动态编译

目录