这是我的第307篇原创文章。

一、引言

单站点单变量输入单变量输出多步预测问题----基于LSTM实现。

单输入就是输入1个特征变量

单输出就是预测出1个标签的结果

多步就是利用过去N天预测未来M天的结果

二、实现过程

2.1 读取数据集

# 读取数据集
data = pd.read_csv('data.csv')
# 将日期列转换为日期时间类型
data['Month'] = pd.to_datetime(data['Month'])
# 将日期列设置为索引
data.set_index('Month', inplace=True)

data:

图片

2.2 划分数据集

# 拆分数据集为训练集和测试集
train_size = int(len(data) * 0.8)
train_data = data[:train_size]
test_data = data[train_size:]

# 绘制训练集和测试集的折线图
plt.figure(figsize=(10, 6))
plt.plot(train_data, label='Training Data')
plt.plot(test_data, label='Testing Data')
plt.xlabel('Year')
plt.ylabel('Passenger Count')
plt.title('International Airline Passengers - Training and Testing Data')
plt.legend()
plt.show()

共144条数据,8:2划分:训练集115,测试集29。

训练集和测试集:

图片

2.3 归一化

scaler = MinMaxScaler()
df_for_training_scaled = scaler.fit_transform(train_data.values.reshape(-1, 1))
df_for_testing_scaled = scaler.transform(test_data.values.reshape(-1, 1))

2.4 构造LSTM数据集(时序-->监督学习)

def split_series(series, n_past, n_future):
    pass

# 假设给定过去 10 天的观察结果,我们需要预测接下来的 3 天观察结果
n_past = 10
n_future = 3
n_features = 1
# # 将数据集转换为 LSTM 模型所需的形状(样本数,时间步长,特征数)
X_train, y_train = split_series(df_for_training_scaled,n_past, n_future)
X_train = X_train.reshape((X_train.shape[0], X_train.shape[1],n_features))
y_train = y_train.reshape((y_train.shape[0], y_train.shape[1], n_features))
X_test, y_test = split_series(df_for_testing_scaled,n_past, n_future)
X_test = X_test.reshape((X_test.shape[0], X_test.shape[1],n_features))
y_test = y_test.reshape((y_test.shape[0], y_test.shape[1], n_features))

print("trainX Shape-- ",X_train.shape)
print("trainY Shape-- ",y_train.shape)
print("testX Shape-- ",X_test.shape)
print("testY Shape-- ",y_test.shape)

假设给定过去 10 天的观察结果,预测接下来的 3 天观察结果:

取出df_for_training_scaled第【1-10】行第【1】列的10条数据作为X_train[0],取出df_for_training_scaled第【11-13】行第【1】列的3条数据作为y_train[0];

取出df_for_training_scaled第【2-11】行第【1】列的10条数据作为X_train[1],取出df_for_training_scaled第【12-14】行第【1】列的3条数据作为y_train[1];

取出df_for_training_scaled第【103-112】行第【1】列的10条数据作为X_train[102],取出df_for_training_scaled第【113-115】行第【1】列的3条数据作为y_train[102];

依此类推。最终构造出的训练集数量(103)比划分时候的训练集数量(115)少一个12(n_past+n_future-1)。

图片

X_train是一个(103,10,1)的三维数组,三个维度分布表示(样本数量,步长,特征数),每一个样本比如X_train[0]是一个(10,1)二维数组表示(步长,特征数),这也是seq2seq模型每一步的输入。

图片

y_train是一个(103,3,1)的三维数组,三个维度分布表示(样本数量,步长,标签数),每一个样本比如y_train[0]是一个(3,1)二维数组表示(步长,标签数),这也是seq2seq模型每一步的输出。

图片

2.5 建立模拟合模型

encoder_inputs = Input(shape=(n_past, n_features))
encoder_l1 = LSTM(100, return_state=True)
encoder_outputs1 = encoder_l1(encoder_inputs)
encoder_states1 = encoder_outputs1[1:]
decoder_inputs = RepeatVector(n_future)(encoder_outputs1[0])
decoder_l1 = LSTM(100, return_sequences=True)(decoder_inputs,initial_state = encoder_states1)
decoder_outputs1 = TimeDistributed(Dense(n_features))(decoder_l1)
model_e1d1 = Model(encoder_inputs,decoder_outputs1)
model_e1d1.summary()

这是一个多输入多输出的 seq2seq 模型:具有一个编码器层和一个解码器层的序列到序列模型。

图片

进行训练:

reduce_lr = tf.keras.callbacks.LearningRateScheduler(lambda x: 1e-3 * 0.90 ** x)
model_e1d1.compile(optimizer=tf.keras.optimizers.Adam(), loss=tf.keras.losses.Huber())
history_e1d1=model_e1d1.fit(X_train,y_train,epochs=25,validation_data=(X_test,y_test),batch_size=32,verbose=0,callbacks=[reduce_lr])

2.6 进行预测

进行预测,上面我们分析过模型每一步的输入是一个(10,1)二维数组表示(步长,特征数),模型每一步的输出是是一个(3,1)二维数组表示(步长,标签数)

prediction_test = model.predict(testX)

如果直接model.predict(testX),testX的形状是(17,10,1),是一个批量预测,输出prediction_test是一个(17,3,1)的三维数组,prediction_test[0]就是第一个样本未来3天标签的预测结果,prediction_test[1]就是第二个样本未来3天标签的预测结果...

图片

看一下第一个测试集样本的预测情况:

pred_e1d1_0 = pred_e1d1[0]
pred_e1d1_0_T = scaler.inverse_transform(pred_e1d1_0)

y_test_0 = y_test[0]
y_test_0_T = scaler.inverse_transform(y_test_0)

预测值(未来3天变量的预测):

图片

真实值(未来3天变量的真值):

图片

作者简介:

读研期间发表6篇SCI数据挖掘相关论文,现在某研究院从事数据算法相关科研工作,结合自身科研实践经历不定期分享关于Python、机器学习、深度学习、人工智能系列基础知识与应用案例。致力于只做原创,以最简单的方式理解和学习,关注我一起交流成长。需要数据集和源码的小伙伴可以关注底部公众号添加作者微信。

Logo

开放原子开发者工作坊旨在鼓励更多人参与开源活动,与志同道合的开发者们相互交流开发经验、分享开发心得、获取前沿技术趋势。工作坊有多种形式的开发者活动,如meetup、训练营等,主打技术交流,干货满满,真诚地邀请各位开发者共同参与!

更多推荐