动手学深度学习实践(李沐)——LSTM模型
LSTM计算逻辑流程图:对比——GRU计算逻辑流程:
·
1.LSTM模型复习与GRU的对比
LSTM计算逻辑流程图:
1.1 输入门、忘记门和输出门
将当前时间步的输入和前一个时间步的隐藏状态作为数据送入长短期记忆网络门中,它们由三个具有 sigmoid 激活函数的全连接层处理,以计算输入门、遗忘门和输出门的值。因此,这三个门的值都在 (0,1) 的范围内。如图:

1.2 候选记忆单元
候选记忆单元C,使用 tanh 函数作为激活函数,函数的值范围为 (−1,1) 。计算与RNN中的隐藏状态Ht类似,不过LSTM中会有两个状态。


1.3 记忆单元
在GRU中,有一种机制来控制输入和遗忘(或跳过)。类似地,在LSTM中,也有两个门用于这样的目的:
1.输入门 𝐈𝑡 控制采用多少来自 候选隐藏状态C~t\tilde{\mathbf{C}}_tC~t 的的新数据;
2.遗忘门 𝐅𝑡 控制保留了多少旧记忆单元 𝐂𝑡−1∈ℝ𝑛×ℎ 的内容。
使用与前面相同的按元素做乘法的技巧,得出以下更新公式:
1.4 隐藏状态
输出门发挥作用的地方,确保了 𝐇𝑡 的值始终在区间 (−1,1) 内,则需要加上tanh 函数作为激活函数。
总而言之,这个机制就是在于要么看中当前的Xt,要么多注意之前的东西,或者重置当前信息。

输出 :Yt=HtW(hq)+bqY_t=H_t W_(hq)+b_qYt=HtW(hq)+bq
对比——GRU计算逻辑流程:

2.代码实现LSTM
2.1读取数据集
import torch
from torch import nn
from d2l import torch as d2l
batch_size, num_steps = 32, 35
train_iter, vocab = d2l.load_data_time_machine(batch_size, num_steps)
2.2 初始化模型参数
def get_lstm_params(vocab_size, num_hiddens, device):
num_inputs = num_outputs = vocab_size
def normal(shape): # 自定义一个初始化函数normal()
return torch.randn(size=shape, device=device)*0.01
def three():
return (normal((num_inputs, num_hiddens)),
normal((num_hiddens, num_hiddens)),
torch.zeros(num_hiddens, device=device))
W_xi, W_hi, b_i = three() # 输入门参数
W_xf, W_hf, b_f = three() # 遗忘门参数
W_xo, W_ho, b_o = three() # 输出门参数
W_xc, W_hc, b_c = three() # 候选记忆单元参数
# 输出层参数
W_hq = normal((num_hiddens, num_outputs))
b_q = torch.zeros(num_outputs, device=device)
# 附加梯度
params = [W_xi, W_hi, b_i, W_xf, W_hf, b_f, W_xo, W_ho, b_o, W_xc, W_hc,
b_c, W_hq, b_q]
for param in params:
param.requires_grad_(True)
return params
2.3 定义模型
- 隐藏状态初始化:
def init_lstm_state(batch_size, num_hiddens, device):
return (torch.zeros((batch_size, num_hiddens), device=device),# H的初始化,形状为(批量大小,隐藏单元数)
torch.zeros((batch_size, num_hiddens), device=device))# C的初始化,形状为(批量大小,隐藏单元数)
- 定义lstm()函数
def lstm(inputs, state, params):
[W_xi, W_hi, b_i, W_xf, W_hf, b_f, W_xo, W_ho, b_o, W_xc, W_hc, b_c,
W_hq, b_q] = params
(H, C) = state
outputs = []
for X in inputs: ## RNN ,GRU LSTM 的关键区别在于 Ht隐藏状态是怎样更新的。
I = torch.sigmoid((X @ W_xi) + (H @ W_hi) + b_i)
F = torch.sigmoid((X @ W_xf) + (H @ W_hf) + b_f)
O = torch.sigmoid((X @ W_xo) + (H @ W_ho) + b_o)
C_tilda = torch.tanh((X @ W_xc) + (H @ W_hc) + b_c)
C = F * C + I * C_tilda # *是按元素点乘, @矩阵乘法
H = O * torch.tanh(C)
## 输出Y
Y = (H @ W_hq) + b_q
outputs.append(Y)
return torch.cat(outputs, dim=0), (H, C)
2.4 训练和预测
import os
os.environ["KMP_DUPLICATE_LIB_OK"]="TRUE"
vocab_size, num_hiddens, device = len(vocab), 256, d2l.try_gpu()
num_epochs, lr = 500, 1
model = d2l.RNNModelScratch(len(vocab), num_hiddens, device, get_lstm_params,
init_lstm_state, lstm) ### 引入 RNNModelScratch 类
d2l.train_ch8(model, train_iter, vocab, lr, num_epochs, device)
结果输出:
2.5 使用框架简洁实现
num_inputs = vocab_size
lstm_layer = nn.LSTM(num_inputs, num_hiddens) ## nn.RNN(),nn.GRU(),nn.LSTM()的区别
model = d2l.RNNModel(lstm_layer, len(vocab)) # 隐藏层 lstm_layer
model = model.to(device)
d2l.train_ch8(model, train_iter, vocab, lr, num_epochs, device)
结果预测如下:
3. 小结
- LSTM 有三种类型的门:输入门、遗忘门和控制信息流的输出门。
- LSTM的隐藏层输出包括“隐藏状态”和“记忆单元”。只有隐藏状态会传递到输出层,而记忆单元完全属于内部信息。
- LSTM可以缓解梯度消失和梯度爆炸。
更多推荐
所有评论(0)