python – Pytorch中的LSTM

我是PyTorch的新手.我遇到了一些包含各种不同例子的 GitHub repository (link to full code example).

还有一个关于LSTM的例子,这是Network类:

# RNN Model (Many-to-One)
class RNN(nn.Module):
    def __init__(self,input_size,hidden_size,num_layers,num_classes):
        super(RNN,self).__init__()
        self.hidden_size = hidden_size
        self.num_layers = num_layers
        self.lstm = nn.LSTM(input_size,batch_first=True)
        self.fc = nn.Linear(hidden_size,num_classes)

    def forward(self,x):
        # Set initial states 
        h0 = Variable(torch.zeros(self.num_layers,x.size(0),self.hidden_size)) 
        c0 = Variable(torch.zeros(self.num_layers,self.hidden_size))

        # Forward propagate RNN
        out,_ = self.lstm(x,(h0,c0))  

        # Decode hidden state of last time step
        out = self.fc(out[:,-1,:])  
        return out

所以我的问题是关于以下几行:

h0 = Variable(torch.zeros(self.num_layers,self.hidden_size)) 
c0 = Variable(torch.zeros(self.num_layers,self.hidden_size))

据我所知,每个训练样例都会调用forward().但这意味着隐藏状态和单元状态将被重置,即在每个训练示例中用零矩阵替换.

名称h0和c0表示这只是t = 0时的隐藏/单元状态,但为什么这些零的矩阵在每个训练样例中都移交给了lstm?

即使它们在第一次调用后被忽略,也不是一个非常好的解决方案.

在测试代​​码时,它表明MNIST集合的准确率为97%,因此它似乎以这种方式工作,但它对我没有意义.

希望有人可以帮我解决这个问题.

提前致谢!

解决方法

显然我对此走错了路.我混淆了隐藏的单位和隐藏/细胞状态.
在训练步骤中仅训练LSTM中的隐藏单元.在每个序列的开始处重置细胞状态和隐藏状态.因此,以这种方式进行编程才有意义.

非常遗憾..

相关文章

在这篇文章中,我们深入学习了XPath作为一种常见的网络爬虫技巧。XPath是一种用于定位和选择XML文档中特...
祝福大家龙年快乐!愿你们的生活像龙一样充满力量和勇气,愿你们在新的一年里,追逐梦想,勇往直前,不...
今天在爬虫实战中,除了正常爬取网页数据外,我们还添加了一个下载功能,主要任务是爬取小说并将其下载...
完美收官,本文是爬虫实战的最后一章了,所以尽管本文着重呈现爬虫实战,但其中有一大部分内容专注于数...
JSON是一种流行的数据传输格式,Python中有多种处理JSON的方式。官方的json库是最常用的,它提供了简单...
独立样本T检验适用于比较两组独立样本的均值差异,而配对T检验则适用于比较同一组样本在不同条件下的均...