下列关于长短期记忆网络LSTM和循环神经网络RNN的关系描述正确的是()。
A.LSTM是简化版的RNN
B.LSTM是双向的RNN
C.LSTM是多层的RNN
D.LSTM是RNN的扩展,通过特殊的结构设计来避免长期依赖问题
- · 有3位网友选择 B,占比33.33%
- · 有2位网友选择 D,占比22.22%
- · 有2位网友选择 A,占比22.22%
- · 有2位网友选择 C,占比22.22%
A.LSTM是简化版的RNN
B.LSTM是双向的RNN
C.LSTM是多层的RNN
D.LSTM是RNN的扩展,通过特殊的结构设计来避免长期依赖问题
A.LSTM中通过引入输入门、遗忘门、输出门解决了RNN中存在的梯度消失和梯度爆炸
B.LSTM中门的开关程度是由信息的权重决定的,即训练过程中记住重要信息
C.与RNN相比,LSTM中引入更多参数,所以其训练周期更久
D.LSTM中使用Sigmoid实现门限控制,而用TanH实现数据处理
A.长短期记忆网络LSTM
B.卷积神经网络CNN
C.多层感知机MLP
D.受限玻尔兹曼机
A.循环神经网络通常被用于处理序列数据
B.LSTM网络是对简单RNN网络的改进
C.循环神经网络不需要激活函数
D.循环神经网络中之前时间步的输出会影响后续时间步的输出
A.LSTM模型在改变RNN整体网络结构的同时,对每个时序信息的内部处理方式进行了改进
B.堆叠循环神经网络通过增加隐含层的数量来实现对复杂问题的处理
C.双向循环神经网络从两个方向建模序列的信息,能够更好的建模序列内的依赖关系
D.LSTM模型的提出是为了解决传统RNN的长期依赖问题
A.GRU是LSTM的简化,保留量遗忘门,合并了状态向量和输出向量
B.GRU的性能一般远强于LSTM
C.GRU的计算速度优于对应的LSTM
D.GRU的结构比LSTM简单,减少了计算量
A.这是由网络训练时反向传播时梯度消失引起的
B.这会导致输入的长句词汇之间的语义关系很难拟合
C.这会引发RNN的输入和输出的关系难以拟合
D.可以使得网络记忆更多的训练样本信息
为了保护您的账号安全,请在“简答题”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!