A.输入门
B.输出门
C.遗忘门
D.记忆门
A.LSTM中通过引入输入门、遗忘门、输出门解决了RNN中存在的梯度消失和梯度爆炸
B.LSTM中门的开关程度是由信息的权重决定的,即训练过程中记住重要信息
C.与RNN相比,LSTM中引入更多参数,所以其训练周期更久
D.LSTM中使用Sigmoid实现门限控制,而用TanH实现数据处理
A.LSTM中忘记门和输入门要用到乘法门
B.LSTM中输入门和输出门要用到乘法门
C.LSTM中只有输出门要用到乘法门
D.LSTM中忘记门和输出门要用到乘法门
A.LSTM中的输入门要用到加法门
B.LSTM中的输出门要用到加法门
C.LSTM中的忘记门要用到加法门
D.LSTM中的输入和输出门要用到加法门
A.控制当前时刻新输入信息的接受程度
B.负责协调与遗忘们的关系
C.负责协调与输出门的关系
D.计算当前时刻网络输入产生的新信息
A.GRU是LSTM的简化,保留量遗忘门,合并了状态向量和输出向量
B.GRU的性能一般远强于LSTM
C.GRU的计算速度优于对应的LSTM
D.GRU的结构比LSTM简单,减少了计算量
为了保护您的账号安全,请在“简答题”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!