下列关于GRU(Gated Recurrent Unit Cho, et al. 2014) 的哪个描述是错误的?
A.GRU混合了长期状态和隐藏状态
B.和LSTM相同的是, GRU也有三个门,即忘记门、更新门和输出门
C.在GRU中,取消了LSTM中的输出门
D.如果reset门为1,而update门为0的话,则GRU完全退化为一个RNN
- · 有4位网友选择 A,占比40%
- · 有3位网友选择 B,占比30%
- · 有3位网友选择 D,占比30%
A.GRU混合了长期状态和隐藏状态
B.和LSTM相同的是, GRU也有三个门,即忘记门、更新门和输出门
C.在GRU中,取消了LSTM中的输出门
D.如果reset门为1,而update门为0的话,则GRU完全退化为一个RNN
A、Is found in sympathetic ganglia
B、Activates nicotinic receptors on the adrenal medulla
C、Activates nicotinic receptors on skeletal muscle
D、All of the above
A、注意力机制只能应用于计算机视觉领域,目前在文本处理中没有应用案例
B、注意力机制只能应用于文本分类,无法应用在计算机视觉等领域
C、注意力机制是一种通用的思想,本身并不依赖于特定框架
D、注意力机制只能应用在循环神经网络框架中,无法在其它深度学习框架中应用
A、输入门层的目的是确定什么样的新信息被存放在长期状态中
B、使用sigmoid 层决定什么值将要更新
C、使用一个 tanh 层创建一个新的候选值向量,被加入到状态中。在创建新的候选值向量时,只会利用到当前的输入
D、之前的长期状态Ct-1将被更新为Ct。在这个更新过程中要用到加法门
下面关于计算LSTM中的忘记门的描述错误的是:
A、忘记门层 的任务是从当前输入中“忘记”信息
B、忘记门的输入为ℎ−1 和 ,输出的矩阵中每个元素为 0 到 1 之间的数值
C、忘记门的输出要与长期状态矩阵−1中的每个对应位置元素相乘
D、忘记门的输出中1 表示“完全保留”,0 表示“完全舍弃”
为了保护您的账号安全,请在“简答题”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!